Toon posts:

raid 5 permanent online ?

Pagina: 1
Acties:

Verwijderd

Topicstarter
Hi,

we hebben hier een NAS aangeschaft met 4 hotswap schijven.

In eerste instantie gaan we voor een raid5 config. Nu is mijn vraag, als een van de 4 schijven uitvalt blijft het systeem dan online ? Of kan je niet werken tot de defecte schijf vervangen is rebuild is ?
Of is dat net de reden waarom er een raid5 + spare bestaat.

TM

  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Da's het voordeel van RAID 5. 1 defecte schijf en de array blijft online. De data die op een kapotte schijf staat wordt berekend aan de hand van de parity block.

Met een RAID 5 array + hot spare kunnen er dus 2 uitvallen voor je problemen gaat krijgen.

had je ook in de RAID FAQ kunnen vinden.

Of bijvoorbeeld hier

Overigens vind ik het wel frappant dat er een NAS aangeschaft is, maar niemand de basisbeginselen van RAID kent?

[ Voor 100% gewijzigd door Gunner op 27-04-2007 10:52 ]

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


Verwijderd

Gunner schreef op vrijdag 27 april 2007 @ 10:46:
Met een RAID 5 array + hot spare kunnen er dus 2 uitvallen voor je problemen gaat krijgen.
Nou, nee. Er mag nog steeds maar 1 schijf uitvallen; maar als dat zo is gaat de array wel gelijk rebuilden doordat de hot spare the foute schijf overneemt. Dan is je array binnen enkele uren weer compleet en heb je maar een paar uur een onveilige situatie gehad. Vooral handig in remote (colocated) servers zodat de admin niet naar het datacentrum toe moet om snel een schijf te vervangen in de RAID-config.
Overigens vind ik het wel frappant dat er een NAS aangeschaft is, maar niemand de basisbeginselen van RAID kent?
Mja dat is helaas wel de praktijk. Wat dacht je van verkopers in computerwinkels, die weten ook minder dan de gemiddelde brugklasser met puisten. Een leuke quote daarover: "The only difference between a car salesman and a computer salesman is that the car salesman knows he's lying." :+

@TS: je moet wel weten dat het rebuilden na een disk failure erg I/O intensief is, en dus je draaiende systeem wel behoorlijk zal afremmen.

  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Verwijderd schreef op vrijdag 27 april 2007 @ 15:01:
Nou, nee. Er mag nog steeds maar 1 schijf uitvallen; maar als dat zo is gaat de array wel gelijk rebuilden doordat de hot spare the foute schijf overneemt. Dan is je array binnen enkele uren weer compleet en heb je maar een paar uur een onveilige situatie gehad. Vooral handig in remote (colocated) servers zodat de admin niet naar het datacentrum toe moet om snel een schijf te vervangen in de RAID-config.
Ah natuurlijk, dan heb je pas een probleem als tijdens het rebuilden nog een schijf uitvalt bedoel je?

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • OlivierF
  • Registratie: Augustus 2004
  • Laatst online: 13:39
Inderdaad, als dat zou gebeuren ben je dus je data kwijt, zorg dus zowiezo voor een backup, ook met RAID 5.

Verwijderd

Gunner schreef op vrijdag 27 april 2007 @ 15:07:
[...]

Ah natuurlijk, dan heb je pas een probleem als tijdens het rebuilden nog een schijf uitvalt bedoel je?
Yep. Alhoewel met een hot-spare je de 'periode' dat de array degraded is dus verkort tot een paar uur, en het extreem onwaarschijnlijk is dat twee schijven binnen 2 uur tijdbestek het opgeven. Maar idd, voor bedrijfskritische data dien je ook een backup te hebben.

  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Dat is vanzelfsprekend :)

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Hardware Junk
  • Registratie: Januari 2004
  • Laatst online: 11:37
Verwijderd schreef op vrijdag 27 april 2007 @ 15:50:
[...]

Yep. Alhoewel met een hot-spare je de 'periode' dat de array degraded is dus verkort tot een paar uur, en het extreem onwaarschijnlijk is dat twee schijven binnen 2 uur tijdbestek het opgeven. Maar idd, voor bedrijfskritische data dien je ook een backup te hebben.
Twee uur is wat overdreven hoor, met 4x 750GB + uitval ben je niet binnen 2 uur klaar :) Vandaar dat Raid 6 zo hip is de laatste tijd, bij gebruik van grote schijven in bedrijfscritische situaties.

2240 Wp oost + 3300 Wp west + 2KWh accu + 1800 Wp zuid


Verwijderd

Hardware Junk schreef op vrijdag 27 april 2007 @ 15:51:
[...]

Twee uur is wat overdreven hoor, met 4x 750GB + uitval ben je niet binnen 2 uur klaar :) Vandaar dat Raid 6 zo hip is de laatste tijd, bij gebruik van grote schijven in bedrijfscritische situaties.
2 uur is niet overdreven kort. De rebuild tijd is (theoretisch) niet hoger bij meer schijven. Ook al heb je 24 schijven als iedere schijf de volle snelheid haalt (en de controller dit bij kan houden) dan duurt de rebuild dus even lang als de snelheid van 1 disk om alles te beschrijven.

Grotere schijven (750GB) kunnen zichzelf echter niet in 2 uur beschrijven, gemiddeld 50MB/s dus duurt dat 4,16 uur. Bij 320GB schijven is het al anders, die zijn in 1,78 uur klaar.

Verwijderd

Topicstarter
Overigens vind ik het wel frappant dat er een NAS aangeschaft is, maar niemand de basisbeginselen van RAID kent?
Voor alles moet het een eerste keer zijn. En dan ben ik nog degene die raid5 voorstelde ipv raid1 8)7

allen al bedank voor de reakties en FAQ's
TM

[ Voor 8% gewijzigd door Verwijderd op 27-04-2007 16:50 ]


  • Kokkers
  • Registratie: Oktober 2000
  • Laatst online: 08:41
Verwijderd schreef op vrijdag 27 april 2007 @ 16:15:
[...]

2 uur is niet overdreven kort. De rebuild tijd is (theoretisch) niet hoger bij meer schijven. Ook al heb je 24 schijven als iedere schijf de volle snelheid haalt (en de controller dit bij kan houden) dan duurt de rebuild dus even lang als de snelheid van 1 disk om alles te beschrijven.

Grotere schijven (750GB) kunnen zichzelf echter niet in 2 uur beschrijven, gemiddeld 50MB/s dus duurt dat 4,16 uur. Bij 320GB schijven is het al anders, die zijn in 1,78 uur klaar.
In theorie heb je misschien gelijk maar ik denk dat je wel heel erg optimistisch bent.

In de praktijk zal de degraded array echter ook nog zijn gebruikelijke IO requests af moeten handelen en kun je het wel vergeten dat je 50MB/s gaat halen.

Ik heb al meer dan eens een array meer dan een dag zien rebuilden.

  • Hardware Junk
  • Registratie: Januari 2004
  • Laatst online: 11:37
Verwijderd schreef op vrijdag 27 april 2007 @ 16:15:
[...]

2 uur is niet overdreven kort. De rebuild tijd is (theoretisch) niet hoger bij meer schijven. Ook al heb je 24 schijven als iedere schijf de volle snelheid haalt (en de controller dit bij kan houden) dan duurt de rebuild dus even lang als de snelheid van 1 disk om alles te beschrijven.

Grotere schijven (750GB) kunnen zichzelf echter niet in 2 uur beschrijven, gemiddeld 50MB/s dus duurt dat 4,16 uur. Bij 320GB schijven is het al anders, die zijn in 1,78 uur klaar.
Ik hoor eerder over 20-24 uur bij 6-8x 500GB.

Ikzelf zit met benchmark HDtach op > 50MB/s, maar als ik in reallife wat op het array gooi, zie ik de meters niet boven de 5,6MiB/s gaan. Dit is op 3x 500GB. Geen zin om alles te berekenen, Winows geeft me 931GB als beschrijfbaar medium. Als ik dan ((931 * 1024) / 5,6) / (60 * 60) = 47 uur. Dus vind dat nog best knap :) Als de kwantiteit niet uit maakt, 47 / 2 ~ 24 uur.

[edit]
Voor mij is die 5,6MiB/s meer dan zat. Mara als je dezelfde schijven hebt, uit dezelfde batch, of zelfs opvolgende serienummers, kan het zijn dat je bij uitval van één schijf, een groot risico loopt dat een ander ook snel gaat. Uitgaande van statistieken is wat anders dan reallife, waar dit domweg ene mogelijkheid is. Je loopt in mijn geval dan dus 24-47 uur het risico, niet alleen bij normaal gebruik, maar zelfs bij een verhoogd IO door rebuilden. Deze factoren kunnen een verhoogt risico met zich meebrengen, opgeteld bij de kans dat je een rotte serie hebt. Voor een bedrijfscritische situatie vind ik het dan altijd wel mooi verschillende schijven te verkiezen ipv identieke, doch met dezelfde specificaties. Dus bijvoorbeeld 2x Seagate, 2x Hitachi etc. Voor mijn eigen PC hou ik het wel bij identieke, dat staat optisch beter verzorgt, maar is misschien een optische illusie.

[ Voor 33% gewijzigd door Hardware Junk op 27-04-2007 17:26 ]

2240 Wp oost + 3300 Wp west + 2KWh accu + 1800 Wp zuid


Verwijderd

Kokkers schreef op vrijdag 27 april 2007 @ 17:03:
In de praktijk zal de degraded array echter ook nog zijn gebruikelijke IO requests af moeten handelen en kun je het wel vergeten dat je 50MB/s gaat halen.
Als de array ook gebruikt wordt dan gaat het vanzelfsprekend behoorlijk traag ja. Maar dat ligt dus aan de situatie, een productieserver of een thuisserver. Bij laatstgenoemde doe je het gewoon rustig aan zodat hij lekker snel kan rebuilden. Maar MP3-tje streamen ofzo zal echt geen probleem zijn. :)
Ik heb al meer dan eens een array meer dan een dag zien rebuilden.
Dat kan ook prima een brakke controller zijn die ook nog eens over PCI loopt. En PCI is de bron van al het kwaad. ;)
Hardware Junk schreef op vrijdag 27 april 2007 @ 17:10:
Ik hoor eerder over 20-24 uur bij 6-8x 500GB.
Ik denk dat Windows software RAID5 ook wel enorm traag zal zijn. Maar kijkend naar mijn Areca ARC-1220 doet die met 8 schijven iets van 90 minuten in RAID5. Dat is dan wel foreground initialization. Als je background init doet dan kun je de array gewoon gebruiken maar gaat het wat langzamer allemaal.

Goede software RAID (geom_raid5) met 10x 500GB Samsung T166 schijven via SATA duurde in totaal 244 minuten. Daarbij moest ook een hoop pariteit geschreven worden (was dus al data op de schijven geschreven).
Ikzelf zit met benchmark HDtach op > 50MB/s, maar als ik in reallife wat op het array gooi, zie ik de meters niet boven de 5,6MiB/s gaan. Dit is op 3x 500GB.
Welk RAID-level? Welke controller? 5,6MB/s write performance is natuurlijk supertraag. Een moderne HDD (Samsung T166 of Seagate 7200.10) doet iets van 75MB/s in outer tracks en 37-40MB/s in de inner tracks, gemiddeld is 50MB/s best veilig en absoluut niet te optimistisch. Maarja als alle 8 schijven via PCI moeten kun je erop natellen dat elke schijf maar 12MB/s kan ipv 80, dat maakt wel even verschil. ;)
Geen zin om alles te berekenen, Winows geeft me 931GB als beschrijfbaar medium. Als ik dan ((931 * 1024) / 5,6) / (60 * 60) = 47 uur. Dus vind dat nog best knap :) Als de kwantiteit niet uit maakt, 47 / 2 ~ 24 uur.
Windows Software RAID5? Dat is natuurlijk wel de allertraagste implementatie die het universum kent. Maarja Microsoft zal wel denken beter brak geimplementeerd dan niet geimplementeerd. Nu kunnen ze toch zeggen dat hun serverversies RAID5 doen. ;)
Voor mij is die 5,6MiB/s meer dan zat. Mara als je dezelfde schijven hebt, uit dezelfde batch, of zelfs opvolgende serienummers, kan het zijn dat je bij uitval van één schijf, een groot risico loopt dat een ander ook snel gaat.
Daar geloof ik dus geen ene bal van. Het zijn geen gloeilampen waar uitval min of meer te voorspellen is.
Je loopt in mijn geval dan dus 24-47 uur het risico, niet alleen bij normaal gebruik, maar zelfs bij een verhoogd IO door rebuilden. Deze factoren kunnen een verhoogt risico met zich meebrengen, opgeteld bij de kans dat je een rotte serie hebt. Voor een bedrijfscritische situatie vind ik het dan altijd wel mooi verschillende schijven te verkiezen ipv identieke, doch met dezelfde specificaties.
Voor bedrijfskritieke data zou je ook RAID6 of RAID7 kunnen overwegen. Zo duur is dat niet meer met Areca.

[ Voor 3% gewijzigd door Verwijderd op 27-04-2007 20:01 ]

Pagina: 1