Toon posts:

Areca 1220 + 8x 1TB harddisk, welke raidvorm?

Pagina: 1
Acties:
  • 227 views

Verwijderd

Topicstarter
Ik heb hier aangeschaft:

Areca ARC-1220 (8x SATA300 RAID PCI-E x8) 256MB Kit
+ Areca ARC-6120 (Backup Battery Module) NEW

+ 8x Western Digital WD10EADS SATA harddisk

De bedoeling is dus om de 8 schijven in een raidvorm aan de controller te hangen. tot nu toe heb ik altijd raid-10 setups gedraaid aan de intel ICH9R/10R maar wilde het toch eens wat serieuzer gaan aanpakken.

Het probleem is nu dat ik deze setup wil gaan draaien maar niet precies weet welke raidsetup aan te bevelen is. het doel van de setup is zowel snelheid als veiligheid. windows (xp64) zal gaan booten van deze setup.

het aantal TB's dat overblijft na het maken van de setup is mij minder belangrijk als de veiligheid en snelheid.

is er dus iemand die reeds deze setup heeft getest in meerdere raid vormen en wat zijn de resultaten?

  • Snow_King
  • Registratie: April 2001
  • Laatst online: 15-02 07:48

Snow_King

Konijn is stoer!

Dan kan je het beste gaan voor RAID-6 + HotSpare, dan ben je er echter zeker van.

Netto heb je dan ongeveer 5.7TB opslag, maar ben je wel zeker van een goede opslag.

  • _JGC_
  • Registratie: Juli 2000
  • Nu online
http://www.xbitlabs.com/a...play/areca-arc1220_3.html

Als je die grafieken bekijkt haal je de meeste snelheid met RAID-0 (geen redundancy) of RAID-10 (50% capaciteitsverlies). Met dusdanig grote disks zou ik gewoon RAID-6 gaan draaien, uit de grafieken in deze benchmark zit er niet wonderbaarlijk veel verschil tussen RAID5 en RAID6 met de ARC1220. Een rebuild met 1TB disks en RAID-5 duurt al snel een uur of 8-9, in de tussentijd heb je kans dat er een disk uitvalt of je rebuild mislukt dankzij een leesfout op de andere schijven met RAID-5. RAID-6 lost dat op met 2 disks die mogen uitvallen, en kan bij een leesfout tijdens het rebuilden dus ook gewoon de data opnieuw uitrekenen.

  • PD2JK
  • Registratie: Augustus 2001
  • Laatst online: 11:31

PD2JK

ouwe meuk is leuk

RAID5 of RAID6.

Bij RAID5 heb je één parity schijf, en bij RAID6 twee parity schijven. RAID6 is veiliger, maar iets minder snel. Hoewel ik niet denk dat je het gaat merken in de praktijk, maar dat ligt ook aan de toepassing van de RAID set.

Zelf draai ik 8x 400GB in RAID5 en er is de afgelopen drie jaar één schijf defect geraakt. Was er tijdens het rebuilden nóg een schijf uitgevallen, dan zou ik mijn data kwijt zijn. Bij RAID6 mogen er dus twee schijven tegelijkertijd uitvallen.

Heeft van alles wat: 8088 - 286 - 386 - 486 - 5x86C - P54CS - P55C - P6:Pro/II/III/Xeon - K7 - NetBurst :') - Core 2 - K8 - Core i$ - Zen$


  • Sparhawk
  • Registratie: Maart 2001
  • Laatst online: 15-02 19:56

Sparhawk

Can bind minds with his spoon

Beste Bijtjuh,

Als je bovenaan kijkt, kun je de FAQ vinden, en daar staat weer een linkje naar dit topic

Daar kun je, in combinatie met wat benchmarks, exact vinden wat jij wil.
Het hangt er namelijk puur vanaf hoeveel veiligheid en hoeveel snelheid je wil.

Als je dat topic compleet gelezen hebt, kun je uiteraard specifieke vragen nog wel hier stellen, maar jouw vraag is veel te algemeen.

Succes ermee :)

Wil iedereen die in telekinese gelooft mijn hand opheffen a.u.b.


  • analog_
  • Registratie: Januari 2004
  • Niet online
Mompelt iets over MBR/GPT,2TB limieten en met name Windows booten vanaf dergelijke volumes.

  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

Neem RAID FAQ eens door met betrekking tot de RAIDlevels. Je Areca zal de meeste wel supporten.
Welke je gaat nemen hangt natuurlijk af van wat je zelf belangrijk vind. Voor pure snelheid pak je RAID0, wil je echt veilig doe je RAID6 + hotspare.

Maak het zaakje desnoods aan en ga benchen. Het aanmaken van array's gaat redelijk vlot op een 1220, dus met wat tijd is het prima te testen, of ga uit van bestaande benchmarks.

Dit topic gaat in elk geval op slot, omdat het meeste gewoon uit de FAQ te halen is met betrekking tot RAIDlevels en de snelheden en redundancy ervan.
Pagina: 1

Dit topic is gesloten.