PV: 20x 370Wp DMEGC DM375M6-60HBB panelen (12x Oost / 8x West) = 7400 Wp op een SAJ R5-6K-T2 (6kW) 3-fase string-omvormer
AC: Mitsubishi Heavy Industries SCM80ZS-W (8kW) multi-spit met 1x SRK50ZS-W (5kW) / 1x SRK35ZS-W (3.5kW) / 2x SRK25ZS-W (2.5kW)
Zowiezo zo ik je aanraden om toch maar 4 schijven aan te schaffen en in RAID te zetten als de data je lief is. Of misschien 2 schijven in RAID en 1 schijf niet in RAID.
Dat probleem speelt alleen als je een hardware raid controller gebruikt. Hierdoor gaan de schijven eerder in slaap dan de raid controller denkt en gooit de controller ze uit de raid set wanneer ze niet snel genoeg weer wakker worden.polli_ schreef op maandag 14 maart 2011 @ 08:16:
De Western Digital is iets stiller als de Samsung. Maar kent meer problemen als de Samsung(zie WD headparking).
TLER is het ding dat je zou moeten aanpassen maar er is nogal onduidelijkheid over volgens mij of dat nu wel of niet functioneert op de 2TB GP disks.
Mijn persoonlijke ervaring met WD schijven is prima, Samsung niet zo maar dat kan per persoon verschillen
[ Voor 8% gewijzigd door redfoxert op 14-03-2011 08:33 ]
Verwijderd
Verwijderd
Als het om snelheid gaat kun je juist beter de F3 Ecogreen met 500GB platters halen.Verwijderd schreef op maandag 14 maart 2011 @ 12:10:
Samsung is ook sneller dan de WD, en bij Samsung weet je zeker dat je de 666GB platters krijgt..
Samsung:
+Sneller
+Zeker 666GB platters
-Firmware issue
-Vaak bad sectors?
WD:
+Stiller
-Headparking issues (al is het me niet geheel bekend wat dat inhoudt)
-Misschien 500GB platters
Ik was overigens niet van plan om RAID te gebruiken (of het moet hier veel sneller door worden?). Ik durf überhaupt niet te zeggen of mijn MSI G31M3-L V2 überhaupt wel een RAID-controller aan boord heeft en als hij dat al heeft of die wel zo fatsoenlijk is. Verder gaat het puur om het streamen van films, series en muziek dus ik hoef geen backup-systeem, het is geen wereldramp als die data verloren gaat.
Ik heb overigens niet heel goed in de pricewatch gekeken, want ik zie nu dat er nog een 2TB schijf in die prijs klasse is, namelijk de Seagate Barracuda Green 5900. Deze draait op 5900rpm, heeft 64mb cache en een SATA-600 aansluiting (niet dat mijn moederbord dat heeft maargoed), weet iemand wellicht of dit een betere keuze zou zijn dan de Samsung en WD? Dit gezien die allebei toch wel wat probleempjes hebben...
PV: 20x 370Wp DMEGC DM375M6-60HBB panelen (12x Oost / 8x West) = 7400 Wp op een SAJ R5-6K-T2 (6kW) 3-fase string-omvormer
AC: Mitsubishi Heavy Industries SCM80ZS-W (8kW) multi-spit met 1x SRK50ZS-W (5kW) / 1x SRK35ZS-W (3.5kW) / 2x SRK25ZS-W (2.5kW)
Verwijderd
Want? 105MB/s is sneller dan 140MB/s?Nielson schreef op maandag 14 maart 2011 @ 12:19:
[...]
Als het om snelheid gaat kun je juist beter de F3 Ecogreen met 500GB platters halen.
Grotere platters betekent hogere datadichtheid (areal density) en dat betekent een hogere sequentiële doorvoerheid bij gelijke rpm. Dus een 666GB platter HDD presteert beter dan een 500GB platter HDD. Nu kan de rotatiesnelheid nog verschil uitmaken, maar interessant genoeg hebben juist lage rpm schijven een hogere datadichtheid; hogere rpm schijven worden pas later uitgerust met dezelfde capaciteit platters. 750GB platters op 4200rpm is tot dusver het hoogste; al zou Samsung 1TB platters op 5200rpm hebben weten te krijgen, wat ze zelf overigens ontkennen.
@Zweden: hoezo zou Samsung F4 vaker last hebben van bad sectors? Juist minder dan bijvoorbeeld WD20EADS. De firmware fix is voor nieuwe schijven niet meer nodig, maar het kan geen kwaad om er zeker van te zijn dat je niet een schijf van oude voorraad hebt.
[ Voor 13% gewijzigd door Verwijderd op 14-03-2011 16:25 ]
PV: 20x 370Wp DMEGC DM375M6-60HBB panelen (12x Oost / 8x West) = 7400 Wp op een SAJ R5-6K-T2 (6kW) 3-fase string-omvormer
AC: Mitsubishi Heavy Industries SCM80ZS-W (8kW) multi-spit met 1x SRK50ZS-W (5kW) / 1x SRK35ZS-W (3.5kW) / 2x SRK25ZS-W (2.5kW)
Niet automatisch:Verwijderd schreef op maandag 14 maart 2011 @ 16:23:
[...]
Want? 105MB/s is sneller dan 140MB/s? Grotere platters betekent hogere datadichtheid (areal density) en dat betekent een hogere sequentiële doorvoerheid bij gelijke rpm. Dus een 666GB platter HDD presteert beter dan een 500GB platter HDD.
http://www.storagereview....point_f4eg_review_hd204ui
http://nl.hardware.info/r...reen-2tb-review-conclusieThe problem is that while the F4EG was fun to talk to backstage, when we finally pulled up the curtain and asked her to dance she tripped over her own two feet. Synthetic testing showed a strong drive, but people don't run IOMeter for kicks, and when real-world workloads were applied the F4EG slowed compared to its predecessor.
Een Spinpoint F4 EcoGreen als opvolger van een Spinpoint F3 EcoGreen. Je zou denken dat een nieuwe schijf altijd sneller is dan z'n voorloper, maar dat is niet het geval. In de PCMark Vantage test, dé maat voor de prestaties van harde schijven in de praktijk, blijkt de F4 een stuk trager dan de F3. De overstap naar de nieuwe 667 GB platters blijkt dus voornamelijk een kostenvoordeel te hebben: de F4 is immers duidelijk goedkoper dan de F3.
CeBIT 2011 - Samsung Spinpoint F6 EcoGreen 2TB with two platters750GB platters op 4200rpm is tot dusver het hoogste; al zou Samsung 1TB platters op 5200rpm hebben weten te krijgen, wat ze zelf overigens ontkennen.
Is in ieder geval bij mijn 1.5TB Seagate's het geval.
Als je stil blijft staan, komt de hoek wel naar jou toe.
Verwijderd
StorageReview is nog redelijk, Hardware.info gebruikt geen relevante benchmarks. SR klopt ook aardig met het beeld: 105MB/s voor de F3EG en 140MB/s voor de Samsung F4.
Merk ook op dat de Samsung F3 niet hetzelfde is als de F3EG; de eerste draait op 7200rpm de andere op 5400rpm net als de F4. Toch is de F4 5400rpm vrijwel even snel als de F3 7200rpm qua algemeen gebruik (mixed sequential+random) en sneller met sequential I/O.
Voor een NAS zul je waarschijnlijk vooral grote bestanden opslaan. In dat geval is de sequential performance het meest relevant. Bij ZFS zelfs het enige; HDDs zijn qua random I/O gewoon enorm traag en ZFS kan door gebruik van SSDs de HDDs een behoorlijke performanceboost geven, waarbij random writes worden omgetoverd in sequential writes voor de HDDs. Daarvoor heb je wel een nieuwe SSD nodig met supercapacitor, zoals de Intel G3 of Marvell C400. Btrfs op Linux heeft ook zo'n functie, maar minder uitontwikkeld en Btrfs is nog geen bruikbaar stabiel platform.
Bij beide gaat het om de F3 EG vs F4 EG. Maar maakt verder ook niet zoveel uit, prijs en stroomverbruik (warmte) zijn bij dit soort schijven minstens zo belangrijk en daar wint de F4 ruim.Verwijderd schreef op maandag 14 maart 2011 @ 17:36:
Merk ook op dat de Samsung F3 niet hetzelfde is als de F3EG; de eerste draait op 7200rpm de andere op 5400rpm net als de F4. Toch is de F4 5400rpm vrijwel even snel als de F3 7200rpm qua algemeen gebruik (mixed sequential+random) en sneller met sequential I/O.
M'n huidige mdadm raid5 setje met 5 1T F2EG's is praktisch vol dus ben momenteel ook aan het rondkijken naar wat nieuws. ZFS ziet er erg interessant uit, enige wat ik erg jammer vind is dat als je ruimte tekort komt je niet even snel een schijfje toe kunt voegen aan je array zoals bij mdadm.Voor een NAS zul je waarschijnlijk vooral grote bestanden opslaan. In dat geval is de sequential performance het meest relevant. Bij ZFS zelfs het enige; HDDs zijn qua random I/O gewoon enorm traag en ZFS kan door gebruik van SSDs de HDDs een behoorlijke performanceboost geven, waarbij random writes worden omgetoverd in sequential writes voor de HDDs. Daarvoor heb je wel een nieuwe SSD nodig met supercapacitor, zoals de Intel G3 of Marvell C400. Btrfs op Linux heeft ook zo'n functie, maar minder uitontwikkeld en Btrfs is nog geen bruikbaar stabiel platform.
Maar pas nadat m'n Samsungetje lang en breed stond te draaien in m'n servertje kwam ik achter die Firmware-bug... En seriously, zo'n major firmware-bug wat dataverlies tot gevolg kan hebben krijgt w.m.b. slechts één smilie:

Vandaar dat ik de WD vandaag heb gehaald. Bedrijven die dataverlies-FW-bugs in hun producten laten zitten en die simpelweg te koop aanbieden zonder dat bij die aankoop een waarschuwing zit of iets dergelijks kan van mij de pot op.
Verwijderd
Nouja dat 'even snel' is er niet meer bij als daarvoor een reshape moet gebeuren die 22+ uur duurt. Bovendien is het risicovol; je gaat alle data opnieuw indelen en als er tijdens de reshape rare dingen met je schijven gebeuren is het nog maar de vraag of je kunt recoveren van zo'n fout tijdens de reshape. Met andere woorden: er kleeft een risico aan.ZFS ziet er erg interessant uit, enige wat ik erg jammer vind is dat als je ruimte tekort komt je niet even snel een schijfje toe kunt voegen aan je array zoals bij mdadm.
Bij ZFS is expansion volledig zonder risico; alle data blijft namelijk staan waar hij staat. Het is ook na 1 seconden klaar en heb je gelijk meer ruimte. Enige wat je niet kunt doen is een RAID-Z uitbreiden met 1 of meer disks. Maar je kunt wel een nieuwe RAID-Z in de pool stoppen en dan direct de nieuwe ruimte beschikbaar krijgen. Dus in de praktijk betekent dit dat je met ZFS alleen kunt expanden als je disks in een groep van bijvoorbeeld 4 toevoegt. Zelf zou ik gaan voor 6-disk RAID-Z2; dat lijkt een mooie balans tussen veiligheid, performance en hardware benodigdheden.
Met ZFS bespaar je op hardware zoals een RAID controller, RAID edition hardeschijven met TLER en Battery Backup Units en UPSen. In plaats daarvan heb je non-RAID controllers nodig, desktop edition schijven en een grote poel met RAM; anders dan conventioneel software RAID maakt ZFS volop gebruik van RAM. ZFS performance is dan ook sterk gerelateerd aan de hoeveelheid RAM geheugen. Met name FreeBSD presteert een stuk slechter met 4GB of minder geheugen dan bijvoorbeeld het Solaris platform. Elke keuze heeft zijn eigen voor- en nadelen.
@Osiris: WD heeft anders ook zijn firmware problemen gehad; bij Samsung worden als het goed is allang geen schijven meer verkocht met foute firmware; maar voor de zekerheid kan het geen kwaad hem toch te applyen. Ik ben wel eens dat datacorruptie ernstige bugs zijn, maar zelfs gerenomeerde bedrijven als Intel (SSD password corruptie) hebben hiermee te maken.
[ Voor 15% gewijzigd door Verwijderd op 14-03-2011 22:21 ]
Ik wist niet dat de 20EARS ooit met 500GB platters geleverd was, maar dat blijkt dus inderdaad zo. Een snelle zoektocht levert me dit lijstje op:
Ik heb 4 van die schijven, op verschillende tijden gekocht. Alle 4 vermelden WD20EARS-00MVWB0 op het etiket. Zo lang je ze koopt bij een (web)winkel met een redelijke omzet (dus niet het muffige lokale computerwinkeltje* 1st version: WD20EARS-00S8B1 = 4 500GB platters (launched in January 2009).
* 2nd version: WD20EARS-00J2GB0 = 4 500GB platters (made since early April 2010 in Thailand and on the market since May 2010). The PCB is more compact than the WD20EARS-00S8B1 and design of the hard disk has been modified and approximates that of the 1 TB version. The firmware WD20EARS 00S8B1-and-WD20EARS 00J2GB0 is: 80.00A80 (like many other models of Western Digital hard disks).
* 3rd version: WD20EARS-00MVWB0 = 3 trays 667Go (the production of this new model began at the end of May). The firmware is WD20EARS-00MVWB0: 50.0AB50.
PC specs!---Pulse mee voor GoT!
[22:49:37] <@Remy> ik wil een opblaasbare dSLR :+
@CiPHER: Kun je datzelfde verhaal nog eens in het Nederlands herhalen? Ik denk namelijk dat het zeker van belang kan zijn voor mij, ik begrijp alleen de helft niet
PV: 20x 370Wp DMEGC DM375M6-60HBB panelen (12x Oost / 8x West) = 7400 Wp op een SAJ R5-6K-T2 (6kW) 3-fase string-omvormer
AC: Mitsubishi Heavy Industries SCM80ZS-W (8kW) multi-spit met 1x SRK50ZS-W (5kW) / 1x SRK35ZS-W (3.5kW) / 2x SRK25ZS-W (2.5kW)
ik heb de samsung en sequentiele snelheid is super in hd-tune haal ik 140MB + gewoon snel niets op aan te merken maar wel even geflashed voor de zekerheid
Verwijderd
Zweden schreef op maandag 14 maart 2011 @ 21:29:
@CiPHER: Kun je datzelfde verhaal nog eens in het Nederlands herhalen? Ik denk namelijk dat het zeker van belang kan zijn voor mij, ik begrijp alleen de helft niet
Het komt erop neer dat ZFS veel veiliger voor je bestanden is, en daarnaast in de juiste omstandigheden heel snel kan zijn, vooral als je SSDs inzet om de HDDs alleen grote files te laten lezen. In tegenstelling tot hardware RAID en windows onboard RAID heb je bij ZFS geen dure hardware nodig zoals dure RAID controllers met een batterij (BBU) of stroombeveiliging (UPS) of RAID edition hardeschijven. Gewoon normale controllers en normale schijven werken het beste, en dat is lekker goedkoop waardoor je meer schijven kunt kopen of jusit meer geheugen, waar ZFS ook veel baat bij heeft.
Als je nog specifieke vragen of onduidelijkheden hebt kun je dat misschien quoten zodat ik er in meer detail op kan ingaan. Ik gebruik veel termen, maar de kern van het verhaal is eigenlijk heel simpel: ZFS is een heel interessante optie die je geld kan besparen, de veiligheid van je bestanden sterk kan verbeteren en ook performancevoordelen heeft bij gebruik van SSDs als cache en log disk.
Edit: mijn vorige bericht was eigenlijk een reactie op Nielson; dus excuus voor het misverstand.
[ Voor 21% gewijzigd door Verwijderd op 14-03-2011 22:20 ]
Heb je ook weer gelijk aan. En moet zeggen, ben met vier 1TB schijven begonnen, en toen ik die vol had gaven 1.5TB schijven alweer de beste MB/€ verhouding maar toch maar een 1TB erbij gezet om alles mooi uniform te houden. Nu weer de boel vol en kan er wel weer een schijf bijhangen, maar dan richt ik denk liever alles opnieuw in met 2TB schijven. Of ik ga de boel eens opschonen en sla niet meer klakkeloos alles op, wat je al gauw doet als je nog ruimte zat lijkt te hebbenVerwijderd schreef op maandag 14 maart 2011 @ 17:57:
@Zweden @Nielson
[...]
Nouja dat 'even snel' is er niet meer bij als daarvoor een reshape moet gebeuren die 22+ uur duurt. Bovendien is het risicovol; je gaat alle data opnieuw indelen en als er tijdens de reshape rare dingen met je schijven gebeuren is het nog maar de vraag of je kunt recoveren van zo'n fout tijdens de reshape. Met andere woorden: er kleeft een risico aan.
Verwijderd
Stel je begint nu met een 5-disk RAID-Z met 1TB schijven, dan kun je later upgraden met nog 5-disks in RAID-Z, maar dan met 2TB schijven. Dan verspil je geen ruimte zoals bij normaal RAID expansion het geval zou zijn, dan zouden je 2TB disks als 1TB fungeren, niet wat je wilt!
Zo kun je dus upgraden en geld besparen omdat je elke keer de optimale capaciteit kunt kopen. Het nadeel van ZFS expansion is dat het niet praktisch is om met slechts enkele schijven te expanden. Tenzij je RAID10 draait; dan kun je elke keer 2 disks erbij plaatsen. Nog wat leuke weetjes: ZFS kan van een enkele disk heel makkelijk een mirror maken, en dan kun je een mirror weer in een single disk omtoveren en zo een diskje lenen. Dat werkt echter niet met RAID-Z.
Samsung heeft data-loss, dit hebben ze verholpen met een nieuwe firmwate met hetzelfde versienummer, erg onhandig.
Ik heb zelf de WD gekozen, vanwege het lage energieverbruik. Ik gebruik geen raid, maar echte backups. 500GB platters zijn oude schijven. Ik heb vorige week twee 2 TB WD20EARS gekocht bij SWW.nl, die zijn van dec 2010 en jan 2011.
Wellicht dat jij een passend antwoord op mijn vraag hebt.
Ik heb thuis mijn Conceptronic NAS vervangen door een ESXi Server waar Nexentastor opdraait als VM.
De configuratie zit als volgt in elkaar:
- 4GB USB voor ESXi
- Areca ARC-1210 Raid Controller met 2x 320GB (Mirror) waar de VM's op staan
- 1x 2TB disk WD-EARS via RDM gekoppeld aan de Nexentastor VM
Dit werkt zo perfect samen! Ik heb via Nexentastor een ZFS pool aangemaakt waar de 2TB schijf inzit die ik via CIFS aanbied aan mijn netwerk. Nu wil ik graag mijn ZFS pool uitbreiden met twee of drie extra schijven.
Een nadeel van ZFS is volgens mij dat je niet gemakkelijk je storage kan uitbreiden met extra schijven, maar wellicht dat hier toch wat slims voor te bedenken is. Het doel is om straks 4 tot 5 2TB schijven in de server te stoppen die ik als een Raid 5 (RAID-Z) opstelling wil configureren.
Hoe kan dit het beste worden aangepakt, aangezien de huidige schijf al vol staat met data.
Wat je hier zegt klopt toch echt niet. Het is inderdaad waar dat een reshape erg lang kan duren. Echter is je array niet degraded tijdens deze reshape. Oftewel, met raid 5 kan er nog steeds gewoon 1 HDD falen en met raid 6 2 HDD's.Verwijderd schreef op maandag 14 maart 2011 @ 17:57:
@Zweden @Nielson
[...]
Nouja dat 'even snel' is er niet meer bij als daarvoor een reshape moet gebeuren die 22+ uur duurt. Bovendien is het risicovol; je gaat alle data opnieuw indelen en als er tijdens de reshape rare dingen met je schijven gebeuren is het nog maar de vraag of je kunt recoveren van zo'n fout tijdens de reshape. Met andere woorden: er kleeft een risico aan.
Je kunt tijdens het reshapen gewoon je array blijven gebruiken zoals je altijd doet. Hij zal de idle I/O gebruiken en er zit geen risico aan. Het enige nadeel is dat je de vrije ruimte pas na een dag tot je beschikking hebt.
Bovendien, volgens mij is het zo wat ZFS doet een aanmaken van een nieuwe array en deze spannen met de bestaande 'arrays'/vdevs. Dat kan MDADM/LVM ook in een fractie van een seconde. Dát is het scenario wat je moet vergelijken met ZFS.
Een array 'erbij' spannen is iets heel anders dan de array reshapen. Spannen kan Linux, net als ZFS, online, snel en zonder risico. Reshapen daarentegen kan in ZFS niet en in MDADM wel, alleen duurt het lang. Dát is de manier waarop je het moet vergelijken.
Datzelfde verhaal gaat hiervoor dus ook op. In Linux is het prima mogelijk om een nieuwe array te bouwen en deze achter de bestaande array te spannen, ook al is de omvang van zowel de fysieke disks als die van de totale array compleet verschillend van die van de bestaande.Verwijderd schreef op maandag 14 maart 2011 @ 23:37:
Stel je begint nu met een 5-disk RAID-Z met 1TB schijven, dan kun je later upgraden met nog 5-disks in RAID-Z, maar dan met 2TB schijven. Dan verspil je geen ruimte zoals bij normaal RAID expansion het geval zou zijn, dan zouden je 2TB disks als 1TB fungeren, niet wat je wilt!
ZFS heeft een aantal voordelen (ook nadelen) boven andere softwarematige RAID-oplossingen zoals MDADM, maar flexibiliteit is er daar niet een van.
[ Voor 22% gewijzigd door HarmoniousVibe op 22-03-2011 15:05 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
Verwijderd
Heb je de mirror via Areca of ZFS aangemaakt? Dat is nogal een verschil.Sonic schreef op dinsdag 15 maart 2011 @ 09:58:
Dit werkt zo perfect samen! Ik heb via Nexentastor een ZFS pool aangemaakt waar de 2TB schijf inzit die ik via CIFS aanbied aan mijn netwerk. Nu wil ik graag mijn ZFS pool uitbreiden met twee of drie extra schijven.
..
Een nadeel van ZFS is volgens mij dat je niet gemakkelijk je storage kan uitbreiden met extra schijven, maar wellicht dat hier toch wat slims voor te bedenken is. Het doel is om straks 4 tot 5 2TB schijven in de server te stoppen die ik als een Raid 5 (RAID-Z) opstelling wil configureren.
Indien bij ZFS: je kunt gewoon een mirror toevoegen, zelfs een single disk:
zpool add <pool> <newdisk>
mirror toevoegen:
zpool add <pool> mirror <newdisk1> <newdisk2>
Bij dit laatste voorbeeld heb je dus een RAID1+0 met 4 disks uiteindelijk. Je bestaande data blijft behouden. Je kunt een mirror naar single disk veranderen en single disk naar mirror, maar je kunt niet naar RAID-Z wisselen (reshapen).
Ga het maar proberen, reshapen en dan één disk eruit trekken. Ik denk dat de meeste controllers op dat moment het voor gezien houden. Maar je hebt gelijk, slimme firmware zou de array dan consistent kunnen houden of juist weer terug reshapen afhankelijk van welke disk uitvalt. Maar als je reboot, wat voor configuratie heb je dan als je midden in een rebuild bent gestopt met één originele disk kwijt? Als je RAID op dat moment de nieuwe disk als volwaardige disk ziet, heb je dus al corruptie omdat het verwacht dat deze disk juist data bevat terwijl dat alleen aan het begin is en niet aan het einde van de capaciteit, waar de reshape is opgehouden.HarmoniousVibe schreef op dinsdag 22 maart 2011 @ 14:46:
Wat je hier zegt klopt toch echt niet. Het is inderdaad waar dat een reshape erg lang kan duren. Echter is je array niet degraded tijdens deze reshape. Oftewel, met raid 5 kan er nog steeds gewoon 1 HDD falen en met raid 6 2 HDD's.
Kortom, afhankelijk van de controller kun je dus in de problemen komen als er tijdens de reshape iets fout gaat. Bad sector die een schijf eruit gooit (non-TLER disks) bijvoorbeeld. Dat hoeft allemaal niet meteen te betekenen dat je data weg en unrecoverable is. Maar wel dat je aan je lot wordt overgelaten en het zelf mag uitzoeken.
Mogelijk zie je dus veel verschil tussen verschillende implementaties die reshape implementeren, afhankelijk van hoe goed hun error recovery is tijdens de reshape.
Bottom line: ik zou het risico niet nemen, zonder een backup van je data. En als je die backup hebt is het mogelijk sneller om niet te reshapen maar gewoon een nieuwe array aan te maken en de data van de backup terug te gooien. Al zal dat ook wel een lange tijd duren met gigabit.
Spannen is wat anders dan stripen, bij spanning komt er geen performancevoordeel, bij striping wel. ZFS kan sommige data over 2 disks en andere data over 3 disks stripen. Stel je begint met een enkele RAID-Z en zet er wat data op, dan voeg je een 2e RAID-Z toe en schrijft er weer data naar. In dit voorbeeld staat de eerste data op de 1e RAID-Z en de tweede data op beide RAID-Zs en zal dus in theorie ook dubbel zo snel gaan qua throughput.Bovendien, volgens mij is het zo wat ZFS doet een aanmaken van een nieuwe array en deze spannen met de bestaande 'arrays'/vdevs. Dat kan MDADM/LVM ook in een fractie van een seconde. Dát is het scenario wat je moet vergelijken met ZFS.
Ik zou het eerder zo vergelijken:Reshapen daarentegen kan in ZFS niet en in MDADM wel, alleen duurt het lang. Dát is de manier waarop je het moet vergelijken.
Traditioneel RAID dwingt je om de redundancy te verzwakken bij expanden; je mag immers geen nieuwe parity disks toevoegen. Dit is dus zowel een voordeel als een nadeel.
ZFS dwint je om de redundancy te versterken door iedere keer dat je disks toevoegt ook parity/mirror disks toe te voegen. Dus is dus ook zowel een voordeel als een nadeel.
Overigens hoeft het niet persé; je kunt ook een single disk toevoegen en dus stripen met bestaande RAID-Z. Maar dat lijkt me niet erg praktisch. Het voordeel van de ZFS methode is dus dat je:
1) veilig kunt expanden, zonder enkel risico.
2) direct vrije ruimte beschikbaar krijgt, geen background I/O.
3) de redundancy van je pool kunt handhaven door redundancy disks toe te voegen en zo het redundancy-niveau op pijl te houden.
4) kunt wisselen met capaciteit van je disks; nu gebruik je 2TB maar later misschien 4TB.
5) kunt wisselen van RAID configuratie (RAID-Z met 6 disks expanden met 10-disk RAID-Z2)
Het voordeel van traditioneel RAID expansion is dan weer dat je RAID5 of 6 kunt uitbreiden met enkele disks zonder parity toe te voegen en dus maximale capaciteitverhoging krijgt.
Zoals alles in het leven, elke keuze heeft zijn eigen afwegingen, voordelen en nadelen.
Het enige waar je aan moet denken is om een backup-file te specificeren tijdens het growen. En alleen als je geen hot-spare hebt.
En ook met MDADM kun je natuurlijk dezelfde mate van risico blijven aanhouden. Simpelweg door er steeds een nieuwe array bij te zetten. Het is inderdaad wel een nadeel dat je dit niet kunt stripen als je array niet dezelfde effectieve grootte heeft, maar dat heeft met performance te maken en niet met flexibiliteit.
Echter alle voordelen die je opnoemt gelden ook voor MDADM als we het hebben over arrays erbij gooien. Als we het hebben over reshapen dan geldt 2 natuurlijk niet en voor ZFS geldt dat ZFS simpelweg (nog) niet kan reshapen. Ik heb overigens wel vernomen dat dit in de pijplijn zit.
[ Voor 10% gewijzigd door HarmoniousVibe op 22-03-2011 16:30 ]
12 × LG 330Wp (Enphase) | Daikin FTXM-N 3,5+2,0+2,0kW | Panasonic KIT-WC03J3E5 3kW
De TS wilde ook nog graag weten hoe er over de seagate gedacht wordt.Zweden schreef op maandag 14 maart 2011 @ 16:17:
Ik heb overigens niet heel goed in de pricewatch gekeken, want ik zie nu dat er nog een 2TB schijf in die prijs klasse is, namelijk de Seagate Barracuda Green 5900. Deze draait op 5900rpm, heeft 64mb cache en een SATA-600 aansluiting (niet dat mijn moederbord dat heeft maargoed), weet iemand wellicht of dit een betere keuze zou zijn dan de Samsung en WD? Dit gezien die allebei toch wel wat probleempjes hebben...
Zelf ben daar ook in geïnteresseerd.
En of die een beetje mooi still is: bij mij staat die op m'n buro en ik werk veel 's avonds in alle stilte.
Ben altijd wel een beetje fan van seagate geweest, maar helaas ook het slachtoffer van een brakke serie: een half jaar geleden een (van 2) seagate 1,5 TB gehad die dood ging, zijn broertje en z'n vervanger draaien nu nog steeds.
Voor mij is het idle geluid meer van belang dan de seek geluiden.
En natuurlijk jarenlange probleemloze werking
Groeten van Major 7 ( na vele jaren van afwezigheid, zomaar weer ineens een post op het forum
UNFAQ --- Unfrequently Answered Question