WD Green schijven in NAS

Pagina: 1
Acties:

  • XephireUK
  • Registratie: Januari 2007
  • Laatst online: 13-03-2025
Ik ben van plan een NAS te kopen en heb twee identieke WD Green 3TB schijven liggen. I denk eraan om er twee dezelfde schijven bij te kopen om een een Synology NAS te plaatsen en in RAID5 te draaien.

Synology raadt aan om WD Red schijven te gebruiken in RAID. Denken jullie dat dit nodig is? Het is een huis omgeving dus er zullen hoogstens 1 of 2 gebruikers tegelijkertijd zijn.

Een andere optie is om voor een 2 bay NAS te gaan en de twee schijven als JBOD in te stellen. Een tweede optie is om een NAS te kopen met WD Red schijven erin (bijv. 8TB in RAID5)

(typo)

[ Voor 8% gewijzigd door XephireUK op 19-09-2013 13:37 ]


  • aZuL2001
  • Registratie: September 2002
  • Laatst online: 07-12-2025
Volgens mij heeft dat met het 24/7 aanstaan van een NAS te maken, en niet het aantal gelijktijdige gebruikers.

Abort, Retry, Quake ???


  • D4NG3R
  • Registratie: Juli 2009
  • Laatst online: 19:03

D4NG3R

kiwi

:)

De WD Greens zijn bedoeld puur als dataschijf in een computer. Maar dan wel met het idee dat deze constant downspinned wanneer hij niet gebruikt word. In een NAS gebeurd dit behoorlijk vaak. Vaker als in een reguliere desktop. Sowieso staat een NAS 24/7 aan waar deze schijven ook weer niet op gemaakt zijn.

Komt d'r in, dan kö-j d’r oet kieken


  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
WD RED=NAS schijf
WD Green= voornamelijk trage/stille data schijf (htpc gebruik enzo)

  • NL-RaVeR
  • Registratie: Oktober 2007
  • Laatst online: 25-01 20:56
Ik heb meerdere WD Green schrijven in mijn server hangen die ook 24/7 aan staat. Draait nu al zeker 3 jaar en schrijven zijn nog steeds prima in orde. Je kan ook 2x Green 3 TB schrijven en 2x Red 3TB schrijven in 1 nas stoppen ipv 2 verschillende nassen neer te zetten ;)

  • CH4OS
  • Registratie: April 2002
  • Niet online

CH4OS

It's a kind of magic

D4NG3R schreef op donderdag 19 september 2013 @ 13:39:
De WD Greens zijn bedoeld puur als dataschijf in een computer. Maar dan wel met het idee dat deze constant downspinned wanneer hij niet gebruikt word. In een NAS gebeurd dit behoorlijk vaak. Vaker als in een reguliere desktop. Sowieso staat een NAS 24/7 aan waar deze schijven ook weer niet op gemaakt zijn.
Ik heb sinds 2010 4 WD Green van 2TB in mijn server hangen, die nagenoeg 24/7 aan staat en heb nog nooit problemen gehad.

Wel heb ik begrepen dat disks groter dan 2TB niet geschikt zouden zijn voor RAID(5), exacte details weet ik echter niet, ik hoop die wel te vinden of te krijgen, want zit zelf ook te denken om 4x 4TB schijven (van WD) in mijn server te steken, als die onlangs aangekondigde WD disks eenmaal uit zijn. :)

  • D4NG3R
  • Registratie: Juli 2009
  • Laatst online: 19:03

D4NG3R

kiwi

:)

CptChaos schreef op donderdag 19 september 2013 @ 13:43:
Wel heb ik begrepen dat disks groter dan 2TB niet geschikt zouden zijn voor RAID5, exacte details weet ik echter niet
Hoe groter de schijf, hoe minder betrouwbaar / snel RAID5 is. De exacte reden weet ik zelf ook niet (Valt wel te vinden op google).

Maar nogmaals: De Green schijven zijn niet bedoeld voor 24/7 gebruik. Dat het in veel gevallen goed gaat zegt nog niks ;) . Een Red schijf kan er na 4 weken ook mee ophouden, dit zegt echter nog niks over de rest van de serie.

Richting de TS: Is de data op de schijven belangrijk? Zo ja: Red schijven. Zo nee: Koop er 2 green schijven bij.

Ga iig geen schijven combineren bij RAID5. Of allemaal green, of allemaal red.

Komt d'r in, dan kö-j d’r oet kieken


  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07-2025
De reden dat grotere diskt niet geschikt zijn voor RAID is de lange rebuild tijd, en de hoeveelheid data die je kwijtraakt als 2x2TB uitvalt.

Als je een RAID array maakt kan je het beste zo veel mogelijk kleinere schijven gebruiken in plaats van een paar hele grote.

  • XephireUK
  • Registratie: Januari 2007
  • Laatst online: 13-03-2025
Volgens mij was idd de reden dat de rebuild tijd lang was, en dat de kans groot is dat in deze tijd een andere schijf uit dezelfde serie ook de geest geeft, 2 schijven van de 4 kapot en je RAID is naar de mallemoeren.

  • Gertjuhjan
  • Registratie: Juli 2010
  • Laatst online: 27-11-2025

Gertjuhjan

Software Engineer

Ik heb een d-link NAS en deze deed moeilijk met de Green schijven van Western Digital. De Green schijven stonden ook niet op de supported list.

Xbox: Gulpener88


  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 21:55
WD Green is volgens mij prima te gebruiken in een Synology NAS. Het klopt dat ze erg snel downspinnen, maar daar zijn trucjes voor om die periode te verlengen. Zie deze pagina bijv. http://www.synology.com/support/faq_show.php?q_id=407

Hier staat overigens een compatibility list van Synology: http://www.synology.com/s...ay=2&hd_select_ds=DS213#2 (heb voor het gemak even de DS213 genomen).

De 2TB WD Green worden prima ondersteund. Er staan ook 3 stuks 3TB Desktop schijven tussen, dat zijn deze:
Western DigitalWD3001FAEX3TBDesktop
Western DigitalWD30EZRS (WD30EZRSDTL)3TBDesktop
Western DigitalWD30EZRX (WDBAAY0030HNC-NRSN)3TBDesktop


Aangezien je geen typenummer hebt vermeld zul je zelf even moeten kijken of jouw schijven op de website vermeld worden. Ik denk dat het wel goed komt.

[ Voor 14% gewijzigd door ThinkPad op 19-09-2013 13:57 ]


  • XephireUK
  • Registratie: Januari 2007
  • Laatst online: 13-03-2025
ThinkPadd schreef op donderdag 19 september 2013 @ 13:54:
WD Green is volgens mij prima te gebruiken in een Synology NAS. Het klopt dat ze erg snel downspinnen, maar daar zijn trucjes voor om die periode te verlengen. Zie deze pagina bijv. http://www.synology.com/support/faq_show.php?q_id=407

Hier staat overigens een compatibility list van Synology: http://www.synology.com/s...ay=2&hd_select_ds=DS213#2 (heb voor het gemak even de DS213 genomen).

De 2TB WD Green worden prima ondersteund. Er staan ook 3 stuks 3TB Desktop schijven tussen, dat zijn deze:
Western DigitalWD3001FAEX3TBDesktop
Western DigitalWD30EZRS (WD30EZRSDTL)3TBDesktop
Western DigitalWD30EZRX (WDBAAY0030HNC-NRSN)3TBDesktop


Aangezien je geen typenummer hebt vermeld zul je zelf even moeten kijken of jouw schijven op de website vermeld worden. Ik denk dat het wel goed komt.
ThinkPad bedankt voor je hulp. Ben op het werk, maar volgens mij zijn het WD30EZRS schijven. Als ze op Synology site zelf staan, moet het kunnen... Ook bedankt voor de link naar de downspin aanpassing.

Dacht eerst om voor de DS412+ te gaan, maar dit lijkt overkill, dus waarschijnlijk de DS413.

De data zelf is niet kritiek. Films, fotos, ebooks, etc. Alles is ook gebackuped online in de wolken (muv de films). Ik heb een externe WD MyBook USB3 liggen die ik als backup schijf ga gebruiken voor de NAS voor de meest critieke bestanden. Een paar van mijn huidige schijven gaan in een externe enclosure omdat de PC de deur uit gaat en vervangen wordt door een laptop. (ruimte maken voor een kinderkamer...)

  • rambann
  • Registratie: November 2009
  • Laatst online: 21-01 21:10
Ik heb zelf in 2009 een Conceptronic Ch3sNas uitgerust met 2x een 2TB WD Green schijven toen deze schijven nog niet zo lang op de markt waren. Staat geconfigureerd in RAID1 en is tot op heden nog steeds operationeel. Enkele stroom uitvallen meegemaakt zonder problemen. RAID Set is nooit problematisch geweest

Daarnaast in jul-2011 een QNAP TS-410 Turbo nas in gebruik genomen met daarin 4x een 2TB WD Green schijven in RAID5. Bij het configureren van de Raid Set was er 1 DOA schijf (ik lees dat dit wel vaker voorkomt bij een NAS config)
Daarna 1x meegemaakt dat de RAID Set omviel na een firmware update van de QNAP (corrupte Firmware update). Verder geen problemen meegemaakt met betrekking tot de schijven.

Schijven downspinnen na 60min. op beide Nas systemen.
Mijn keuze voor de Greenschijven is vooral de geluidsproductie van de schijven (ik heb nog geen ervaring met de Red schijven).

Ik draai alles vanaf de NAS en heb naast de NAS nog wel een backup van de belangrijkste bestanden.

[ Voor 16% gewijzigd door rambann op 19-09-2013 14:46 ]


  • Mr_gadget
  • Registratie: Juni 2004
  • Laatst online: 25-01 15:45

Mr_gadget

C8H10N4O2 powered

Maar eigenlijk zijn die Greens toch ontworpen op vaak down te spinnen? En RED's juist meer om continue te draaien?
En bij de RED's kan je TLER uitschakelen wat fijn kan zijn voor raid arrays. Als er een fout op een schijf is kan de schijf proberen dit te herstellen alleen is hij dan niet bereikbaar. Een raid controller schopt hem dan na x seconden uit de array terwijl de schijf niet defect is. Weet alleen niet hoe synology dat regelt.

Verwijderd

Green en Red zijn fysiek hetzelfde. Enige wat verschilt is de firmware en garantie. De Red heeft de TLER feature en heeft headparking standaard uitgeschakeld. Beide komen in twee uitvoeringen: met oudere 750GB platters en moderne 1000GB platters. Er ontstonden geruchten dat de Red sneller en zuiniger was omdat de 1000GB Red werd vergeleken met een Green met oudere 750GB platters. Dat was dus geen eerlijke vergelijking.

Greens draaien prima 24/7. Het klopt dat consumentenschijven vaker kunnen op- en downspinnen dan echte serverschijven. Maar Green en Red kun je als gelijkwaardig beschouwen.

Red heb je alleen nodig voor ouderwetse RAID configuraties waarbij de controller slecht tegen disk timeouts kan veroorzaakt door bad sectors. Areca hardware RAID of Windows-based onboard RAID valt hieronder. Dan heb je simpelweg TLER nodig.

Voor software RAID onder Linux-achtigen heb je geen TLER nodig, en werkt WD Green dus prima. Dat is dus inclusief Synology.wat ook gewoon Linux software RAID gebruikt, met een SHR-laag daaroverheen.

  • Mr_gadget
  • Registratie: Juni 2004
  • Laatst online: 25-01 15:45

Mr_gadget

C8H10N4O2 powered

Duidelijk!
Er zou eigenlijk een knopje moeten zijn 'voeg deze post toe aan de tweakers wiki' :P

  • pafdaddy
  • Registratie: April 2008
  • Niet online
WD gebruikt zelf ook greens in hun MyBookLiveDuo...

Dit bericht kan oorzaak of gevolg zijn van misverstanden.


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:21

Compizfox

Bait for wenchmarks

CptChaos schreef op donderdag 19 september 2013 @ 13:43:
[...]
Wel heb ik begrepen dat disks groter dan 2TB niet geschikt zouden zijn voor RAID(5), exacte details weet ik echter niet, ik hoop die wel te vinden of te krijgen, want zit zelf ook te denken om 4x 4TB schijven (van WD) in mijn server te steken, als die onlangs aangekondigde WD disks eenmaal uit zijn. :)
D4NG3R schreef op donderdag 19 september 2013 @ 13:46:
[...]

Hoe groter de schijf, hoe minder betrouwbaar / snel RAID5 is. De exacte reden weet ik zelf ook niet (Valt wel te vinden op google).
Heeft te maken met TLER, en RED's zijn dus alleen voor de mensen die (hardware-) RAID5 willen (überhaupt niet doen, slecht idee anno 2013)
Maar nogmaals: De Green schijven zijn niet bedoeld voor 24/7 gebruik. Dat het in veel gevallen goed gaat zegt nog niks ;) . Een Red schijf kan er na 4 weken ook mee ophouden, dit zegt echter nog niks over de rest van de serie.
Onzin.
Verwijderd schreef op donderdag 19 september 2013 @ 15:33:
Green en Red zijn fysiek hetzelfde. Enige wat verschilt is de firmware en garantie. De Red heeft de TLER feature en heeft headparking standaard uitgeschakeld. Beide komen in twee uitvoeringen: met oudere 750GB platters en moderne 1000GB platters. Er ontstonden geruchten dat de Red sneller en zuiniger was omdat de 1000GB Red werd vergeleken met een Green met oudere 750GB platters. Dat was dus geen eerlijke vergelijking.

Greens draaien prima 24/7. Het klopt dat consumentenschijven vaker kunnen op- en downspinnen dan echte serverschijven. Maar Green en Red kun je als gelijkwaardig beschouwen.

Red heb je alleen nodig voor ouderwetse RAID configuraties waarbij de controller slecht tegen disk timeouts kan veroorzaakt door bad sectors. Areca hardware RAID of Windows-based onboard RAID valt hieronder. Dan heb je simpelweg TLER nodig.

Voor software RAID onder Linux-achtigen heb je geen TLER nodig, en werkt WD Green dus prima. Dat is dus inclusief Synology.wat ook gewoon Linux software RAID gebruikt, met een SHR-laag daaroverheen.
Perfecte uitleg _/-\o_

[ Voor 35% gewijzigd door Compizfox op 19-09-2013 20:05 ]

Gewoon een heel grote verzameling snoertjes


  • XephireUK
  • Registratie: Januari 2007
  • Laatst online: 13-03-2025
Zie ook de QNAP QNAP TS-469L nu staan. Deze heeft HDMI uit, dus kan direct films op de tv afspelen. Lijkt me makkelijk omdat dan de main pc/laptop niet aan hoeft te staan.

  • pennywiser
  • Registratie: November 2002
  • Laatst online: 20:35
Compizfox schreef op donderdag 19 september 2013 @ 20:03:
[...]
... mensen die (hardware-) RAID5 willen (überhaupt niet doen, slecht idee anno 2013)

[...]
Onderbouwing graag!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:21

Compizfox

Bait for wenchmarks

In RAID5 zitten een paar enorme design flaws waar je in deze tijd zeker tegenaan gaat lopen. Dit komt doordat de datadichtheid van schijven steeds hoger wordt.

Als je array degraded is en je wilt hem rebuilden, is de kans erg groot dat je tegen een URE aanloopt. Weg array. Meer uitleg: http://www.zdnet.com/blog...stops-working-in-2009/162

Daarnaast hebben we ook nog de write hole. Als er om de één of andere reden iets mis gaat (power failure bijvoorbeeld) tijdens het schrijven van een stripe en de parity die daarbij hoort, ben je je hele stripe kwijt omdat het niet mogelijk is dit proces atomisch te doen. RAID5 is hier extra kwetsbaar voor omdat het een vaste stripe size kent en bij elke kleine write een read-modify-write-cycle moet doen.

En dan hebben we het nog niet gehad over silent corruption, iets wat ook steeds meer voorkomt als je een flinke array hebt. RAID beschermt je hier op geen enkele manier tegen.

De oplossing hiervoor? ZFS (In het bijzonder één functie daarvan: RAID-Z) Meer leesvoer: https://blogs.oracle.com/bonwick/entry/raid_z

Gewoon een heel grote verzameling snoertjes


  • Wim-Bart
  • Registratie: Mei 2004
  • Laatst online: 10-01-2021

Wim-Bart

Zie signature voor een baan.

Compizfox schreef op donderdag 19 september 2013 @ 23:25:
In RAID5 zitten een paar enorme design flaws waar je in deze tijd zeker tegenaan gaat lopen. Dit komt doordat de datadichtheid van schijven steeds hoger wordt.

Als je array degraded is en je wilt hem rebuilden, is de kans erg groot dat je tegen een URE aanloopt. Weg array. Meer uitleg: http://www.zdnet.com/blog...stops-working-in-2009/162

Daarnaast hebben we ook nog de write hole. Als er om de één of andere reden iets mis gaat (power failure bijvoorbeeld) tijdens het schrijven van een stripe en de parity die daarbij hoort, ben je je hele stripe kwijt omdat het niet mogelijk is dit proces atomisch te doen. RAID5 is hier extra kwetsbaar voor omdat het een vaste stripe size kent en bij elke kleine write een read-modify-write-cycle moet doen.

En dan hebben we het nog niet gehad over silent corruption, iets wat ook steeds meer voorkomt als je een flinke array hebt. RAID beschermt je hier op geen enkele manier tegen.

De oplossing hiervoor? ZFS (In het bijzonder één functie daarvan: RAID-Z) Meer leesvoer: https://blogs.oracle.com/bonwick/entry/raid_z
Gezien de Hardware eisen voor ZFS en zolang ZFS niet native onder bijvoorbeeld ESX of Windows Server ondersteund wordt kan je het hebben over ZFS maar is het geen alternatief. Daarnaast in de 20+ jaar dat ik met RAID1, 10, 5, 50, 6, 60 bezig ben heb ik nog nooit dergelijke problemen meegemaakt. Maar misschien ligt het aan mij, maar redundantie zit hem niet alleen in je Storage oplossing maar is van veel meer afhankelijk. Zo is een (kleine) UPS altijd handig, hebben goede hardware RAID controllers een BPU welke deze problemen oplossen.

En ja, een RAID opnieuw opbouwen kost tijd, maar als je een goede oplossing kiest, bijvoorbeeld RAID-6 dan heb je voldoende speling, het wordt wat minder als je 3 weken op een nieuwe disk moet wachten, maar aan de andere kant, met ZFS kan je tegen de zelfde problemen aanlopen.

Daarnaast, ZFS is mooi, maar niet de heilige graal. En Software RAID, ja is mooi, maar is dat beter dan hardware RAID? Het is allemaal een kwestie van perceptie. Overigens, met weinig disks raad ik zelf aan om iets van RAID 10 te kiezen met 4 of 8 disks, of RAID-6 met een hotspare (8 disks), of gewoon RAID-5 met Hotspare als je rebuildtijd onder de 24 uur zit.

Daarnaast zijn heel veel RAID implementaties, hardware en software in staat om gewoon een powerfail te overleven. Uit ervaring meerdere keren meegemaakt, met zowel hardware RAID zonder BPU als ook software RAID onder zowel Linux als Windows. Dus zo negatief is het allemaal niet.

En wil je zeker zijn, een kleine UPS doet wonderen in een huissituatie :-)

Beheerders, Consultants, Servicedesk medewerkers. We zoeken het allemaal. Stuur mij een PM voor meer info of kijk hier De mooiste ICT'er van Nederland.


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:21

Compizfox

Bait for wenchmarks

Wim-Bart schreef op vrijdag 20 september 2013 @ 01:05:
[...]
Gezien de Hardware eisen voor ZFS
Welke hardwareeisen voor ZFS? ZFS heeft bizar weinig hardware-eisen. Het draait zelfs op een Atom en je kunt elke AHCI-controller gebruiken die je wilt. Hell, je kunt zelfs 1 array spreiden over meerdere controllers. :P
Het enige punt is, is dat je redelijk wat RAM nodig hebt. (8 GB is aan te raden als je gebruik wilt maken van caching)
en zolang ZFS niet native onder bijvoorbeeld ESX of Windows Server ondersteund wordt kan je het hebben over ZFS maar is het geen alternatief.
Dat is het wel. Ik draai ZFS onder ESXi en ik ben niet alleen ;)
Daarnaast in de 20+ jaar dat ik met RAID1, 10, 5, 50, 6, 60 bezig ben heb ik nog nooit dergelijke problemen meegemaakt. Maar misschien ligt het aan mij, maar redundantie zit hem niet alleen in je Storage oplossing maar is van veel meer afhankelijk. Zo is een (kleine) UPS altijd handig, hebben goede hardware RAID controllers een BPU welke deze problemen oplossen.
Ja, maar dat kost geld. Veel geld.
En ja, een RAID opnieuw opbouwen kost tijd, maar als je een goede oplossing kiest, bijvoorbeeld RAID-6 dan heb je voldoende speling, het wordt wat minder als je 3 weken op een nieuwe disk moet wachten, maar aan de andere kant, met ZFS kan je tegen de zelfde problemen aanlopen.
De tijd is niet wat ik bedoelde. Wat ik bedoelde, is dat de kans dat er iets mis gaat tijdens een rebuild groot is. Dat probleem heb je niet met ZFS.
Daarnaast, ZFS is mooi, maar niet de heilige graal. En Software RAID, ja is mooi, maar is dat beter dan hardware RAID? Het is allemaal een kwestie van perceptie. Overigens, met weinig disks raad ik zelf aan om iets van RAID 10 te kiezen met 4 of 8 disks, of RAID-6 met een hotspare (8 disks), of gewoon RAID-5 met Hotspare als je rebuildtijd onder de 24 uur zit.

Daarnaast zijn heel veel RAID implementaties, hardware en software in staat om gewoon een powerfail te overleven. Uit ervaring meerdere keren meegemaakt, met zowel hardware RAID zonder BPU als ook software RAID onder zowel Linux als Windows. Dus zo negatief is het allemaal niet.
Doordat ZFS zowel filesystem als volume manager is, is het tot dingen instaat die geen enkele andere 'traditionele' RAID-oplossing kan, zoals een dynamische stripesize en self-healing van silent corruption.

Ik denk dat ik wel redelijk veilig mag zeggen dat juist die combi wél "de heilige graal" is. :)

[ Voor 26% gewijzigd door Compizfox op 20-09-2013 01:22 ]

Gewoon een heel grote verzameling snoertjes


  • GoT
  • Registratie: Mei 2004
  • Niet online

GoT

/ / ( . Y . ) \ \

Dus ?
Lees eens wat de topicstarter wilt doen.
Hij wilt een Synology NAS kopen, ondersteunt dat soms ZFS ?
Misschien in de toekomst, maar anno 2013 is dat nog niet het geval.

o << Your asshole before prison.
O << Your asshole after prison.


  • Wim-Bart
  • Registratie: Mei 2004
  • Laatst online: 10-01-2021

Wim-Bart

Zie signature voor een baan.

Compizfox schreef op vrijdag 20 september 2013 @ 01:11:
[...]
Welke hardwareeisen voor ZFS? ZFS heeft bizar weinig hardware-eisen. Het draait zelfs op een Atom en je kunt elke AHCI-controller gebruiken die je wilt. Hell, je kunt zelfs 1 array spreiden over meerdere controllers. :P
Het enige punt is, is dat je redelijk wat RAM nodig hebt. (8 GB is aan te raden als je gebruik wilt maken van caching)
Het punt is, dat je dus om het goed te laten werken dus wel 8 GB of meer nodig hebt. Dus daadwerkelijke redelijke hardware eisen.
Compizfox schreef op vrijdag 20 september 2013 @ 01:11:
[...]
Dat is het wel. Ik draai ZFS onder ESXi en ik ben niet alleen ;)
Dus wat ik van jou begrijp draai je het dus native onder ESXi. Dus zonder een VM, maar rechtstreeks als filesystem extensie in plaats van VMFS. Dus niet met een extra Adapter die je aan een VM door geeft, daar in de VM ZFS draait en die het weer terug geeft als iSCSI zodat je onafhankelijk van een VM je data onder ESX kan benaderen zonder dat een ZFS VM actief hoeft te zijn..... Ben benieuwd.
Compizfox schreef op vrijdag 20 september 2013 @ 01:11:
[...]
Ja, maar dat kost geld. Veel geld.
Wat is veel geld, een Hardware RAID controller met Raid 5 of 6 ondersteuning valt best wel mee. Wanneer je in-the-box wilt blijven, dus gewoon 1 host wilt hebben met ESXi of Hyper-V zonder een "Speciale" iSCSI VM dan valt het best wel mee. Voor een eenvoudige implementatie kan die 8 GB en de bijbehorende cores beter gebruikt worden voor een extra functionele VM.
Compizfox schreef op vrijdag 20 september 2013 @ 01:11:
[...]
De tijd is niet wat ik bedoelde. Wat ik bedoelde, is dat de kans dat er iets mis gaat tijdens een rebuild groot is. Dat probleem heb je niet met ZFS.
Discutabel. Zelf aan de hand gehad dat ik meerdere keer een RAID 5 array met 2TB disks moest rebuilden, waarvan 1x met een Hardware RAID en een paar keer met Software RAID (2008R2 en 2012) zonder dat de rebuild kapot ging. Het grote probleem is, je leest altijd over de problemen, maar nooit over wanneer het wel goed gaat, dus is het altijd een vertekend beeld.
Compizfox schreef op vrijdag 20 september 2013 @ 01:11:
[...]
Doordat ZFS zowel filesystem als volume manager is, is het tot dingen instaat die geen enkele andere 'traditionele' RAID-oplossing kan, zoals een dynamische stripesize en self-healing van silent corruption.
Of on the fly expanden door er een disk bij te zetten? Zelf ben ik van ZFS afgestapt omdat ik van 4 disks naar 5 disks ging en de boel opnieuw moest opbouwen, en dat is een teringwerk, data extrern brengen, alles plat moeten gooien en dan alle data weer terug. Na 2 keer ben je dat ook zat. En dat is maar 1 van de nadelen.
Compizfox schreef op vrijdag 20 september 2013 @ 01:11:
Ik denk dat ik wel redelijk veilig mag zeggen dat juist die combi wél "de heilige graal" is. :)
Misschien wanneer je een dedicated storage systeem maakt, maar dat is een hele andere oplossing en praat je meer over Enterprise achtige oplossingen vertaald naar thuisgebruik, maar veelal totaal onzinnig. Ik denk dat ik met gerust hart kan zeggen dat 95% van de tweakers moeilijk thuis kunnen verkopen dat ze voor de hobby een "schijnbaar voor moeder de vrouw zinloze" extra "lawaaikast" neer kunnen zetten :)

Beheerders, Consultants, Servicedesk medewerkers. We zoeken het allemaal. Stuur mij een PM voor meer info of kijk hier De mooiste ICT'er van Nederland.


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:21

Compizfox

Bait for wenchmarks

Wim-Bart schreef op zondag 22 september 2013 @ 02:33:
[...]
Het punt is, dat je dus om het goed te laten werken dus wel 8 GB of meer nodig hebt. Dus daadwerkelijke redelijke hardware eisen.
8 GB RAM vind ik niet een "redelijke hardware-eis". Dat is in hedendaagse systemen toch meer dan normaal. Altijd nog minder een hardware-eis dan een goede RAID-controller.
[...]
Dus wat ik van jou begrijp draai je het dus native onder ESXi. Dus zonder een VM, maar rechtstreeks als filesystem extensie in plaats van VMFS. Dus niet met een extra Adapter die je aan een VM door geeft, daar in de VM ZFS draait en die het weer terug geeft als iSCSI zodat je onafhankelijk van een VM je data onder ESX kan benaderen zonder dat een ZFS VM actief hoeft te zijn..... Ben benieuwd.
Geen van beide. ESXi heeft zelf geen ondersteuning voor ZFS als filesystem, maar het idee is dat je inderdaad een SATA-controller doorgeeft aan een VM waarbinnen je ZFS draait.

En nee, ik geef die niet terug via iSCSI, maar dat is ook niet nodig. De datastore van ESXi draait gewoon op een aparte, 'normale' schijf. De ZFS-storage is puur voor data, niet voor de VMs zelf.
[...]
Wat is veel geld, een Hardware RAID controller met Raid 5 of 6 ondersteuning valt best wel mee. Wanneer je in-the-box wilt blijven, dus gewoon 1 host wilt hebben met ESXi of Hyper-V zonder een "Speciale" iSCSI VM dan valt het best wel mee. Voor een eenvoudige implementatie kan die 8 GB en de bijbehorende cores beter gebruikt worden voor een extra functionele VM.
Voor een fatsoenlijke RAID-controller, inclusief BBU en extra RAM ben je anders best veel geld kwijt. Het mooie van ZFS is dat je niets extra's hoeft te kopen, omdat het goed werkt met je onboard SATA-controller.
Of on the fly expanden door er een disk bij te zetten? Zelf ben ik van ZFS afgestapt omdat ik van 4 disks naar 5 disks ging en de boel opnieuw moest opbouwen, en dat is een teringwerk, data extrern brengen, alles plat moeten gooien en dan alle data weer terug. Na 2 keer ben je dat ook zat. En dat is maar 1 van de nadelen.
Je kunt inderdaad onder ZFS een vdev niet expanden, dat klopt.
Maar eigenlijk is dat ook niet echt de bedoeling, aangezien je relatieve redundancy dan achteruitgaat.
[...]

Misschien wanneer je een dedicated storage systeem maakt, maar dat is een hele andere oplossing en praat je meer over Enterprise achtige oplossingen vertaald naar thuisgebruik, maar veelal totaal onzinnig.
Ik denk dat ik met gerust hart kan zeggen dat 95% van de tweakers moeilijk thuis kunnen verkopen dat ze voor de hobby een "schijnbaar voor moeder de vrouw zinloze" extra "lawaaikast" neer kunnen zetten :)
We hadden het over hardware-RAID vs ZFS toch? Deze punten gelden net zo goed voor hardware-RAID en hebben niets met ZFS te maken.

[ Voor 3% gewijzigd door Compizfox op 22-09-2013 02:53 ]

Gewoon een heel grote verzameling snoertjes


  • Wim-Bart
  • Registratie: Mei 2004
  • Laatst online: 10-01-2021

Wim-Bart

Zie signature voor een baan.

Compizfox schreef op zondag 22 september 2013 @ 02:46:
[...]
8 GB RAM vind ik niet een "redelijke hardware-eis". Dat is in hedendaagse systemen toch meer dan normaal. Altijd nog minder een hardware-eis dan een goede RAID-controller.
Persoonlijk zou ik die 8 GB gewoon voor een VM gebruiken. Maar dat is meer omdat je in 8 GB meerdere functionele VM's kwijt kan.
Compizfox schreef op zondag 22 september 2013 @ 02:46:
[...]
Geen van beide. ESXi heeft zelf geen ondersteuning voor ZFS als filesystem, maar het idee is dat je inderdaad een SATA-controller doorgeeft aan een VM waarbinnen je ZFS draait.

En nee, ik geef die niet terug via iSCSI, maar dat is ook niet nodig. De datastore van ESXi draait gewoon op een aparte, 'normale' schijf. De ZFS-storage is puur voor data, niet voor de VMs zelf.
Dat is iets persoonlijks, zelf draai ik only Windows, dus van AD controller tot Exchange en Fileservices. Wanneer je meer in de Linux hoek zit, dan kan het inderdaad een leuke keuze zijn.
Compizfox schreef op zondag 22 september 2013 @ 02:46:
[...]
Voor een fatsoenlijke RAID-controller, inclusief BBU en extra RAM ben je anders best veel geld kwijt. Het mooie van ZFS is dat je niets extra's hoeft te kopen, omdat het goed werkt met je onboard SATA-controller.
Ja, maar wil je gaan virtualiseren dan gaat dat natuurlijk ook niet op. En een ZFS server ook gebruiken voor iets anders is het ook niet echt. Maar dat is ook weer afhankelijk van het gebruik,
Compizfox schreef op zondag 22 september 2013 @ 02:46:
[...]
Je kunt inderdaad onder ZFS een vdev niet expanden, dat klopt.
Maar eigenlijk is dat ook niet echt de bedoeling, aangezien je relatieve redundancy dan achteruitgaat.
Dus extra capaciteit toevoegen kost altijd meer disks doordat je een nieuwe ZFS raid er naast moet zetten. Economisch dus niet echt gunstiger ;)
Compizfox schreef op zondag 22 september 2013 @ 02:46:
[...]
We hadden het over hardware-RAID vs ZFS toch? Deze punten gelden net zo goed voor hardware-RAID en hebben niets met ZFS te maken.
Meeste hardware RAID kan je gewoon expanden.

Maar begrijp me niet verkeerd, ik vind ZFS een mooi product, maar niet voor alles. Net zoals ik voor veel dingen een fan ben van Linux, maar ook weer niet voor alles :-)

De heilige graal is iets wat niet bestaat, alleen de right thing for the job :-)

Beheerders, Consultants, Servicedesk medewerkers. We zoeken het allemaal. Stuur mij een PM voor meer info of kijk hier De mooiste ICT'er van Nederland.


  • Mr_gadget
  • Registratie: Juni 2004
  • Laatst online: 25-01 15:45

Mr_gadget

C8H10N4O2 powered

Compizfox schreef op vrijdag 20 september 2013 @ 01:11:


[...]
De tijd is niet wat ik bedoelde. Wat ik bedoelde, is dat de kans dat er iets mis gaat tijdens een rebuild groot is. Dat probleem heb je niet met ZFS.
Maar de ZFS variant van RAID is toch ongeveer hetzelfde? Ook met ZFS heb je tijdens een rebuild veel leesacties en de kans dat er nog een schijf uitklapt toch?

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 22:21

Compizfox

Bait for wenchmarks

Wim-Bart schreef op zondag 22 september 2013 @ 23:34:
[...]
Dat is iets persoonlijks, zelf draai ik only Windows, dus van AD controller tot Exchange en Fileservices. Wanneer je meer in de Linux hoek zit, dan kan het inderdaad een leuke keuze zijn.
Waar reageer je nu op? Ik snap even niet wat dat met mijn quote te maken heeft.
[...]
Ja, maar wil je gaan virtualiseren dan gaat dat natuurlijk ook niet op. En een ZFS server ook gebruiken voor iets anders is het ook niet echt. Maar dat is ook weer afhankelijk van het gebruik,
Dat staat er totaal los van.
[...]
Dus extra capaciteit toevoegen kost altijd meer disks doordat je een nieuwe ZFS raid er naast moet zetten. Economisch dus niet echt gunstiger ;)
Dat klopt.


Mr_gadget schreef op maandag 23 september 2013 @ 00:18:
[...]

Maar de ZFS variant van RAID is toch ongeveer hetzelfde? Ook met ZFS heb je tijdens een rebuild veel leesacties en de kans dat er nog een schijf uitklapt toch?
Nee, het is niet hetzelfde. RAID-Z gaat hier heel anders mee om, je hoeft dan ook geen TLER-schijven te hebben (wat bij hardware-RAID wel moet)

Als door silent corruption de parity niet meer klopt met de data waar die parity bijhoort (parity mismatch), dan weet een hardware-RAID-controller niet welke juist is: De parity of de data zelf.
Doordat ZFS een filesystem + volume manager in 1 is, heb je als voordeel dat ZFS, itt tot hardware-RAID, ten eerste weet welke files getroffen zijn, en daarnaast ook nog eens checksums over die files heeft. ZFS kan in zo'n geval de boel dus recoveren en hardware-RAID niet.

[ Voor 35% gewijzigd door Compizfox op 23-09-2013 13:56 ]

Gewoon een heel grote verzameling snoertjes

Pagina: 1