Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46

[BBG] Storage maart 2013

In de vorige BBG hebben we al een thuisserver behandeld. Deze thuisserver kan ingezet worden als nas of kleine hypervisor. Daarnaast waren er diverse opties beschikbaar om de server te upgraden naar een volwaardige hypervisor. Alhoewel de systemen gebruikt kunnen worden om data op te slaan, zijn ze, zoals ze in de BBG staan, niet speciaal ontwikkeld om data op te slaan. Ik heb daarom onderzocht of er animo is voor een BBG die gespecialiseerd is op het gebied van storage.

Voor zover ik kan heugen is dit de eerste keer dat een een BBG word ontwikkelt speciaal voor storage. De invulling van de BBG is daarom nog getekend met potloodlijntjes die makkelijk kunnen worden uitgegumd en worden gewijzigd. Budgetten zijn ook nog niet vast gesteld, we kunnen onze gedachten dus lekker laten varen en van alles bedenken. We moeten er wel voor waken dat het systeem binnen de perken blijft qua kosten.

Ik wil graag twee types storage systemen behandelen. Eén budget storage oplossing in de vorm van een kant en klare nas waar alleen nog schijven in moeten worden gestopt. Bij voorkeur een nas met minimaal 4 schijven. Ook nemen we eventuele raid aanbevelingen mee in de BBG. Dit opslag systeem voldoet vooral voor de mensen die weinig interesse hebben om zelf een systeem in elkaar te zetten, en meer op zoek zijn naar een out-of-the-box oplossing. Tevens zal een kant en klare nas veruit het zuinigst zijn.

Bij het tweede systeem kunnen de tweakers echt los gaan wat betreft mogelijkheden, performance en filesysteem. Dit zal een BBG zijn die opgebouwd is rondom ZFS. ZFS is een slim filesysteem die een aantal features heeft om veel performance te bieden en datacorruptie moet voorkomen. Femme Taken heeft een tijdje terug er een interessant aritkel over geschreven. Net als bij de budgetstorage oplossing willen we de keuze voor raid en besturingssysteem / filesysteem dus meenemen in de overweging, omdat dit van grote invloed is op de prestaties en veiligheid van je data.

Genoeg tekst en uitleg zover; laten we maar eens wat hardware gaan vastpakken.

Allereerst een opzetje voor de budgetstorage oplossing:

Doelgroep: voor mensen die af kunnen met maximaal vier harde schijven en snel klaar willen zijn zonder een onderzoek te doen naar ZFS. Je loopt echter ook all features van ZFS mis.

#ProductPrijsSubtotaal
3Western Digital Green WD20EARX, 2TB€ 83,29€ 249,87
1Synology Disk Station DS413J€ 289,-€ 289,-
Bekijk collectie
Importeer producten
Totaal€ 538,87


Vervolgens de systemen met ZFS.

Basisconfiguratie:

Doelgroep: mensen die dusdanig weinig storage nodig hebben dat ze met drie harde schijven afkunnen. Het budget wordt laag gehouden en het systeem komt het best tot zijn recht als er wordt gewerkt met grote bestanden die weinig random writes opleveren.

#ProductPrijsSubtotaal
1Intel Pentium G2020 Boxed€ 50,50€ 50,50
1ASRock B75 Pro3-M€ 56,45€ 56,45
3Western Digital Green WD20EARX, 2TB€ 83,29€ 249,87
1Nexus Thrio 310 Silent Case€ 40,70€ 40,70
2Serial ATA Power Adapter, 4pin Molex to 15pin S-ATA€ 1,25€ 2,50
1Scythe Slip Stream SY1225SL12L, 120mm€ 6,96€ 6,96
1Corsair CMV16GX3M2A1333C9€ 66,10€ 66,10
1be quiet! Pure Power L7 300W€ 37,95€ 37,95
Bekijk collectie
Importeer producten
Totaal€ 511,03


ZFS advanced systeem

Doelgroep: mensen die dusdanig veel storage nodig hebben dat ze met drie harde schijven niet uit de voeten kunnen. Omdat er bij meer schijven een grotere kans is dat er één of zelfs twee harde schijven uitvallen maken we gebruik van raid-z2.

#ProductPrijsSubtotaal
1Intel Core i5 3470 Boxed€ 165,20€ 165,20
1Intel Desktop Board DQ77MK€ 119,73€ 119,73
6Western Digital AV GP€ 124,35€ 746,10
1Nexus Thrio 310 Silent Case€ 40,70€ 40,70
2Silverstone SST-CP06 4x SATA€ 8,49€ 16,98
1Scythe Slip Stream SY1225SL12L, 120mm€ 6,96€ 6,96
1Corsair XMS3 CMX32GX3M4A1600C11€ 146,-€ 146,-
1IBM ServeRAID M1015 SAS/SATA Controller for System x€ 118,58€ 118,58
1Seasonic G-Serie 360Watt€ 61,-€ 61,-
1Intel 320 80GB€ 122,95€ 122,95
Bekijk collectie
Importeer producten
Totaal€ 1.544,20


Bij het budgetstorage apparaat hoeft er eigenlijk weinig besproken te worden. Er moet een nas worden uitgezocht die veel waar bied voor het geld. Vervolgens moet er een keuze worden gemaakt voor het aantal hardeschijven en raidniveau.

Bij het high-end systeem wil ik wat dieper gaan. Naast de keuze voor de beste hardware wil ik graag ingaan op de keuze van het besturingssysteem. De beste implementaties van ZFS zijn op FreeBSD en Solaris, waarbij Solaris nog een voorsprong heeft op FreeBSD. ZFS voor Linux is in ontwikkeling, maar loopt nog ver achter. Ook wil ik in gaan op belangrijke features van ZFS zoals ZIL, ARC, L2ARC, storage pools, RAID-Z, etcetera... Omdat de prijs van het ZFS systeem direct al behoorlijk hoog ligt, is het wellicht verstandig om met een budgetversie te beginnen, en vervolgens diverse upgrade onderdelen aan te bevelen. Kortom, er moet nog veel worden uitgewerkt!

Graag wil ik weten welke keuzes jullie zouden maken in de bovengestelde vraagstukken. Tevens ben ik benieuwd naar de reacties op een storage BBG!

Openstaande punten lijst:

RAID-Z vs RAID-Z2
pricewatch: HP Proliant Microserver N40L (658553-421) ipv NAS?
• Een of twee ssd's in upgrade?
• 16GB voor budget lijkt mij voldoende. Uitgaande van maximaal 5 x 3TB aan schijven, waardoor je bij
raid-z 12TB effectief kunt benutten. De vuistregel was toch 1GB intern geheugen per TB?

• Doelgroep benadrukken
• Schijven spindown
• Raid-controllers icm WD RED schijven
• ECC geheugen?
[*]ZIL en L2ARCH uitleg / onderbouwing
• UPS, om corruptie te voorkomen?
• Front case fan voor schijven
• Jumbo frames 9K, alleen interessant voor iSCSI en virtualisatie?
• OS keuze incl hardware support

[ Voor 51% gewijzigd door Stefanovic45 op 15-02-2013 07:41 ]

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • Ultrapc
  • Registratie: December 2012
  • Laatst online: 30-03 18:44

Ultrapc

Anyone steak?

Net hoor :) , misschien is voor de echte Tweaker deze beter als budgetoplossing:

pricewatch: HP Proliant Microserver N40L (658553-421)

Succes!

Allround.


Acties:
  • 0 Henk 'm!

  • pk026
  • Registratie: Maart 2012
  • Laatst online: 17-01 09:02
Editie januari 2013 van de Desktop Best Buy Guide adviseerde een sterkere processor voor mensen die 3d films willen afspelen op hun HTPC.

In het verlengde hiervan: Als ik een 3d-film wil streamen naar mijn htpc, gelden er dan minimale eisen voor een NAS?

Acties:
  • 0 Henk 'm!

  • Sleepie
  • Registratie: Maart 2001
  • Laatst online: 23:21
Als het puur een storage server betreft is die i3 niet echt nodig voor het basis-systeem
Ik zou eerder voor een pricewatch: Intel Pentium G2020 Boxed ofzo kiezen. Goedkoper en ultra-zuinig.

De twee SSDs zijn misschien nuttig voor L2ARC (waarbij je je af kunt vragen wat daarvan het nut is, aangezien de meesten hier er voornamelijk grote bestanden (series, films e.d.) op zullen zetten.
Voor ZIL zijn de Crucials eigenlijk niet geschikt, vanwege het ontbreken van supercaps. Dan zou je Intel 320s moeten nemen (duur!).

Acties:
  • 0 Henk 'm!

  • GrooV
  • Registratie: September 2004
  • Laatst online: 09-05 07:58
Jammer dat op dat Intel bordje geen HDMI zit. Mijn storage wordt namelijk ook gebruikt als HTPC :)

Acties:
  • 0 Henk 'm!

  • yeehaw
  • Registratie: Juli 2007
  • Laatst online: 09-05 08:13
Het Intel DQ77MK bordje wordt aangestuurd via een laptop adapter, hiervoor zal die voeding die erbij gevoegd is dan ook niet werken.

Tevens heeft het Intel bordje al twee netwerkkaarten ingebouwd zitten en is een derde wellicht overkill.

[ Voor 29% gewijzigd door yeehaw op 05-02-2013 19:39 ]


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
Volgens mij heb jij het over dit moederbord:

http://www.intel.com/cont...desktop-board-dq77kb.html

In de BBG ga ik nu echter uit van dit moederbord:

http://www.intel.com/cont...desktop-board-dq77mk.html

Dus met een netwerkkaart en geen laptop voeding benodigd :)

Blijkt inderdaad toch over twee intel nics te beschikken!

[ Voor 8% gewijzigd door Stefanovic45 op 06-02-2013 18:38 ]

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 29-04 11:20
In de budget ZFS versie zou ik al meteen voor 32GB gaan. Daarnaast is het handig om te vermelden of het om een RAIDZ of een RAIDZ2 zal gaan.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • jwpmzijl
  • Registratie: December 2002
  • Laatst online: 03-05 16:42
Prima initiatief. Wat ik een beetje mis is de doelgroep. Ik bedoel storage hebben wij allemaal nodig en met films gaat dat heel hard. Dus red je het al snel niet meer met één schijfje ook al is die 3 of 4 terabyte.

Advies voor een NAS is mij duidelijk. Voor die tweakers die niet al te moeilijk willen doen maar wel een goede/prijs prestatie willen hebben. De NAS zal dan ook primair voor opslag dienen en als de NAS ook nog een beetje kan downloaden of streamen is dat mooi meegenomen. Over de doelgroep en het bestaan van de doelgroep kan weinig twijfel zijn :)

Maar voor het high-end systeem vind ik het moeilijker om de doelgroep te definiëren. Gaat het om die tweakers die het Storage showoff topic volspammen. Of gaat het om de categorie daaronder.

Ik vraag dit omdat de doelgroep nogal wat uitmaakt voor het advies dat gegeven moet worden. Ik bedoel als het enkel om storage gaat is één gigabitpoortje echt wel voldoende. Knappe jongen die dat vol weet te pompen.
  • Ik vul mijzelf even aan. Met een SSD lukt het natuurlijk prima om een 1 gigabit poort vol te pompen maar hoe vaak pomp je een volle SSD van je local storage over naar de central storage 8)
maar als je ook nog en beetje met virtualisatie aan het klooien bent en bijv iScsi wilt gebruiken naast streaming en andere zaken dan zijn meerdere netwerk poortjes wel handig ook wordt het dan interessant om te kijken naar welke netwerk adapter er op het mobo zit.

Ik begrijp dat het niet makkelijk is om alle vragen te beantwoorden. Ik hoop dat in ieder geval deels de juiste vragen stel zodat het topic de juiste richting op gaat. Een ding is zeker alle basis ingrediënten zijn aanwezig. Maar als ik zie dat er al gelijk aan zil en arc wordt gedacht op basis van een SSD dan ga je het simpele storage verhaal al snel voorbij en denk ik al snel aan virtualisatie taken.

Just my 2 cents

[ Voor 5% gewijzigd door jwpmzijl op 06-02-2013 00:16 ]

Hans van Zijl


Acties:
  • 0 Henk 'm!

  • Xudonax
  • Registratie: November 2010
  • Laatst online: 20:09
ZFS on Linux is onderhand toch aardig volwassen in mijn ogen. Ik draai het nu ruim 2 maanden, en merk geen enkel probleem. Praktisch alles zit er volgens mij ook in, of mis ik iets? Het geheel heeft reeds 2 stroomstoringen meegemaakt (beide m'n eigen schuld) en niets aan data corruptie te vinden. Een scrub geeft ook geen enkel probleem. En hoewel ik absolúút geen fan ben van Debian/Ubuntu systemen moet ik ze nageven dat het PPA systeem geniaal werkt. Er is bijvoorbeeld ook een ZFS on Linux PPA beschikbaar.

Ik merk ook geen verschil in throughput tussen ZFSGuru en ZFS on Linux. Beide doen grofweg 350MB/s op mijn hardware (Mini-ITX storage). Alles van die lijst, exclusief de Intel en OCZ SSD en de 6 Western Digital schijven draaide tijdens deze test. Als er interesse is kan ik wel eens kijken om een stukje over ZFS on Linux op te schrijven voor jullie?

Het mooie is dat je op Linux gelijk KVM erbij krijgt, wat in mijn ogen een mooiere virtualisatie is dan wat ik op FreeBSD kon vinden. Al is het maar doordat je virt-manager (gebasseerd op Red Hat's libvirt meen ik) heel mooi over het netwerk kunt draaien zodat je vanaf elke PC in het netwerk het geheel kunt beheren. In mijn ogen is dit leuk om mee te nemen :)

EDIT:
jwpmzijl schreef op woensdag 06 februari 2013 @ 00:12:... Ik bedoel als het enkel om storage gaat is één gigabitpoortje echt wel voldoende. Knappe jongen die dat vol weet te pompen. ...
Aangenaam :) Ik draai Apple Time Machine backups naar mijn ZFS systeem en ik krijg de 1GBit echt wel vol :) Laat staan als er méér dan 1 machine tegelijk aan het backuppen is, wat nog wel eens wil gebeuren als ik mijn laptop een poosje heb rondgesleept en dan weer aan het netwerk hang ;) Neemt niet weg dat dit natuurlijk het merendeel niet zal overkomen.

[ Voor 18% gewijzigd door Xudonax op 06-02-2013 00:33 ]


Acties:
  • 0 Henk 'm!

Anoniem: 15758

StefanvanGelder schreef op zaterdag 02 februari 2013 @ 14:34:
Voor zover ik kan heugen is dit de eerste keer dat een een BBG word ontwikkelt speciaal voor storage.
Dat werd eens tijd dan! :o
Ik wil graag twee types storage systemen behandelen. Eén budget storage oplossing in de vorm van een kant en klare nas waar alleen nog schijven in moeten worden gestopt. (..) Tevens zal een kant en klare nas veruit het zuinigst zijn.
Dat eerste lijkt me prima en dan ligt Synology voor de hand. Maar waarom zou een Synology zoveel zuiniger zijn dan een zelfbouw setup? Met een kale zelfbouw setup zit je ook rond de 15W idle. In mijn geval zelfs 8,4W met undervolting en zuinige componenten, maar dat zijn uitzonderingen. Een oudere computer verbruikt wel veel meer, maar tegenwoordig is het bouwen van een zuinige computer niet zo moeilijk meer.

Het zou leuk zijn wanneer tweakers naar aanleiding van deze BBG metingen doorgeven hoeveel hij verbruikt in kale en in volle staat. Want zodra je schijven gaat toevoegen gaat je idle power natuurlijk omhoog, dat is duidelijk. Of je spindown gebruikt kan dan nog behoorlijk wat verschil geven, echter niet iedereen vindt spindown fijn. Om die reden gebruik ik 2,5" disks + SSDs als mini-NAS voor mijn 24/7 benodigdheden. ;)
Bij het tweede systeem kunnen de tweakers echt los gaan wat betreft mogelijkheden, performance en filesysteem. Dit zal een BBG zijn die opgebouwd is rondom ZFS.
Leuk, leuk.. maar ik zou het eigenlijk heel simpel houden. De basis die je al hebt is best goed: redelijk simpel systeem maar wel mogelijkheid tot uitbreiding. Ik zou het een 'medium' build noemen, geen high-end. Een high-end ZFS systeem is iets voor 40+ schijven ofzo, en misschien wel een dualsocket moederbord, en toch iets van Infiniband/10G. Dat is misschien voor een andere keer leuk - een kwijlsysteem voor de storagefreak - maar ik zou nu juist mikken op de grote groep die inderdaad 5 schijfjes in RAID-Z wilt met mogelijkheid tot uitbreiding. Dan spreek je veel meer mensen aan!
Net als bij de budgetstorage oplossing willen we de keuze voor raid en besturingssysteem / filesysteem dus meenemen in de overweging, omdat dit van grote invloed is op de prestaties en veiligheid van je data.
Helemaal gelijk. Juist om die reden kan het bijvoorbeeld extra handig zijn om in het artikel te vermelden dat bepaalde hardware juist niet/minder goed werkt in combinatie met een zelfbouw ZFS NAS. Hieronder vallen bijvoorbeeld RAID controllers, maar ook schijven die standaard TLER hebben geactiveerd, zoals de populaire WD Red drives. Daar is nogal eens verwarring over omdat juist deze schijven als NAS-schijf worden gepositioneerd. Zo zie je dus dat je eerst je storageplatform moet kiezen en daaromheen de hardware moet kiezen - niet andersom.

Mijn opmerkingen over de ZFS configuratie:
  • Zoals gezegd is een goedkopere processor maar méér geheugen juist iets kenmerkends voor ZFS, vooral als men geen zware CPU-intensieve features gebruikt zoals GZIP compressie op grote datasets, deduplicatie of encryptie, heb je aan een goedkope Intel chip meer dan genoeg. pricewatch: Intel Pentium G2020 Boxed is Ivy Bridge 22nm en 55W TDP. De T versie is 35W maar meestal niet leverbaar Intel kennende (OEM-only). Passief koelen wordt dus lastig (lees: duur).
  • 2x8GiB RAM-setje kun je denk ik houden, met aanbevolen nog zo'n setje erbij. Ik zou wel dezelfde setjes aanhouden; want nu is de upgrade een CL11 setje. Aangezien ZFS vooral geheugen-intensief en bottlenecked is, kunnen latencyverschillen misschien nog wel wat uitmaken. Dat moet ik nog een keer testen.
  • Twee SSDs is wel veel van het goede. Wel goed voor een SLOG + L2ARC + OS DRIVE setup. Je kunt dan je OS mirrorren en de separate log devices ook mirrorren, terwijl je de L2ARC in stripe gebruikt. Maar ik denk dat je beter het basissysteem zonder SSD laat, of misschien een SSD die wel geschikt is voor alles, namelijk deze: pricewatch: Crucial 2.5" M500 120GB
Als ik die wijzigingen doorvoer, kom ik exclusief schijven aan:

#ProductPrijsSubtotaal
1Intel Pentium G2020 Boxed€ 50,70€ 50,70
1ASRock B75 Pro3-M€ 56,60€ 56,60
1Nexus Thrio 310 Silent Case€ 43,92€ 43,92
1Corsair CMV16GX3M2A1333C9€ 66,10€ 66,10
1be quiet! Pure Power L7 300W€ 37,95€ 37,95
Bekijk collectie
Importeer producten
Totaal€ 255,27


Tegen de 250 euro is best redelijk denk ik.
Ook wil ik in gaan op belangrijke features van ZFS zoals ZIL, ARC, L2ARC, storage pools, RAID-Z, etcetera...
Het lijkt mij ook wel leuk om daar een stukje over te schrijven, indien je interesse hebt. :)

Acties:
  • 0 Henk 'm!

  • wjn
  • Registratie: Juli 2012
  • Laatst online: 06-05 13:50

wjn

Wellicht handig de doelgroep splitsen in een groep die relatief veel storage voor werk / hobby nodig heeft (fotograaf, videobewerking) en een doelgroep die voornamelijk films e.d. streamen.

Afhankelijk van de doelgroep is ook ECC geheugen belangrijk, vooral als gevoelige data als documenten en foto's opgeslagen gaan worden, of als het een echte backup server moet worden.
Waarom zou je je de schijven wel controleren op bit fouten en het geheugen niet?

Nadeel is dat je dan meteen weer een duurder (server) board en processor (minimaal i5 iirc) nodig hebt, die ECC ondersteunen. De al genoemde HP N40L kan bijvoorbeeld ook met ECC geheugen werken.
pricewatch: HP Proliant Microserver N40L (658553-421)

L2ARC (dus SSD) is ook interessant bij deduplication, omdat een tabel wordt bijgehouden in (volgorde) geheugen (ARC), L2ARC, harddisk. Harddisk is uiteraard traag in vergelijking met de andere twee.

Acties:
  • 0 Henk 'm!

  • psy
  • Registratie: Oktober 1999
  • Laatst online: 12:35

psy

Potentieel erg interessant topic ik ben benieuwd wat er uit komt met name een setup voor ZFS :)

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
Even een paar opmerkingen:

De DQ77MK is een super fijn en goed boord (hebbum zelf ook ;) ), maar heeft al 2 netwerkaansluitingen die je beide kan gebruiken, dus nóg een extra Intel adapter is onzin. Bovendien heb ik (nog steeds) niet gezien dat een Realtek of Atheros daadwerkelijk trager is. Een Intel heeft hoogstens wat meer functies, en is potentieel wat zuiniger. Mocht je dus een bord hebben met 1 Realtek kaartje, ga er niet gelijk een Intel in stoppen, want het levert je in verhouden super weinig op (naar mijn mening).

Ook casefans zijn 9/10 niet nodig. Het is heel erg verschillend welke schijf je pakt.
Omdat je geen dikke GPU en CPU hebt (en omdat je CPU 99% idle is) word er alleen nog maar warmte gegenereerd door je harde schijven. Als je daar ook relatief koude schijven voor kiest, is het niet meer nodig om (dure) casefans aan te schaffen, of misschien maar 1 om de flow richting je voeding op gang te laten komen.

Verder is ZIL / L2ARC echt super tof, maar die features zou ik een los budget geven, omdat ze echt heel persoonlijk zijn. Wil je de NAS icm ESXi gebruiken is ZIL veel belangrijker dan L2ARC (100% random writes), doe je aan videobewerking of wil je een iSCSI volume voor je desktop maken op je server, dan is L2ARC weer veel leuker. Je KAN beide op 1 SSD zetten, maar dan moet je een wat grote SSD gebruiken, en is het risico groter.

Bovendien moet er eigenlijk een goede uitleg bij over de risico's van ZIL zonder UPS (als je geen Intel 320 of een Crucial M5000 neemt), maar dat wilde CiPHER toch al typen geloof ik.

@CiPHER, misschien moet je jou post over ECC en ZFS even opsnorren, daar stonden een heel aantal redenen in, waarom ECC leuk, maar niet verplicht was in, daar heb ik ook weer op gereageerd volgens mij.

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 23:21

Compizfox

Bait for wenchmarks

Imho is de CPU in de ZFS-config (en die in de upgrade-config al helemaal) flink overkill. Zoveel ga je echt niet nodig hebben. Het kan dus veel goedkoper.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 04-05 14:53

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op woensdag 06 februari 2013 @ 09:32:
Even een paar opmerkingen:

De DQ77MK is een super fijn en goed boord (hebbum zelf ook ;) ), maar heeft al 2 netwerkaansluitingen die je beide kan gebruiken, dus nóg een extra Intel adapter is onzin. Bovendien heb ik (nog steeds) niet gezien dat een Realtek of Atheros daadwerkelijk trager is. Een Intel heeft hoogstens wat meer functies, en is potentieel wat zuiniger. Mocht je dus een bord hebben met 1 Realtek kaartje, ga er niet gelijk een Intel in stoppen, want het levert je in verhouden super weinig op (naar mijn mening).
Bijkomend voordeel van t bordje is dat het over AMT beschikt en je dus KVM over IP erbij krijgt (iets wat je eigenlijk pas vanaf server grade borden tegenkomt) wat wel zo handig is als je de server in de hoek weg wilt zetten (headless). Vereiste is dan wel een vPro enabled CPU (i5/i7 CPU range)
Ook casefans zijn 9/10 niet nodig. Het is heel erg verschillend welke schijf je pakt.
Omdat je geen dikke GPU en CPU hebt (en omdat je CPU 99% idle is) word er alleen nog maar warmte gegenereerd door je harde schijven. Als je daar ook relatief koude schijven voor kiest, is het niet meer nodig om (dure) casefans aan te schaffen, of misschien maar 1 om de flow richting je voeding op gang te laten komen.
Mocht je de upgrade met de M1015 overwegen dan is 1 welgemikte case fan een uitkomst. Dit omdat sommige gebruikers melden dat de chipset op de HBA toch wel warm wordt
Verder is ZIL / L2ARC echt super tof, maar die features zou ik een los budget geven, omdat ze echt heel persoonlijk zijn. Wil je de NAS icm ESXi gebruiken is ZIL veel belangrijker dan L2ARC (100% random writes), doe je aan videobewerking of wil je een iSCSI volume voor je desktop maken op je server, dan is L2ARC weer veel leuker. Je KAN beide op 1 SSD zetten, maar dan moet je een wat grote SSD gebruiken, en is het risico groter.
Als het een toegewijde ZFS storage doos moet worden, valt virtualisatie eigenlijk buiten de doelstelling van de server. Ik wil niet zeggen dat het niet kan. Mocht virtualisatie toch wens zijn dan is de upgrade richting een Xeon net even te veel van het goede, een i5-3330 biedt ook Vt-d ondersteuning, een vereiste om hba's e.d. aan een VM door te geven. Bedenk wel dat passthrough niet met alle mogelijk insteekkaarten werkt en dat sommige moederborden ook kribbig kunnen reageren mbt passthrough van kaarten.
Bovendien moet er eigenlijk een goede uitleg bij over de risico's van ZIL zonder UPS (als je geen Intel 320 of een Crucial M5000 neemt), maar dat wilde CiPHER toch al typen geloof ik.

@CiPHER, misschien moet je jou post over ECC en ZFS even opsnorren, daar stonden een heel aantal redenen in, waarom ECC leuk, maar niet verplicht was in, daar heb ik ook weer op gereageerd volgens mij.
Lijkt me een hele goede. Als je voor server spul kiest zit je meestal gedwongen vast een ECC, maar voor de thuis situatie is dit wellicht te kostbaar (duurder RAM/CPU/Mobo). Als ECC niet echt nodig is, kun je de meerprijs beter in extra RAM steken, want daar heb je meer plezier van (nu en in de toekomst bij de uitbreiding van de data-pool) .

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • DrFlash
  • Registratie: Juli 2009
  • Laatst online: 05-03 12:59
Ik sluit me grotendeels aan bij cipher over de basis ZFS build. Echter een puntje om rekening mee te houden.

De RTL8111e netwerk chip die op het moederbord zit zou 9k jumbo frames moeten ondersteunen. Echter de driver in het populaire FreeNAS ondersteund maximaal 6.1k op deze chip.
Weet niet precies hoe dit zit bij solaris, maar kan me voorstellen dat de driver ondersteuning daar nog minder is.

Overigens is de build van cipher goedkoper als de kant-en-klare nas :-)
FireDrunk schreef op woensdag 06 februari 2013 @ 09:32:
Bovendien heb ik (nog steeds) niet gezien dat een Realtek of Atheros daadwerkelijk trager is. Een Intel heeft hoogstens wat meer functies, en is potentieel wat zuiniger. Mocht je dus een bord hebben met 1 Realtek kaartje, ga er niet gelijk een Intel in stoppen, want het levert je in verhouden super weinig op (naar mijn mening).
Ik vind 9k jumbo frames toch wel een belangrijke ! Ook gebruikt de realtec over het algemeen meer cpu cycles als z'n intel tegenhanger. Nou maakt dat bij heftige i3/i5 of xeon processors weinig uit, maar als je veel troughput wilt op een budget processor ga je dat merken.

@Pantagruel

Ik denk dat firedrunk bedoelt de server als storage voor VM's (maakt niet zoveel uit of het esx/kvm of xen is) of je dat nou lokaal op de doos doet of via het netwerk, ik heb bijv. een 2de machine waarop m'n hypervisor draait, machine bestanden staan op de nas. De opmerking van firedrunk is verder prima.

[ Voor 55% gewijzigd door DrFlash op 06-02-2013 12:49 ]

Wowhead profiel


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
@Pantagrual, zie DrFlash' antwoord, ik bedoelde inderdaad om de bak als VM storage te gebruiken

@DrFlash, Realtek doet al jaren 9k jumbo frames? En CPU verbruik is verwaarloosbaar. (0.01% tegenover 0.1% ofzo op een moderne CPU. Bedenk maar dat je CPU 10-tallen GB/s kan doorvoeren. Bij 10Gb is het een ander verhaal...

En dat de drivers nog niet zo ver zijn als de Chip kan, tja, das inderdaad jammer.

Even niets...


Acties:
  • 0 Henk 'm!

  • DrFlash
  • Registratie: Juli 2009
  • Laatst online: 05-03 12:59
FireDrunk schreef op woensdag 06 februari 2013 @ 12:57:
En dat de drivers nog niet zo ver zijn als de Chip kan, tja, das inderdaad jammer.
Ik doelde ook specifiek op de drivers. de chip doet onder linux en windows prima 9k frames, maar daar hebben we het hier niet over :)

Wowhead profiel


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 04-05 14:53

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op woensdag 06 februari 2013 @ 12:57:
@Pantagrual, zie DrFlash' antwoord, ik bedoelde inderdaad om de bak als VM storage te gebruiken

@DrFlash, Realtek doet al jaren 9k jumbo frames? En CPU verbruik is verwaarloosbaar. (0.01% tegenover 0.1% ofzo op een moderne CPU. Bedenk maar dat je CPU 10-tallen GB/s kan doorvoeren. Bij 10Gb is het een ander verhaal...

En dat de drivers nog niet zo ver zijn als de Chip kan, tja, das inderdaad jammer.
Point taken, interpretatie fout van mijn kant.
Als je de NAS als storage target (NFS/iSCSI/SRP) tbv een virtualisatie oplossing (ESXi/KVM/Hyper-V) wilt gebruiken, dan is ZIL/L2ARC inderdaad meer dan welkom.

Driver ondersteuning voor RealTek NIC's was altijd notoir slecht als je OS smaak een andere dan Windows was. (In het verleden meerdere malen met de tech's van RT gemaild ivm Suse/RedHat linux ondersteuning). Tegenwoordig is dat wel beter, maar nog steeds loopt *nix achter op windows, om maar te zwijgen over de 'alternately flavoured OSes'. Daarnaast kun je ook tegen eigenwijze hardware makers aan lopen die chips van alternatieve namen en firmware voorzien.
(De Atom plank die ik ooit kocht had een RealTek nic (Intel koos voor een budget oplossing), maar brandmerkte hem wel afwijkend. Het gevolg hiervan was dat de nic wel herkend werdt, opkwam en vrolijk weer neer ging omdat de driver die, op basis van de firmware, gekozen werd niet wilde samenwerken met de daadwerkelijke chip.)

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
Leuk om te zien dat het topic los komt! Bedankt voor alle reacties.

Vanavond zal ik uitgebreid wat dingen aanpassen en wat reacties geven op de gemaakte voorstellen.
Anoniem: 15758 schreef op woensdag 06 februari 2013 @ 03:18:

[...]

Het lijkt mij ook wel leuk om daar een stukje over te schrijven, indien je interesse hebt. :)
Bedankt voor je aanbod! Ik denk dat wij elkaar nog vaker spreken ;)

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • DrFlash
  • Registratie: Juli 2009
  • Laatst online: 05-03 12:59
Ik heb even in de pricewatch gekeken naar andere moederbordjes, er zijn wat redelijk geprijste intel bordjes met een intel nic. verder alle asrock/msi/gigabyte moederborden die ik heb gezien waren voorzien van de RTL8111e Het prijsverschil is overigens hetzelfde als een losse nic in het moederbord steken, daarbuiten verlies je op de intel borden ook nog 1 s-ata header. dus uiteindelijk denk ik dat het 'beter' is om een losse netwerkkaart in het bord te steken.

Wowhead profiel


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
DrFlash schreef op woensdag 06 februari 2013 @ 16:54:
Ik heb even in de pricewatch gekeken naar andere moederbordjes, er zijn wat redelijk geprijste intel bordjes met een intel nic. verder alle asrock/msi/gigabyte moederborden die ik heb gezien waren voorzien van de RTL8111e Het prijsverschil is overigens hetzelfde als een losse nic in het moederbord steken, daarbuiten verlies je op de intel borden ook nog 1 s-ata header. dus uiteindelijk denk ik dat het 'beter' is om een losse netwerkkaart in het bord te steken.
Als je graag meer stroom verspilt dan nodig.

Acties:
  • 0 Henk 'm!

  • psy
  • Registratie: Oktober 1999
  • Laatst online: 12:35

psy

analog_ schreef op woensdag 06 februari 2013 @ 17:16:
[...]

Als je graag meer stroom verspilt dan nodig.
Dat valt reuze mee, zo'n moderne Intel Gbit NIC verbruikt vrijwel niets extra (max 1,9 Watt)

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
Op een setup (zonder disks) die idle 19W doet is dat toch 10%...

Even niets...


Acties:
  • 0 Henk 'm!

  • Borromini
  • Registratie: Januari 2003
  • Niet online

Borromini

Mislukt misantroop

offtopic:
Streaming zal je netwerkkaart meer belasten dan je CPU. Het gaat vooral over throughput, en daar komen de opslag (HD/SSD) en de netwerkkaart om de hoek kijken.

Ik heb hier een G530 in m'n server steken met Linux/ZFS. Ik stream zo goed als alleen 720p, maar ook 1080p is geen probleem.

De bitrate van je materiaal is bepalend, en Blu-Ray komt in principe niet boven de 45 Mbps, terwijl moderne schijven vaak rond de 100 MBps liggen. De meeste streamers hebben een 100 Mbps-aansluiting, net omdat gigabit overbodig is voor 1080p24 (wat het maximum van de Blu-Rayspec is), 1080p60 zal wel wat hoger liggen maar waarschijnlijk nog altijd niet 100 Mbps halen.

Got Leenucks? | Debian Bookworm x86_64 / ARM | OpenWrt: Empower your router | Blogje


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
Oke, ik heb inmiddels al veel goede suggesties gedaan. Omdat het aardig veel word heb ik besloten om een lijstje in de TS op te nemen waarin alle punten komen te staan. We zo overzichtelijk voor jullie, maar ook voor mij ;) Op het moment dat er een beslissing genomen is, zal ik het onderwerp doorstrepen.

De punten die ik uit alle reacties heb verzameld zijn:

Raid-z vs raid-z2

Ik denk dat de uitgangspunten voor de discussie hetzelfde zijn als bij de discussie over raid 5 vs raid 6. Het nadeel van raid 6 lijkt mij de extra write penalty en je verliest een extra schijf door de extra parenty. Raid 5 lijkt mij eerlijk gezegd veilig genoeg, al kan dat voor iedereen anders zijn natuurlijk. Wellicht dat raid-z2 ook interessanter is op het moment dat je met ZIL werkt? Hierdoor heb je sowieso wel een goede throughtput, totdat je caching schijf vol zit... Wat is jullie gedachte over deze? In deze discussie vind ik het ook interessant om te weten hoeveel schijven optimaal is en vooral ook waarom ;) Voor zover ik weet zijn voor raid-z 5 schijven optimaal en voor raid-z2 6 schijven?

Budget oplossing

Ik heb inmiddels een paar keer de pricewatch: HP Proliant Microserver N40L (658553-421) voorbij zien komen. Is dit misschien een betere optie dan een kant en klare NAS? Je hebt meer mogelijkheden, maar het kost meer tijd om het te installeren. Je moet zelf alsnog je OS bepalen, installeren en configureren. Qua gebruikersgemak gaat er niks boven een Synology... Daarom neig ik toch wel naar de Synology. De basisversie van ZFS is dan denk ik al een betere keuze dat de HP server. Snellere CPU, meer aansluitingen, upgrademogelijkheden en algemene modbaarheid.

Aantal ssd's
Ik heb altijd begrepen dat het erg verstandig is om ZIL in mirror over minimaal twee ssd's te laten lopen. Doordat de ssd als cache fungeert wordt er namelijk meer data weggeschreven op de ssd, waardoor die harder zou slijten en de kans groter is dat je ssd overlijdt. Op dat moment ben je al je data kwijt wat nog in ZIL stond. Dat is een funest voor storage oplossingen, ik neig er naar om dit ook te laten gelden voor thuisgebruikers. Als je eerst raid-z2 kiest en vervolgens 1 ssd voor ZIL vind ik dat een beetje een gemiste kans.

Raid-controllers icm WD RED schijven
Als we toch voor een raidcontroller gaan bij het upgrade systeem, is de keuze voor WD RED's wellicht ook een goede keuze?
FireDrunk schreef op woensdag 06 februari 2013 @ 09:32:
Verder is ZIL / L2ARC echt super tof, maar die features zou ik een los budget geven, omdat ze echt heel persoonlijk zijn. Wil je de NAS icm ESXi gebruiken is ZIL veel belangrijker dan L2ARC (100% random writes), doe je aan videobewerking of wil je een iSCSI volume voor je desktop maken op je server, dan is L2ARC weer veel leuker. Je KAN beide op 1 SSD zetten, maar dan moet je een wat grote SSD gebruiken, en is het risico groter.

Bovendien moet er eigenlijk een goede uitleg bij over de risico's van ZIL zonder UPS (als je geen Intel 320 of een Crucial M5000 neemt), maar dat wilde CiPHER toch al typen geloof ik.
ZIL en L2ARC pakken we inderdaad los op en gaan we waarschijnlijk als optie of upgrade meegeven. Het moet wel goed worden onderbouwt bij welke specifieke acties ZIL en L2ARC het overwegen waard zijn. De voorbeelden die je schets zijn al goed wat mij betreft.

Als een Intel 320 supercaps heeft dan zijn ze wellicht sowieso het overwegen waard boven de Crucial M4? De sandforce controller heeft natuurlijk wel een mindere naam, maar de Intel 320 drives zijn in mijn ogen prima. Ik heb er zelf ook een in mijn systeem. :P

Geheugen
16GB lijkt me prima om mee te beginnen in de basisconfiguratie. Was de vuistregel niet 1TB aan storage is 1GB aan intern geheugen? Aangezien we waarschijnlijk zo rond de 5x3TB in raid-z zetten, hebben we 12TB aan effectieve storage. Met 16GB geheugen zit je dan gewoon lekker :)

ECC geheugen
FireDrunk schreef op woensdag 06 februari 2013 @ 09:32:
@CiPHER, misschien moet je jou post over ECC en ZFS even opsnorren, daar stonden een heel aantal redenen in, waarom ECC leuk, maar niet verplicht was in, daar heb ik ook weer op gereageerd volgens mij.
Lijkt me interessant en voldoende om op basis daarvan te bepalen of we ECC geheugen moeten overwegen in onze setup.

UPS
Vinden we een UPS een must bij een systeem wat gebruik maakt van ZFS, of alleen icm ZIL?

Jumbo Frames
Voor zover ik weet zijn 9k jumbo frames alleen erg belangrijk bij iSCSI en virtualisatie? Kan een huis tuin en keuken switchje eigenlijk überhaupt wel goed met jumbo frames overweg?

OS keuze incl hardware support
Het wordt denk ik ook tijd om deze discussie aan te wakkeren... Omdat ik zelf geen praktische ervaring heb met ZFS hoor ik graag jullie meningen. Mocht het OpenIndiana worden is hardware support sowieso wel iets wat goed gecontroleerd moet worden.

Mocht ik nog iets over het hoofd hebben gezien dan hoor ik dat graag!

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
StefanvanGelder schreef op woensdag 06 februari 2013 @ 19:27:
Oke, ik heb inmiddels al veel goede suggesties gedaan. Omdat het aardig veel word heb ik besloten om een lijstje in de TS op te nemen waarin alle punten komen te staan. We zo overzichtelijk voor jullie, maar ook voor mij ;) Op het moment dat er een beslissing genomen is, zal ik het onderwerp doorstrepen.

De punten die ik uit alle reacties heb verzameld zijn:

Raid-z vs raid-z2

Ik denk dat de uitgangspunten voor de discussie hetzelfde zijn als bij de discussie over raid 5 vs raid 6. Het nadeel van raid 6 lijkt mij de extra write penalty en je verliest een extra schijf door de extra parenty. Raid 5 lijkt mij eerlijk gezegd veilig genoeg, al kan dat voor iedereen anders zijn natuurlijk. Wellicht dat raid-z2 ook interessanter is op het moment dat je met ZIL werkt? Hierdoor heb je sowieso wel een goede throughtput, totdat je caching schijf vol zit... Wat is jullie gedachte over deze? In deze discussie vind ik het ook interessant om te weten hoeveel schijven optimaal is en vooral ook waarom ;) Voor zover ik weet zijn voor raid-z 5 schijven optimaal en voor raid-z2 6 schijven?
Je moet je nog even inlezen hoe ZIL werkt :+, want dat is helemaal geen caching schijf, dat is L2ARC.
ZIL vangt de synchrone writes op, en bewaart deze. Waarom? Zodat het Queing mechanisme van ZFS nog steeds alle pending writes optimaal kan ordenen. Dat wil dus zeggen, dat alle writes lekker sequentieel op je disk gedaan worden. Waarom kan dat normaal niet? Omdat een OS sommige data gegarandeerd weggeschreven wil hebben op een specifieke locatie. ZFS vangt juist die irritante vertragende write op, op zijn ZIL, en juist daardoor word je totale systeem veel sneller.

Je zil groeit, als je een monster van een server hebt die echt 1Gb of meer aan storage traffic staat te verstoken misschien tot 4GB max.
Budget oplossing

Ik heb inmiddels een paar keer de pricewatch: HP Proliant Microserver N40L (658553-421) voorbij zien komen. Is dit misschien een betere optie dan een kant en klare NAS? Je hebt meer mogelijkheden, maar het kost meer tijd om het te installeren. Je moet zelf alsnog je OS bepalen, installeren en configureren. Qua gebruikersgemak gaat er niks boven een Synology... Daarom neig ik toch wel naar de Synology. De basisversie van ZFS is dan denk ik al een betere keuze dat de HP server. Snellere CPU, meer aansluitingen, upgrademogelijkheden en algemene modbaarheid.
Juist voor een basic NAS wil je snel klaar zijn, en is de software repository en zekerheid van een bewezen platform beter dan een el-cheapo NAS-like server. Ik zou geen N40L willen...
Aantal ssd's
Ik heb altijd begrepen dat het erg verstandig is om ZIL in mirror over minimaal twee ssd's te laten lopen. Doordat de ssd als cache fungeert wordt er namelijk meer data weggeschreven op de ssd, waardoor die harder zou slijten en de kans groter is dat je ssd overlijdt. Op dat moment ben je al je data kwijt wat nog in ZIL stond. Dat is een funest voor storage oplossingen, ik neig er naar om dit ook te laten gelden voor thuisgebruikers. Als je eerst raid-z2 kiest en vervolgens 1 ssd voor ZIL vind ik dat een beetje een gemiste kans.
Klopt, maar aan de andere kant is het wel zo dat je nooit hele stukken data kwijt raakt als je SSD stuk gaat. Hooguit (en dat is echt hooguit) een paar minuten. Bij een thuisserver is het eerder in de orde van seconden.
Als het een NAS is met veel films enzo, ben je dus hooguit je laatste film kwijt. Nou, boehoe, dan download je hem opnieuw.

ZFS zelf (metadata) is NOOIT corrupt te krijgen on-disk. (tenzij je heel erg je best doet met meerdere DD commando's naar specifieke LBA sectoren, maar ik gok zelfs dan dat ZFS het door heeft...)
Raid-controllers icm WD RED schijven
Als we toch voor een raidcontroller gaan bij het upgrade systeem, is de keuze voor WD RED's wellicht ook een goede keuze?
Ja, Red's zijn goed voor hardware RAID kaarten.
[...]


ZIL en L2ARC pakken we inderdaad los op en gaan we waarschijnlijk als optie of upgrade meegeven. Het moet wel goed worden onderbouwt bij welke specifieke acties ZIL en L2ARC het overwegen waard zijn. De voorbeelden die je schets zijn al goed wat mij betreft.

Als een Intel 320 supercaps heeft dan zijn ze wellicht sowieso het overwegen waard boven de Crucial M4? De sandforce controller heeft natuurlijk wel een mindere naam, maar de Intel 320 drives zijn in mijn ogen prima. Ik heb er zelf ook een in mijn systeem. :P
Intel 320 is geen SandForce, de Intel 330 is gebaseerd op een SandForce controller.
Geheugen
16GB lijkt me prima om mee te beginnen in de basisconfiguratie. Was de vuistregel niet 1TB aan storage is 1GB aan intern geheugen? Aangezien we waarschijnlijk zo rond de 5x3TB in raid-z zetten, hebben we 12TB aan effectieve storage. Met 16GB geheugen zit je dan gewoon lekker :)
Die vuistregel geld voor enterprises, en heeft niets met thuisgebruik te maken.
16GB is inderdaad prima.
ECC geheugen

[...]


Lijkt me interessant en voldoende om op basis daarvan te bepalen of we ECC geheugen moeten overwegen in onze setup.
Bedenk wel dat ECC een stuk duurder is, en vaak alleen verkrijgbaar in 1333Mhz, terwijl een Ivy Bridge toch 1600Mhz geheugen aan kan...
UPS
Vinden we een UPS een must bij een systeem wat gebruik maakt van ZFS, of alleen icm ZIL?
Nee, veel te duur (aanschaf en stroomkosten) voor wat je ervoor terug krijgt.
ZFS gaat toch niet stuk...
Jumbo Frames
Voor zover ik weet zijn 9k jumbo frames alleen erg belangrijk bij iSCSI en virtualisatie? Kan een huis tuin en keuken switchje eigenlijk überhaupt wel goed met jumbo frames overweg?
Bijna alle switches tegenwoordig doen Jumbo Frames, maar een groot nadeel is dat ALLE apparaten in huis op Jumbo Frames gezet moeten worden.
OS keuze incl hardware support
Het wordt denk ik ook tijd om deze discussie aan te wakkeren... Omdat ik zelf geen praktische ervaring heb met ZFS hoor ik graag jullie meningen. Mocht het OpenIndiana worden is hardware support sowieso wel iets wat goed gecontroleerd moet worden.

Mocht ik nog iets over het hoofd hebben gezien dan hoor ik dat graag!
Basis systeem -> NAS4Free (simpel, stabiel, en toch net wat meer handleidingen verkrijbaar dan voor ZFSguru)

Uitgebreid systeem -> ZFSGuru, omdat je dan zelf lekker in FreeBSD kan wroeten. En mensen die (zo) veel geld uit geven aan een server, willen er ook vast wel tijd in stoppen om iets goed onder de knie te krijgen.

Even niets...


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
OI houdt niet van die asmedia controllers als in, weigert volledig te booten.

Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
ZIL is geen write cache? L2arch is toch vooral voor leesacties? Dan ga ik toch maar even het opnieuw inlezen. Ik heb het in ieder geval verkeerd uitgelegd in een wetenschappelijk artikel wat ik een jaar geleden voor school heb gemaakt :p

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 23:21

Compizfox

Bait for wenchmarks

WD Reds (met TLER) zijn alleen nodig als je hardware RAID gaat draaien. ZFS is dat absoluut niet en voor ZFS kun je dus prima af met normale, goedkopere schijven, en je onboard SATA-poorten.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • matty___
  • Registratie: Augustus 2005
  • Laatst online: 08-05 18:20
Compizfox schreef op woensdag 06 februari 2013 @ 21:57:
WD Reds (met TLER) zijn alleen nodig als je hardware RAID gaat draaien. ZFS is dat absoluut niet en voor ZFS kun je dus prima af met normale, goedkopere schijven, en je onboard SATA-poorten.
maar zijn deze niet juist gebouwd voor 24/7 gebruik?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
StefanvanGelder schreef op woensdag 06 februari 2013 @ 21:29:
ZIL is geen write cache? L2arch is toch vooral voor leesacties? Dan ga ik toch maar even het opnieuw inlezen. Ik heb het in ieder geval verkeerd uitgelegd in een wetenschappelijk artikel wat ik een jaar geleden voor school heb gemaakt :p
In de basis is het wel een write cache, maar het cached niet alle writes, het cached alleen de synchrone writes. Reguliere writes worden in RAM gecached.

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 23:21

Compizfox

Bait for wenchmarks

Nee, TLER houdt in dat je een limiet kunt stellen aan de tijd die de schijf bezig is met automatische error correction in het geval hij een bitje niet meer kan teruglezen.

Dat is nodig omdat hardware-RAID-controllers een schijf meestal uit de array schoppen als hij te lang unresponsive is.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
Wat hij bedoelt is dat het ding fysiek gebouwd is op 24/7 aan, en dat is wel waar. Daar zijn Red's iets beter geschikt voor.

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 23:21

Compizfox

Bait for wenchmarks

Aha, OK. Maar dat is dan een eigenschap van WD Reds, dat heeft verder niets met TLER te maken :)

Zou kunnen dat dat zo is, maar ik denk eigenlijk niet dat dat de meerprijs waard is. Gewone schijven doen het ook prima als ze 24/7 aanstaan.

Het is zelfs beter voor een schijf als ie 24/7 aanstaat dan dat ie steeds moet up-en-downspinnen.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
Mja. Dannog... op reds zit meer garantie... enige nadeel is dat ze duurder zijn. En als hij het voor over heeft is het wel de betere schijf.

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 04-05 14:53

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op donderdag 07 februari 2013 @ 22:13:
Mja. Dannog... op reds zit meer garantie... enige nadeel is dat ze duurder zijn. En als hij het voor over heeft is het wel de betere schijf.
Inderdaad, kost je ca. €18 extra per disk voor een jaar langer garantie (3 vs 2) en wellicht een betere bouwkwaliteit. (op een array van 10 disks is dat zeg maar een 'cold spare' exemplaar voor als 'de stront de ventilator raakt' ;) )

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
FireDrunk schreef op woensdag 06 februari 2013 @ 20:48:
[...]


Juist voor een basic NAS wil je snel klaar zijn, en is de software repository en zekerheid van een bewezen platform beter dan een el-cheapo NAS-like server. Ik zou geen N40L willen...
Ik snap dit punt niet zo. De kwaliteit van die N40L is dik in orde, en repositories is geheel afhankelijk van het OS wat je kiest volgens mij. Je zou best een N40L met xpenology kunnen draaien, dan heb je je NAS-OS met repository op hardware die iets toegankelijker is qua uitbreidingen dan wat je met een echte Synology kunt.
Ik heb zelf de N40L gekozen omdat ik snel klaar wilde zijn (dus geen zelfbouw), maar wel zelf de keuze voor OS wilde hebben. (Dat is bij mij OpenIndiana geworden, draait prima en stabiel op de N40L).
Basis systeem -> NAS4Free (simpel, stabiel, en toch net wat meer handleidingen verkrijbaar dan voor ZFSguru)

Uitgebreid systeem -> ZFSGuru, omdat je dan zelf lekker in FreeBSD kan wroeten. En mensen die (zo) veel geld uit geven aan een server, willen er ook vast wel tijd in stoppen om iets goed onder de knie te krijgen.
Voor dat laatste zou OI wat mij betreft ook een goede optie zijn.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • psy
  • Registratie: Oktober 1999
  • Laatst online: 12:35

psy

Ik dacht dat het hier naast een budgetoplossing (NAS) zou gaan over een "mainstream" systeem met ZFS.
Dat betekent automatisch dat de RED schijven afvallen

8.960 Wp - 16 kW Daikin L/W - 2 x MHI L/L - gasloos sinds 2017 - Loxone - SAP/IS-U/ABAP - rijdt nog LPG ;-)


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 04-05 14:53

Pantagruel

Mijn 80486 was snel,....was!

u_nix_we_all schreef op vrijdag 08 februari 2013 @ 12:36:
[...]

Ik snap dit punt niet zo. De kwaliteit van die N40L is dik in orde, en repositories is geheel afhankelijk van het OS wat je kiest volgens mij. Je zou best een N40L met xpenology kunnen draaien, dan heb je je NAS-OS met repository op hardware die iets toegankelijker is qua uitbreidingen dan wat je met een echte Synology kunt.
Ik heb zelf de N40L gekozen omdat ik snel klaar wilde zijn (dus geen zelfbouw), maar wel zelf de keuze voor OS wilde hebben. (Dat is bij mij OpenIndiana geworden, draait prima en stabiel op de N40L).

[...]

Voor dat laatste zou OI wat mij betreft ook een goede optie zijn.
OpenIndiana met Napp-it is idd ook een optie.
psy schreef op vrijdag 08 februari 2013 @ 12:49:
Ik dacht dat het hier naast een budgetoplossing (NAS) zou gaan over een "mainstream" systeem met ZFS.
Dat betekent automatisch dat de RED schijven afvallen
Niets moet en alles mag, als de gebruiker zich beter voelt bij WD Red's ipv green's is dat zijn/haar keuze.
In principe is er niets tegen de langere garantie periode van de Red of het feit dat WD hem positioneerd als een harddisk voor in NAS systemen. Realiseer je wel dat t gros van de kleinere NAS systemen (4 a 6 disk systemen) hun RAID verzorgen middels een software RAID oplossing, madm of dergelijken. Het nut van TLER ondersteuning ontgaat me in die setting een beetje. ( TLER is handig bij hardware RAID oplossingen of je moet van disk drops houden)

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 29-04 11:20
Red schijven 'missen' ook de Intellipark feature van de Green schijven. Zeg maar de functionaliteit die menigeen uit de Green schijven probeert te slopen.

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 04-05 14:53

Pantagruel

Mijn 80486 was snel,....was!

Dadona schreef op vrijdag 08 februari 2013 @ 13:32:
Red schijven 'missen' ook de Intellipark feature van de Green schijven. Zeg maar de functionaliteit die menigeen uit de Green schijven probeert te slopen.
How to: Disable Intellipark on WD Green Drives using wdidle3

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Hmm, ik draai hier met een paar 3TB WD Green schijven, maar dan de AV uitvoering (WD30EURS). Deze zouden wel geschikt zijn voor 24x7, en 3 jaar garantie.
Intellipark heb ik niet uitgeschakeld, maar volgens mij doet deze drive daar default niet zo veel mee ?

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 23:21

Compizfox

Bait for wenchmarks

Dadona schreef op vrijdag 08 februari 2013 @ 13:32:
Red schijven 'missen' ook de Intellipark feature van de Green schijven. Zeg maar de functionaliteit die menigeen uit de Green schijven probeert te slopen.
Er zit natuurlijk ook nog iets tussen WD Reds en WD Greens ;) Je hebt natuurlijk de WD Blues nog, of schijven van andere merken.

Persoonlijk vind ik 5400 rpm te traag, dus daarmee vallen de WD Greens af. (Zelf heb ik momenteel wat oudere 750 GB, 7200 rpm Spinpoints.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Dadona
  • Registratie: September 2007
  • Laatst online: 29-04 11:20
De Blue serie heb ik nooit echt kunnen plaatsen. Black, green en red hebben toch iets duidelijkere verkoopargumenten. Blue is middle of the road.
Ik had het over probeert te slopen omdat het tijdenlang goed ging (zo gaat het goed bij mijn WD20EARS schijven), maar er zijn ook meer recente schijven waar dat niet bij werkt. Zo kan ik het bij mijn WD25EZRX schijf niet uitzetten.

[ Voor 13% gewijzigd door Dadona op 08-02-2013 15:39 ]

De CSL/OT kroeg !


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
Compizfox schreef op vrijdag 08 februari 2013 @ 15:36:
[...]

Er zit natuurlijk ook nog iets tussen WD Reds en WD Greens ;) Je hebt natuurlijk de WD Blues nog, of schijven van andere merken.

Persoonlijk vind ik 5400 rpm te traag, dus daarmee vallen de WD Greens af. (Zelf heb ik momenteel wat oudere 750 GB, 7200 rpm Spinpoints.
Als je ze in RAID zet, heb je 99/100 keer snelheid zat en dus geen 7200rpm nodig, maar is 5400rpm prima.

Als je 'maar' 2 of 3 diskjes neemt kan het inderdaad misschien leuk zijn, maar ik heb er 10 (*2TB) en dan is 7200rpm zwaar overkill.

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 23:21

Compizfox

Bait for wenchmarks

Dadona schreef op vrijdag 08 februari 2013 @ 15:37:
De Blue serie heb ik nooit echt kunnen plaatsen. Black, green en red hebben toch iets duidelijkere verkoopargumenten. Blue is middle of the road.
Ik dacht altijd dat de Blacks 10.000 rpm waren, maar ze zijn blijkbaar net als de Blues 7200 rpm. In dat geval zie ik het verschil ook niet echt zo...

Wel zijn de Blues de 'normale' schijven, het zijn er het meest iig...
FireDrunk schreef op vrijdag 08 februari 2013 @ 15:41:
[...]


Als je ze in RAID zet, heb je 99/100 keer snelheid zat en dus geen 7200rpm nodig, maar is 5400rpm prima.

Als je 'maar' 2 of 3 diskjes neemt kan het inderdaad misschien leuk zijn, maar ik heb er 10 (*2TB) en dan is 7200rpm zwaar overkill.
10 disks, tja, dat heeft/wil ook niet iedereen... :P Ik heb inderdaad 3 schijven en ik denk dat je in zo'n geval het verschil zeker wel zult merken.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Compizfox schreef op vrijdag 08 februari 2013 @ 15:36:
[...]

Er zit natuurlijk ook nog iets tussen WD Reds en WD Greens ;) Je hebt natuurlijk de WD Blues nog, of schijven van andere merken.

Persoonlijk vind ik 5400 rpm te traag, dus daarmee vallen de WD Greens af. (Zelf heb ik momenteel wat oudere 750 GB, 7200 rpm Spinpoints.
Ik vind voor een NAS 7200 rpm al vrij onzinnig. Hoger rpm levert je lagere access times op, maar dat is vooral te merken in IOPS, en niet echt in doorvoer. En bij een NAS is vooral je netwerkaansluiting een veel grotere bron van latency, dus daar ga je toch al geen geweldige hoge IOPS halen.
Dan liever wat koelere, goedkopere, stillere schijven. Ik dacht overigens dat die WD greens op 5900 rpm draaiden, maar kan me vergissen.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 23:21

Compizfox

Bait for wenchmarks

IntelliPower noemen ze het. Volgens deze post is het maar 5000 rpm zelfs.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
We moeten het denk ik eerst eens worden over de configuraties en doelgroepen, anders is een discussie over harde schijven een beetje nutteloos in mijn ogen. We beginnen met een basisconfiguratie voor ZFS. Dit is het basissysteem op basis van de Intel Pentium G2020.

Basis ZFS systeem

Doelgroep: mensen die dusdanig weinig storage nodig hebben dat ze met drie harde schijven afkunnen. Het budget is laag en het systeem komt het best tot zijn recht als er wordt gewerkt met grote bestanden die weinig random writes opleveren.

Configuratie: het lijkt me goed om in het basis ZFS systeem 3 schijven op te nemen en deze in raid-z configureren. Alhoewel iedereen andere behoeften heeft wat betreft storage capaciteit, wil ik die drie schijven toch wel meenemen in de basisconfiguratie. We kunnen dan kiezen voor 2TB of 3TB modellen. Bij 2TB modellen heb je echter 'maar' 4TB opslag netto. Ik heb het idee om dan de 2TB modellen mee te nemen in de basisconfig en in de tekst te verwijzen naar 3TB modellen. We kunnen niet voor de eindgebruiker bepalen hoeveel opslag die nodig heeft, enkel de hoeveelheid schijven en de snelheid van de schijven zijn belangrijk.

Omdat er in de basisconfiguratie geen gebruik wordt gemaakt van ZIL en L2ARC, is het de overweging waard om voor 7200rpm schijven te kiezen?

Mainstream ZFS systeem

Doelgroep: mensen die dusdanig veel storage nodig hebben dat ze met drie harde schijven niet uit de voeten kunnen. Omdat er bij meer schijven een grotere kans is dat er één of zelfs twee harde schijven uitvallen maken we gebruik van raid-z2.

Configuratie: in het mainstream ZFS systeem kunnen we dan kiezen voor 6 (of meer, wat zou de volgende logische stap zijn?) schijven in raid-z2. Betere beveiliging tegen schijfuitval en omdat we ZIL en L2ARC gaan gebruiken hebben we niet zoveel last van de write penalty van raid-z2. We kunnen dan tevens kiezen voor 5400rpm schijven omdat die snelheid opnieuw niet zoveel uitmaakt.

Wat vinden jullie van deze omschrijvingen?
u_nix_we_all schreef op vrijdag 08 februari 2013 @ 12:36:
[...]

Ik snap dit punt niet zo. De kwaliteit van die N40L is dik in orde, en repositories is geheel afhankelijk van het OS wat je kiest volgens mij. Je zou best een N40L met xpenology kunnen draaien, dan heb je je NAS-OS met repository op hardware die iets toegankelijker is qua uitbreidingen dan wat je met een echte Synology kunt.
Ik heb zelf de N40L gekozen omdat ik snel klaar wilde zijn (dus geen zelfbouw), maar wel zelf de keuze voor OS wilde hebben. (Dat is bij mij OpenIndiana geworden, draait prima en stabiel op de N40L).
De kwaliteit van de N40L zal ook wel in orde zijn, maar je hebt minder uitbreidingsmogelijkheden dan in een zelfbouw systeem. De tijd gaat niet zitten in het in elkaar zetten van een systeem. Met een half uurtje ben je wel klaar, of pak er een uurtje voor. De meeste tijd gaat zitten in het zoeken van een goed besturingssysteem en uitvogelen hoe het werkt en hoe je het configureert. Hierin is een Synology NAS juist zo goed. Je zet hem neer, plaatst schijven, je start, doorloopt een webinterface en klaar. Qua gebruikersgemak gaat een zelfbouw nas het niet winnen van een Synology ;)

TS flink geupgrade! Ik sta nu op drie systemen door het basis ZFS systeem helemaal los te trekken van het mainstream systeem.

[ Voor 24% gewijzigd door Stefanovic45 op 09-02-2013 11:44 ]

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
StefanvanGelder schreef op zaterdag 09 februari 2013 @ 11:06:
[....]
Het budget is laag en het systeem komt het best tot zijn recht als er wordt gewerkt met grote bestanden die weinig random writes opleveren.
[...]

Omdat er in de basisconfiguratie geen gebruik wordt gemaakt van ZIL en L2ARC, is het de overweging waard om voor 7200rpm schijven te kiezen?
Dan lijkt het me zeker met zfs beter om in extra ram dan in 7200rpm te investeren.
[....]
Configuratie: in het mainstream ZFS systeem kunnen we dan kiezen voor 6 (of meer, wat zou de volgende logische stap zijn?) schijven in raid-z2.
Volgende logische stap is 10 disks voor raid-z2, maar volgens mij is de penalty in performance met bijv. 8 disks in raid-z2 vrij klein door de vaiabele stripesize, en dat zou met 1 of zelfs 2x 1Gbps netwerk niet uitmaken..... denk ik :P
Wat vinden jullie van deze omschrijvingen?
Lijkt me een prima uitganspunt voor de hardware verder. :)

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • EnerQi
  • Registratie: Maart 2011
  • Laatst online: 19:48
Ikzelf zou beter naar zuinigheid kijken dan RPM ;). Een enkele harde schijf zou voldoende snelheid moeten hebben om 1 Gbps vol te gebruiken.

Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
Oh, en voor het mainstream systeem (wat IMHO best "advanced" genoemd kan worden) stel ik voor 2 SSD's. Als je 2 kleinere pakt , bijv. intel 520 60GB, kun je 2x30 GB als mirrored ZIL pakken, en dan 2x30GB=60 GB in stripe voor L2ARC. Afhankelijk van gebruik (bijv. ook virtualisatie) zou er ook best 64GB inkunnen :P

Edit:
Misschien is 30GB nog veel voor ZIL, dat kan best 20GB (en dus 80GB L2ARC) of nog minder zijn denk ik. Zoveel kun je niet cachen voordat het weer geflushed wordt.
Maar omdat je wel raid-z2 wilt draaien voor redundancy, zou uitval van een enkele ZIL ook zonde zijn van de gecachete data , en ik weet niet of je pool dan online blijft. (je kunt hem wel weer importeren met verlies van de writecaches)

[ Voor 39% gewijzigd door u_nix_we_all op 09-02-2013 12:05 ]

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
Eén ssd voor zowel ZIL als L2ARC lijkt mij inderdaad ook niet over te houden. Niet vanwege performance, maar ook vanwege slijtage. Ik ga later nog even dieper op dit onderwerp in ;)

De Intel 520's hebben volgens mij alleen geen supercaps...? Dat was juist een reden om de 320 op te nemen ;)
GrooV schreef op dinsdag 05 februari 2013 @ 19:34:
Jammer dat op dat Intel bordje geen HDMI zit. Mijn storage wordt namelijk ook gebruikt als HTPC :)
Dat is inderdaad wel een nadeel van het bordje. Maar over het algemeen zal een HDMI ook niets toevoegen aan een storage apparaat. Ik vind het daarom geen afknapper voor deze BBG.

[ Voor 40% gewijzigd door Stefanovic45 op 09-02-2013 12:11 ]

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • u_nix_we_all
  • Registratie: Augustus 2002
  • Niet online
StefanvanGelder schreef op zaterdag 09 februari 2013 @ 12:07:
De Intel 520's hebben volgens mij alleen geen supercaps...? Dat was juist een reden om de 320 op te nemen ;)
Oh, ik dat zou kunnen, dat is idd wel aan te raden.

You don't need a parachute to go skydiving. You need a parachute to go skydiving twice.


Acties:
  • 0 Henk 'm!

  • jwpmzijl
  • Registratie: December 2002
  • Laatst online: 03-05 16:42
StefanvanGelder schreef op zaterdag 09 februari 2013 @ 11:06:

Basis ZFS systeem

Doelgroep: mensen die dusdanig weinig storage nodig hebben dat ze met drie harde schijven afkunnen. Het budget is laag en het systeem komt het best tot zijn recht als er wordt gewerkt met grote bestanden die weinig random writes opleveren.

Configuratie: het lijkt me goed om in het basis ZFS systeem 3 schijven op te nemen en deze in raid-z configureren. Alhoewel iedereen andere behoeften heeft wat betreft storage capaciteit, wil ik die drie schijven toch wel meenemen in de basisconfiguratie. We kunnen dan kiezen voor 2TB of 3TB modellen. Bij 2TB modellen heb je echter 'maar' 4TB opslag netto. Ik heb het idee om dan de 2TB modellen mee te nemen in de basisconfig en in de tekst te verwijzen naar 3TB modellen. We kunnen niet voor de eindgebruiker bepalen hoeveel opslag die nodig heeft, enkel de hoeveelheid schijven en de snelheid van de schijven zijn belangrijk.
Prima uitgangspunten. Dit systeem is dus voor die mensen die niet voor een standaard NAS willen kiezen omdat men:
  • de mogelijkheid wil hebben om later extra schijven toe te voegen.
  • zelf met zfs aan de slag wil
  • men "tweakert" is etc.
De concurrentie met een standaard NAS met 4 disks is natuurlijk steeds aanwezig en deze zijn excl. schijven voor iets van € 270,00 te verkrijgen. Ik zou daarom proberen om het budget voor dit basis ZFS systeem excl. harde schijven daaronder te houden. Dat kan als je er verder vanuit gaat dat het advies voor aanvankelijk 3 schijven is. In dat geval kan volstaan worden met 8 Gb. geheugen dat scheelt weer 3 tienen :). Ja, ZFS heeft graag extra geheugen en 8 Gb. is in dat opzicht voor OS + 4 Terabye opslag een minimum.

@Cipher (de specialist naar mijn mening)
Zou ZFS als je 16 Gb. plaatst dat extra geheugen bij 4 terabyte opslag op echt gaan gebruiken? Als dat niet het geval is kan in het advies aangegeven worden dat bij plaatsen van extra schijven extra geheugen gewenst is.

OS op eigen schijf
Zelf ben ik van mening dat een OS altijd los van de storage schijven moet staan. Nu is het vanwege aanschaf- en stroomkosten niet opportuun om een volwaardige extra schijf te plaatsen. Hoe wordt hier gedacht over het booten van bijv. een 8 Gb SSD à iets van € 25,00?

Stroomverbruik:
Voor dit basis systeem zou naar mijn mening het stroomverbruik maatgevend moeten zijn. Zo laag mogelijk Dus inderdaad geen 7200 rpm maar de groene varianten met minder rpm

Hans van Zijl


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
jwpmzijl schreef op zaterdag 09 februari 2013 @ 12:16:
[...]
De concurrentie met een standaard NAS met 4 disks is natuurlijk steeds aanwezig en deze zijn excl. schijven voor iets van € 270,00 te verkrijgen. Ik zou daarom proberen om het budget voor dit basis ZFS systeem excl. harde schijven daaronder te houden. Dat kan als je er verder vanuit gaat dat het advies voor aanvankelijk 3 schijven is. In dat geval kan volstaan worden met 8 Gb. geheugen dat scheelt weer 3 tienen :). Ja, ZFS heeft graag extra geheugen en 8 Gb. is in dat opzicht voor OS + 4 Terabye opslag een minimum.
Volgens mij voldoen we al prima aan de wens dat een zelfbouw systeem goedkoper is dan een losse nas. De Synology kost met drie schijven 546 euro, terwijl de zelfbouw nas met dezelfde schijven 530 euro kost. Deze prijzen komen naar voren als je de bestelkosten berekend. Ze geven daarom ook een rieel beeld van de kosten :)

[ Voor 11% gewijzigd door Stefanovic45 op 09-02-2013 12:55 ]

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
StefanvanGelder schreef op zaterdag 09 februari 2013 @ 11:06:
We moeten het denk ik eerst eens worden over de configuraties en doelgroepen, anders is een discussie over harde schijven een beetje nutteloos in mijn ogen. We beginnen met een basisconfiguratie voor ZFS. Dit is het basissysteem op basis van de Intel Pentium G2020.

Basis ZFS systeem

Doelgroep: mensen die dusdanig weinig storage nodig hebben dat ze met drie harde schijven afkunnen. Het budget is laag en het systeem komt het best tot zijn recht als er wordt gewerkt met grote bestanden die weinig random writes opleveren.

Configuratie: het lijkt me goed om in het basis ZFS systeem 3 schijven op te nemen en deze in raid-z configureren. Alhoewel iedereen andere behoeften heeft wat betreft storage capaciteit, wil ik die drie schijven toch wel meenemen in de basisconfiguratie. We kunnen dan kiezen voor 2TB of 3TB modellen. Bij 2TB modellen heb je echter 'maar' 4TB opslag netto. Ik heb het idee om dan de 2TB modellen mee te nemen in de basisconfig en in de tekst te verwijzen naar 3TB modellen. We kunnen niet voor de eindgebruiker bepalen hoeveel opslag die nodig heeft, enkel de hoeveelheid schijven en de snelheid van de schijven zijn belangrijk.

Omdat er in de basisconfiguratie geen gebruik wordt gemaakt van ZIL en L2ARC, is het de overweging waard om voor 7200rpm schijven te kiezen?
Ik denk van niet, 7200RPM is maar 5-15% sneller in sequentiele writes (als je goede modellen neemt) en vaak zelfs 'maar' even snel. Daartegenover kosten ze vaak meer geld, maken ze meer lawaai, verbruiken ze meer stroom, en hebben ze een dikkere voeding nodig.

En het allerbelangrijkste, ze worden veel warmer.

Bij 3 5400RPM schijven in RAIDZ kan je altijd je Gb lijn dichttrekken.
Mainstream ZFS systeem

Doelgroep: mensen die dusdanig veel storage nodig hebben dat ze met drie harde schijven niet uit de voeten kunnen. Omdat er bij meer schijven een grotere kans is dat er één of zelfs twee harde schijven uitvallen maken we gebruik van raid-z2.

Configuratie: in het mainstream ZFS systeem kunnen we dan kiezen voor 6 (of meer, wat zou de volgende logische stap zijn?) schijven in raid-z2. Betere beveiliging tegen schijfuitval en omdat we ZIL en L2ARC gaan gebruiken hebben we niet zoveel last van de write penalty van raid-z2. We kunnen dan tevens kiezen voor 5400rpm schijven omdat die snelheid opnieuw niet zoveel uitmaakt.

Wat vinden jullie van deze omschrijvingen?
Klinkt prima.
StefanvanGelder schreef op zaterdag 09 februari 2013 @ 12:07:
Eén ssd voor zowel ZIL als L2ARC lijkt mij inderdaad ook niet over te houden. Niet vanwege performance, maar ook vanwege slijtage. Ik ga later nog even dieper op dit onderwerp in ;)
Als je onderprovisioned is dat helemaal geen probleem, en is het prima te doen om zowel ZIL als L2ARC op 1 SSD te zetten.

Je moet sowieso een SSD eigenlijk nooit 100% partitioneren als je hem voor ZFS wil gebruiken.
De Intel 520's hebben volgens mij alleen geen supercaps...? Dat was juist een reden om de 320 op te nemen ;)
Klopt als een bus.
[...]
Dat is inderdaad wel een nadeel van het bordje. Maar over het algemeen zal een HDMI ook niets toevoegen aan een storage apparaat. Ik vind het daarom geen afknapper voor deze BBG.
HDMI op een ZFS nas? Inderdaad volkomen onnodig...

Even niets...


Acties:
  • 0 Henk 'm!

  • EJPostema
  • Registratie: December 2010
  • Laatst online: 09-12-2024
FireDrunk schreef op zaterdag 09 februari 2013 @ 16:45:

HDMI op een ZFS nas? Inderdaad volkomen onnodig...
Sorry, misschien is dit een volkomen loze en offtopic opmerking, maar ik heb hier echt weinig verstand van,
Ik zit er over na te denken om een dergelijk systeem aan te schaffen (mainstream systeem dan).
Hier zit wel HDMI op, maar het is toch mogelijk om xmbcubuntu oid in een VM te draaien en dan je NAS op die manier in te zetten als HTPC. Scheelt weer de aanschaf van een extra apparaat...

Ik dacht ook ergens te lezen dat ze bezig zijn xmbc op zfsguru werkend te maken, maar misschien heb ik dat verkeerd begrepen.

EDIT: Ik zie dan wel de meerwaarde van een hdmi... Maargoed misschien moet ik me maar gewoon beperken tot het lezen en volgen van dit topic ipv opmerkingen te plaatsen :P

[ Voor 11% gewijzigd door EJPostema op 09-02-2013 17:36 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
Nee, je kan de HDMI poort nooit gebruiken in een VM. Via VT-d zou je een insteekkaart nog door kunnen geven, maar dat kan niet met FreeBSD, (bijna) niet met ESXi, (bijna) niet met KVM, en eigenlijk alleen met Xen. Bovendien heb je hele speciale hardware nodig.

Zet het uit je hoofd, je moet het niet willen... ZFS, Virtualisatie en een HTPC zijn eigenlijk niet verenigbaar.

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 23:21

Compizfox

Bait for wenchmarks

u_nix_we_all schreef op zaterdag 09 februari 2013 @ 12:00:
Oh, en voor het mainstream systeem (wat IMHO best "advanced" genoemd kan worden)
Eens. Zo 'mainstream' is een NAS met 10 schijven niet imho.
EJPostema schreef op zaterdag 09 februari 2013 @ 17:35:
[...]


Sorry, misschien is dit een volkomen loze en offtopic opmerking, maar ik heb hier echt weinig verstand van,
Ik zit er over na te denken om een dergelijk systeem aan te schaffen (mainstream systeem dan).
Hier zit wel HDMI op, maar het is toch mogelijk om xmbcubuntu oid in een VM te draaien en dan je NAS op die manier in te zetten als HTPC. Scheelt weer de aanschaf van een extra apparaat...

Ik dacht ook ergens te lezen dat ze bezig zijn xmbc op zfsguru werkend te maken, maar misschien heb ik dat verkeerd begrepen.
Lijkt me niet slim (los van het feit dat het lastig te realiseren is).

Een HTPC wil je namelijk in mijn ogen klein, simpel en stil hebben.
Ga er maar vanuit dat een ZFS-bak met 3 schijven al te veel lawaai zal maken voor in de huiskamer ;)

Een leuke oplossing trouwens, is een Raspberry Pi. Daar gooi je dan XBian, RaspBMC of OpenELEC op, dan dan trek je je films van je ZFS-bak af. Kost maar 30 pond of zo.
FireDrunk schreef op zaterdag 09 februari 2013 @ 19:06:
Nee, je kan de HDMI poort nooit gebruiken in een VM. Via VT-d zou je een insteekkaart nog door kunnen geven, maar dat kan niet met FreeBSD, (bijna) niet met ESXi, (bijna) niet met KVM, en eigenlijk alleen met Xen. Bovendien heb je hele speciale hardware nodig.
Waarom zou dat niet kunnen?

Je kunt toch in ESXi met PCI-e passthrough een videokaart doorgeven aan een VM? (Hiervoor heb je dus IOMMU/VT-d nodig)
Dan ben je er in principe toch al?

[ Voor 75% gewijzigd door Compizfox op 09-02-2013 19:47 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
Klopt, maar ESXi en GPU Passthrough via VT-d werkt maar op een heel select aantal kaarten, met specifieke geheugen instellingen (iets met max 4GB geloof ik, en je moet een of ander whole instellen dacht ik.)

Het werkt vaker niet dan wel.

Dan nog werkt het niet als de Primaire adapter van je VM, het is dus altijd een 2e videokaart.

[ Voor 5% gewijzigd door FireDrunk op 09-02-2013 20:04 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 23:21

Compizfox

Bait for wenchmarks

Aha, OK. Waar ESXi dus in het algemeen last van heeft: Lastige hardwaresupport.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
Correct :)

Even niets...


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
FireDrunk schreef op zaterdag 09 februari 2013 @ 16:45:

[...]

Als je onderprovisioned is dat helemaal geen probleem, en is het prima te doen om zowel ZIL als L2ARC op 1 SSD te zetten.

Je moet sowieso een SSD eigenlijk nooit 100% partitioneren als je hem voor ZFS wil gebruiken.
Wat is het risico om hem moment dat je ssd toch faalt? Is je ZFS storage pool dan even van slag, en moet je hem opnieuw toevoegen of zal de pool gewoon door blijven draaien?

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
Als je ZIL knalt, gaat je array offline. Die kan je daarna weer importeren, maar dan waarschuwt hij dat er een beetje data loss is omdat je ZIL misschien nog een write gecached had.

Je kan dan gewoon importeren naar het point in time dat alles nog goed was. (meestal een paar seconden, worst-case-scenario een paar minuten).

L2ARC kan gewoon klappen zonder dat je array offline gaat.

Even niets...


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
jwpmzijl schreef op zaterdag 09 februari 2013 @ 12:16:
[...]
OS op eigen schijf
Zelf ben ik van mening dat een OS altijd los van de storage schijven moet staan. Nu is het vanwege aanschaf- en stroomkosten niet opportuun om een volwaardige extra schijf te plaatsen. Hoe wordt hier gedacht over het booten van bijv. een 8 Gb SSD à iets van € 25,00?
Het lijkt mij best een interessante optie om als installatiemedium te gebruiken. Betrouwbaarder en mooiere oplossing dan een usb-stick. Iemand ervaringen met de installatie op dergelijke kleine flashchips? Een ssd zou ik het niet willen noemen ;) Als hier alleen je boot image op draait kan de rest in spindown.

[ Voor 4% gewijzigd door Stefanovic45 op 10-02-2013 13:11 ]

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 04-05 14:53

Pantagruel

Mijn 80486 was snel,....was!

StefanvanGelder schreef op zondag 10 februari 2013 @ 13:10:
[...]

Het lijkt mij best een interessante optie om als installatiemedium te gebruiken. Betrouwbaarder en mooiere oplossing dan een usb-stick. Iemand ervaringen met de installatie op dergelijke kleine flashchips? Een ssd zou ik het niet willen noemen ;) Als hier alleen je boot image op draait kan de rest in spindown.
Op zich een leuk idee, isolerend verpakken en dan ergens vastzetten met een tie-wrapje.

Het voordeel van het installeren op een USB stick van je NAS OS zal toch vooral zitten in het feit dat je een SATA aansluiting vrij maakt voor je massa opslag.
ZFSguru kun je trouwens op je data-pool installeren en daar vandaan booten, heb je helemaal geen last van een 'brakke' USB stick.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
En wth... betrouwbaarder? Sinds wanneer is een el-cheapo SSD perse betrouwbaarder dan een USB stick?

Een goede SLC USB stick gat net zo lang, zo niet langer mee... En hoeft helemaal niet duur te zijn.
En als je een kwalitatief goede USB3.0 stick neemt, issie nog veel sneller ook...

Even niets...


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
Maar wie zegt dat die Trenscend gebruik maakt van kwalitatief slecht flashgeheugen? De gemiddelde usb-stick zal van heel wat mindere kwaliteit zijn, gezien de prijzen per GB.

En sneller? Ik weet het zo nog eens niet. Het zou mij niets verbazen als usb hogere access tijden heeft waardoor het trager is. Daarnaast heeft het model van Trensced maar 8GB aan opslag, wat vooral de write performance niet ten goede zal komen. Als hij dan vergeleken wordt met een 32GB usb stick, is het niet zo vreemd dat die sequentieel sowieso een stuk sneller is.

Daarnaast heb je nog compatibiliteit. Hoe gaat ZFSGuru of andere non-Windows besturingssystemen om met usb 3.0-controllers? Gaan deze gewoon goed ondersteunt worden, of is het maar de vraag of het gaat werken?

[ Voor 18% gewijzigd door Stefanovic45 op 11-02-2013 18:57 ]

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
StefanvanGelder schreef op zaterdag 09 februari 2013 @ 11:06:
Mainstream ZFS systeem
Configuratie: in het mainstream ZFS systeem kunnen we dan kiezen voor 6 (of meer, wat zou de volgende logische stap zijn?) schijven in raid-z2. Betere beveiliging tegen schijfuitval en omdat we ZIL en L2ARC gaan gebruiken hebben we niet zoveel last van de write penalty van raid-z2. We kunnen dan tevens kiezen voor 5400rpm schijven omdat die snelheid opnieuw niet zoveel uitmaakt.
Altijd een macht 2 van data schijven + de parity schijven:
dus Raidz1=2,4,8,16 +1 parity (maakt 3,5,9,17)
en raidz2=2,4,8,16 +2 parity (maakt 4,6,10,18)

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


Acties:
  • 0 Henk 'm!

  • jwpmzijl
  • Registratie: December 2002
  • Laatst online: 03-05 16:42
Voordat het over de keuze voor SSD of USB gaat dient eerst beantwoord te worden of een keuze voor een afzonderlijke boot/OS schijf voor deze BBG wel gewenst is. En zo ja hoe groot moet die boot/os schijf dan zijn?

Hans van Zijl


Acties:
  • 0 Henk 'm!

  • P_Tingen
  • Registratie: Maart 2005
  • Laatst online: 21:07

P_Tingen

omdat het KAN

Misschien heb ik wat gemist, maar in de TS zie ik staan:
Allereerst een opzetje voor de budgetstorage oplossing:

Doelgroep: voor mensen die af kunnen met maximaal vier harde schijven en snel klaar willen zijn zonder een onderzoek te doen naar ZFS. Je loopt echter ook all features van ZFS mis
En vervolgens de lijst zelf:
#ProductPrijsSubtotaal
3Western Digital Green WD20EARX, 2TB€ 82,-€ 246,-
1Synology Disk Station DS413J€ 289,-€ 289,-
Bekijk collectie
Importeer producten
Totaal€ 535,-

Als ik dan het budget bekijk dan is het bedrag voor de budgetversie hoger dan die voor de basisconfig 8)7
Ik denk dat je de eisen voor de budgetversie best naar beneden mag bijstellen. Als ik naar mezelf kijk, dan denk ik dat ik zelf redelijk representatief ben voor deze doelgroep. Ik download geen films, doe geen gekke dingen, maar wil mijn NAS alleen gebruiken als centraal opslagpunt voor meerdere computers in en buiten huis.

Mijn voorstel voor de doelgroep van het budget-nas:
Doelgroep: Mensen die op zoek zijn naar simpel te installeren centrale opslag en geen grote hoeveelheden data daarop gaan bewaren. Deze mensen hebben genoeg aan 1 of 2 schijven
Je komt daarmee in een lagere prijsklasse (voorstel: max €250) waarmee je meer verschil in de categorieën. creëert.

... en gaat over tot de orde van de dag


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
jwpmzijl schreef op dinsdag 12 februari 2013 @ 00:14:
Voordat het over de keuze voor SSD of USB gaat dient eerst beantwoord te worden of een keuze voor een afzonderlijke boot/OS schijf voor deze BBG wel gewenst is. En zo ja hoe groot moet die boot/os schijf dan zijn?
Een afzonderlijke pool/disk voor je OS is gewenst omdat je disks dan in spindown kunnen.
Scheelt veel stroom, en bij 24/7 gebruik bespaar je vaak zoveel dat je de kosten van een USB stick of een kleine SSD terugverdient.

Even niets...


Acties:
  • 0 Henk 'm!

  • jwpmzijl
  • Registratie: December 2002
  • Laatst online: 03-05 16:42
@Firedrunk
THX, jij verwoord het beter dan ik kon bedenken :-) Kan ik helemaal in meegaan!

Hans van Zijl


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
Een aparte bootdisk lijkt mij inderdaad ook een must have. Qua grootte lijkt 8GB mij al ruim voldoende. ZFSGuru heeft daar meer als voldoende aan. Op mijn ESX bak heb ik het momenteel geïnstalleerd op een schijf van 3GB, dat zal waarschijnlijk nog veel te veel zijn.
zion schreef op maandag 11 februari 2013 @ 21:46:
[...]


Altijd een macht 2 van data schijven + de parity schijven:
dus Raidz1=2,4,8,16 +1 parity (maakt 3,5,9,17)
en raidz2=2,4,8,16 +2 parity (maakt 4,6,10,18)
Tnx voor de berekening! Ik ga alleen toch nog even de vraag stellen waarom het altijd een macht van 2 moet zijn? 12 + 2 parity is toch ook een mooie combinatie?
P_Tingen schreef op dinsdag 12 februari 2013 @ 11:05:
Misschien heb ik wat gemist, maar in de TS zie ik staan:


[...]

En vervolgens de lijst zelf:
#ProductPrijsSubtotaal
3Western Digital Green WD20EARX, 2TB€ 82,-€ 246,-
1Synology Disk Station DS413J€ 289,-€ 289,-
Bekijk collectie
Importeer producten
Totaal€ 535,-

Als ik dan het budget bekijk dan is het bedrag voor de budgetversie hoger dan die voor de basisconfig 8)7
Ik denk dat je de eisen voor de budgetversie best naar beneden mag bijstellen. Als ik naar mezelf kijk, dan denk ik dat ik zelf redelijk representatief ben voor deze doelgroep. Ik download geen films, doe geen gekke dingen, maar wil mijn NAS alleen gebruiken als centraal opslagpunt voor meerdere computers in en buiten huis.

Mijn voorstel voor de doelgroep van het budget-nas:

[...]

Je komt daarmee in een lagere prijsklasse (voorstel: max €250) waarmee je meer verschil in de categorieën. creëert.
Je hebt inderdaad gelijk. Maar door dezelfde hoeveelheid GB's in zowel de kant en klare nas, als de zelfbouw nas te stoppen, krijg je wel een eerlijke vergelijking tussen deze twee. Ik wil dan ook aangeven dat een kant en klare nas niet per definitie goedkoper zal zijn. Het kan zelfs geld besparen om er zelf 1 in elkaar te zetten. Een nas met maar twee schijven vind ik eerlijk gezegd te weinig om aandacht te geven in de BBG. Ik kan natuurlijk wel een verwijzing maken naar een kleiner broertje. Bijvoorbeeld de pricewatch: Synology Disk Station DS212J. Of kun je beter 100 euro in de zak steken en voor een mindere webinterface gaan? Bijvoorbeeld: pricewatch: Conceptronic CH3HNAS

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 23:21

Compizfox

Bait for wenchmarks

StefanvanGelder schreef op dinsdag 12 februari 2013 @ 17:32:

Je hebt inderdaad gelijk. Maar door dezelfde hoeveelheid GB's in zowel de kant en klare nas, als de zelfbouw nas te stoppen, krijg je wel een eerlijke vergelijking tussen deze twee. Ik wil dan ook aangeven dat een kant en klare nas niet per definitie goedkoper zal zijn. Het kan zelfs geld besparen om er zelf 1 in elkaar te zetten. Een nas met maar twee schijven vind ik eerlijk gezegd te weinig om aandacht te geven in de BBG. Ik kan natuurlijk wel een verwijzing maken naar een kleiner broertje. Bijvoorbeeld de pricewatch: Synology Disk Station DS212J. Of kun je beter 100 euro in de zak steken en voor een mindere webinterface gaan? Bijvoorbeeld: pricewatch: Conceptronic CH3HNAS
Een echte budget-NAS is in mijn ogen een externe HDD aan je router hangen. :)

Qua performance natuurlijk totaal niet te vergelijken met een ZFS-bak.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • enthernal
  • Registratie: Januari 2009
  • Laatst online: 08-02 10:24
StefanvanGelder schreef op dinsdag 12 februari 2013 @ 17:32:

Tnx voor de berekening! Ik ga alleen toch nog even de vraag stellen waarom het altijd een macht van 2 moet zijn? 12 + 2 parity is toch ook een mooie combinatie?
Omdat je databloks dan even gedeeld worden. In een RAID array wordt ieder block dat weg geschreven wordt 'gesplitst'. En splitsen door 3/5/7, maar even goed 11/12/13, alles wat geen macht van 2 is, vereist meer werk dan wat wel een macht van 2 is. Dat merk je in de snelheid van je array.

Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
6 disks in raidz2 is 4 effectief data, stripesize 128kb = 32kb = 8 blokken van 4kb per stripe per disk wegschrijven (voeg 4k disks hier toe en je snapt het plaatje, met 512b disks zou het dan weer 64 blokjes wegschrijven zijn per disk).

[ Voor 34% gewijzigd door analog_ op 13-02-2013 01:19 ]


Acties:
  • 0 Henk 'm!

  • Lankman
  • Registratie: Maart 2010
  • Niet online
CH3HNAS zou ik echt niet willen aanraden (hier). Ondanks dat dit hele leuke speledingetjes (en erg zuinig) zijn is de snelheid ervan tergend traag. Qua prijs/kwaliteit verhouding zijn er heel wat beter keuzes te maken met 1.2 Ghz processoren. Persoonlijk zou ik zeggen laat die kant en klaar NAS lekker bij Synology, goed en zeer gebruikersvriendelijk.

Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
Ik denk dat we al een hele mooie BBG hiervan hebben gemaakt, vooral dankzij jullie inzet! We hebben in bijna alle zaken bepaalde keuzes gemaakt. Ik wil daarom nog even twee dingen aanstippen voordat hij ook echt af is:

• OS keuze

Hoewel ik al wel een paar keuzes voorbij heb zien komen is hier nog geen duidelijkheid over. Zelf heb ik met ZFSGuru gespeelt wat mij een positivie indruk heeft gegeven, maar ik ben niet bekend met andere besturingssystemen, dus ik vind dat ik daar geen eerlijk oordeel over kan geven :) Wat ik wel aanvoel is dat de keuze bij een FreeBSD distri terecht zal komen. Firedunk heeft al aangegeven voor het basissysteem NAS4Free te gebruiken en voor het advanced systeem ZFSGuru. Maar is het niet makkelijker, als er toch een handleiding wordt gemaakt, dat we voor één systeem kiezen?

En zoals gezegd vond ik ZFSGuru prima te doen zonder enige voorkennis (heb alleen wat Linux kennis). Alles kan webbased worden ingesteld.

• Harde schijven advanced systeem

Momenteel zitten er Western Digital AV GP schijven in, deze zijn meer gemaakt voor 24/7 gebruik dan de gewone WD green serie. Naast de Western Digital AV GP heb je echter ook nog de WD red schijven. Deze kun je het beste gebruiken als je een raidcontroller hebt vanwege de TLER ondersteuning. Nu maken we gebruik van een raidcontroller in het advanced systeem. Is het nog nodig om de Western Digital AV GP te vervangen door WD red's?

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 04-05 14:53

Pantagruel

Mijn 80486 was snel,....was!

StefanvanGelder schreef op vrijdag 15 februari 2013 @ 07:52:
Ik denk dat we al een hele mooie BBG hiervan hebben gemaakt, vooral dankzij jullie inzet! We hebben in bijna alle zaken bepaalde keuzes gemaakt. Ik wil daarom nog even twee dingen aanstippen voordat hij ook echt af is:

• OS keuze

Hoewel ik al wel een paar keuzes voorbij heb zien komen is hier nog geen duidelijkheid over. Zelf heb ik met ZFSGuru gespeelt wat mij een positivie indruk heeft gegeven, maar ik ben niet bekend met andere besturingssystemen, dus ik vind dat ik daar geen eerlijk oordeel over kan geven :) Wat ik wel aanvoel is dat de keuze bij een FreeBSD distri terecht zal komen. Firedunk heeft al aangegeven voor het basissysteem NAS4Free te gebruiken en voor het advanced systeem ZFSGuru. Maar is het niet makkelijker, als er toch een handleiding wordt gemaakt, dat we voor één systeem kiezen?

En zoals gezegd vond ik ZFSGuru prima te doen zonder enige voorkennis (heb alleen wat Linux kennis). Alles kan webbased worden ingesteld.
Wat dat betreft is het met het OS net als met drop "smaken verschillen, zakjes *PIEP* ook ;) . Persoonlijk snap ik de tweespalt goed. Met geringe achtergrondkennis en een goede how-to erbij kun je met hetzelfde gemak OpenIndiana+Napp-it of Nexenta installeren. Nadeel van deze twee is wel dat ze qua hardware meer eisen hebben dan FreeBSD. Qua beheer gemak zit je dan min of meer op hetzelfde niveau.
No flame war intended, maar ZFSonLinux mag je denk ik voorlopig nog wel afschrijven als een serieuze optie. Voor Linux ingewijden is het natuurlijk een makkie om te doen, maar het is voorlopig nog beta status.

Wat dat betreft is ZFSguru wel een goede en ook logische keuze. Hier binnen Tweakers is er voldoende info te vinden/te verkrijgen uit de gebruikersgroep en met een dev (CiPHER :w ) die hier aanwezig is zijn de lijntjes kort. De beheer oppervlakte van ZFSguru spreekt redelijk voor zich. Nog niet alles is vanuit de webpagina's te doen, maar daar wordt aangewerkt.
• Harde schijven advanced systeem

Momenteel zitten er Western Digital AV GP schijven in, deze zijn meer gemaakt voor 24/7 gebruik dan de gewone WD green serie. Naast de Western Digital AV GP heb je echter ook nog de WD red schijven. Deze kun je het beste gebruiken als je een raidcontroller hebt vanwege de TLER ondersteuning. Nu maken we gebruik van een raidcontroller in het advanced systeem. Is het nog nodig om de Western Digital AV GP te vervangen door WD red's?
Het prijsverschil tov de Red's is slechts zo'n €6 a €8 per stuk (2TB AV-GP vs 2 TB Red en 3 TB AV-GP vs 3 TB Red) en qua garantie geldt voor beiden 3 jaar. In essentie betaal je dus voor de SATA-600 interface vd Red's terwijl je daar weining van zult merken. Het enige wat de AV-GP's wel hebben is t infame IntelliPark, maar dit is mbv wdidle3 wel aan banden te leggen (net zoals bij de WD greens het geval is).

Met een M1015 in IT mode maakt het weinig uit, strikt genomen is er dan niet eens meer sprake van een RAID controller maar slechts van een edele SA/SATA HBA. Zowel in t DIY NAS als in het grote ZFS topic is de M1015 al meerdere keren besproken dus de details laat ik voor wat ze zijn.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
AV GP schijven hadden toch een lagere UERR? Ik dacht dat die altijd op 10^14e zaten ipv 10^15e wat veel andere schijven hebben...

Even niets...


Acties:
  • 0 Henk 'm!

  • Pantagruel
  • Registratie: Februari 2000
  • Laatst online: 04-05 14:53

Pantagruel

Mijn 80486 was snel,....was!

FireDrunk schreef op vrijdag 15 februari 2013 @ 11:35:
AV GP schijven hadden toch een lagere UERR? Ik dacht dat die altijd op 10^14e zaten ipv 10^15e wat veel andere schijven hebben...
Geen idee, is in ieder geval niet iets wat ze luid en duidelijk adverteren.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
Nog even een praktische vraag over de configuratie van een dergelijk systeem. De raidcontroller gebruik je eigenlijk alleen voor de extra sata poorten. Hoe configureer je je raid controller dan? Alle disks los in raid 0, of kun je ze gewoon doorgeven aan je OS zonder dat de raidcontroller er iets mee doet?

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 23:21

Compizfox

Bait for wenchmarks

Je flasht er IT-firmware (Initiator-target-firmware) op ;)

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
Mhh... Dat vraagt wel om een duidelijke beschrijving denk ik :)

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
Even linken naar de guide van ServeTheHome:
http://www.servethehome.com/ibm-serveraid-m1015-part-4/

Even niets...


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
Een nadeel van de pricewatch: Intel Desktop Board DQ77MK, is dat er vrij weinig sata-poorten op zitten. Als je voor de pricewatch: ASRock B75 Pro3-M kiest heb je niet eens een raidcontroller nodig in eerste instantie :o Is het niet verstandiger om voor een andere insteek kaart te gaan, waardoor je niet een relatief dure raidcontroller nodig hebt je die ook nog moet flashen, omdat je toch geen gebruik maakt van de raid functionaliteit?

pricewatch: Highpoint Rocket 620

pricewatch: Delock PCI Express Card > 2 x intern SATA 6 Gb/s

[ Voor 40% gewijzigd door Stefanovic45 op 23-02-2013 13:51 ]

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
Tja, of de ASMedia 100% geschikt is voor ZFS moet geloof ik nog bewezen worden. Er zijn dacht ik al wel mensen die hem hebben draaien.

Die controllers zijn niet altijd even geschikt. Highpoint al helemaal niet (tenzij ze een keer een echte AHCI controller hebben gemaakt). Die jongens hebben weinig verstand van driversupport.

[ Voor 41% gewijzigd door FireDrunk op 23-02-2013 14:04 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 23:21

Compizfox

Bait for wenchmarks

ASM1061 is gewoon 100% AHCI toch?

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
Dat wil nog steeds niet zeggen dat hij 100% met ZFS werkt.
(hoewel het de kans wel groot maakt...)

Even niets...


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
analog_ schreef op woensdag 06 februari 2013 @ 21:25:
OI houdt niet van die asmedia controllers als in, weigert volledig te booten.

Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
Dat geldt voor OpenIndia ;)

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09-05 10:35
Maar dat is meer luiheid van die developrs om AHCI te implementeren voor dat specifieke pciid ;)

Even niets...


Acties:
  • 0 Henk 'm!

  • l.d._
  • Registratie: Januari 2000
  • Laatst online: 20-03 22:12
Laat ik ook maar weer eens reageren hier op het forum en mogelijk wat mede tweakers helpen met de informatie die ik de afgelopen maanden heb verzameld voor 2 NAS builds die ik zelf wil doen.

Als eerste TLER en de keuze voor de "red" of " av-gp" disken.
Heb daar geen kan en klaar antwoord voor want het blijft een keuze.
Hier onder een copy/paste van een erg informatieve post die ik vond op het anandtech forum.
In het engels maar zeker de moeite waard.

What are the differences between WD Red, WD Green and WD AV drives?
WD Red has TLER enabled, WD Green has TLER disabled and cannot be enabled. WD AV are special 'Audio/Video' drives that are TLER=0 meaning they make no attempt to recover weak sectors at all. This is to prevent lost frames because the harddrive would not be able to keep up with the datarate if it spends much time on recovery.

WD Red has some different specifications than WD Green, including the mention that Reds would be suitable for 24/7 operation. From what I have been able to gather from similar situations in the past, the only difference is probably only the firmware and added warranty and not any physical difference. Only the special 'RE' drives are physically different.

There is some confusion about this, since the WD Green is listed as higher power consumption than the WD Red. But already mentioned in this thread, this is due to there being two versions of the WD Green one with conservative 750GB platters and a modern 1000GB platter version. The latter should be equal to WD Red. 1000GB platters are used in the most modern generation of harddrives today. The fewer platters, the better. It will be faster due to increased data density (sectors per track), power consumption will drop, height and weight may be less, less mechanical components such as heads and the platter itself. All this probably also translates to increased reliability, due to the general rule that lesser mechanical components equals lesser probability of failure.


TLER, what is it, what is not?
TLER or Time-Limited Error Recovery, is a very simple setting used by the harddrive firmware that tells how much seconds the harddrive may spend trying to recover the contents of an unreadable sector, before it gives up and returns an error.

Basically, all drives have TLER. Consumer drives usually spend about 120 seconds recovering before they return an error. You could say this is TLER=120. But as convention, we say TLER is off when it is set to a high value like 120. When we enable TLER, that usually means TLER=7 or 7 seconds recovery time. This value is a convention since the most strict hardware RAID controllers use 10 seconds as time-out value. This brings us to the next question...


Why do we need TLER?
Some might say 'because you do not want to wait 120 seconds'. This statement is inaccurate and misleading in many ways. I will try to explain. But first, let's look at how hardware RAID controllers behave versus regular drives with TLER=120 ('off').

1. Hardware RAID controller sends read request to harddrive X
2. Harddrive X cannot read a sector and keeps trying for more than 10 seconds
3. Hardware RAID controller things 'huh, drive X is not responding, it must have been failed!'
4. Hardware RAID controller kicks out drive X from the RAID-array
5. Hardware RAID controller updates the metadata on the remaining disk members, to reflect the detached disk. This is to prevent the disk from reattaching when you reboot or power-cycle.
6. Hardware RAID controller mentions the fact that it is running DEGRADED or FAILED depending on what RAID-scheme you were using.

This sequence is typical for many hardware RAID controllers. But not all, some have much higher timeout values. Others do not drop disks but return I/O errors to the application. There also was speculation that some controllers might use redundant sources for the bad sector and use that instead, but I never have seen anything to substantiate this claim.

The real reason you need TLER, therefore, is that hardware RAID controllers adhere to very strict timeouts. Basically, your drive is working perfectly, or it is being kicked out. Such a controller would require TLER-enabled harddrives because whenever you might encounter a bad sector, you do not want the entire disk to be 'failed' because of one tiny 512-bytes of unreadable data.

The truth is, hardware RAID including what is called 'onboard RAID' are very dumb about timeouts, causing many people to have lost data because their RAID failed because disks were kicked out. The user can recover from this situation, but many fail and their own attempts might finish off any chance of successful recovery. In general, hardware RAID and onboard RAID behave very poorly to bad sectors.


Can TLER be dangerous?
Yes, unfortunately. It is really just a dirty hack because hardware RAID and onboard RAID are behaving so poorly to disk timeouts. If you do not need TLER, you do not want it. Why? Because you disable your last line of defense.

Assume you are running a RAID5 on a Linux software RAID platform where you do not need TLER. So your disks do not have TLER as well. Assume one day a disk fails in the array. You have a spare disk lying around and are swapping the bad disk for the spare one. While rebuilding, your array is vulnerable because it has no redundancy available for the data still pending to be synchronised. If one other disk member were to encounter a bad sector - and this happens more frequently than you think - you would have a major problem. This unreadable sector could seriously cause headaches and even loss of all data in cases where the users' response would ultimately cripple the integrity of the RAID.

In such situation, where you have lost your redundancy, you want your harddrives to spend the time they need trying to recover the data. Even if the chance is small, you would want that last line of defence. Why else would we humans use seat belts in our cars? It is not like we want to crash, but if it happens, we want a last line of defence.


Why are bad sectors such a problem?
Good question. Why should everything go to hell because one tiny fraction of your harddrive is unreadable. The harddrives are designed to generate unreadable sectors by the way -- manufacturers have chosen for only basic error recovery. If more error recovery was applied, bad sectors would have been much less common, but disks would also have been smaller due to less space being able to use effectively.


The real problem
The real problem is that todays storage hardware is not perfect and due to higher data densities and increasing capacities, bad sectors are much more common than they used to be. In the meantime, the software we use (NTFS, Ext4, UFS) has not been designed to cope with bad sectors at all. They offer no protection to your data or the crucial filesystem metadata; it is at the mercy of bit rot. If a bad sector were to be located on filesystem metadata, that could severely damage the data integrity and cause the data to be inaccessible and require recovery utilities to get most of it back.

In other words, todays software is not designed for todays hardware.


The real solution
The real solution.... is ZFS. Simply so superior in almost every way and virtually immune to bad sectors! ZFS would correct them on the fly without you ever noticed there was a problem. Once you migrate your data to ZFS, you will have granted it formidable protection against corruption and loss of data in general. I can only recommend people have a look at ZFS and be convinced about how superior it is to the legacy RAID solutions and filesystems of today.

Oh and ZFS likes those WD Green harddrives just fine. ZFS works very well with cheap harddisks. Headparking is a feature more harddrives have, including 7200rpm ones. It can be disabled by setting APM to 254. I believe only WD uses persistent APM setting which survives a power cycle. Other vendors - due to patents - may only implement a volatile equivalent. So the headparking issue is the least severe on WD one could argue. Funny, isn't it?


Persoonlijk zie ik geen fouten in zijn uitleg en Cipher hier op het forum heeft er ook de nodige uitleg post's over gemaakt.
1 daarvan kon ik niet zo snel meer terug vinden maar heb ik wel onthouden en ging ongeveer zo:" TLER is handig als alles normaal werkt en je genoeg backups hebt maar als het misgaat en je kostbare DATA verloren kan gaan wil je een hardeschijf die blijft proberen je DATA te redden"
De zelfbouwer zal dus zelf een keuze moeten maken en zich niet blind staren op de marketing van b.v. de RED disken.

Mijn keuze zal dus afhangen van de hoeveelheid data en of ik daar backups van heb.
Voor mijn grote fileserver die 24/7 aanstaat en mijn muziek, film en misc data bevat wil ik disken gebruiken die 24/7 ondersteunen en minimaal 3 jaar garantie hebben.
De hoeveelheid aan data en het aantal disken dat ik nodig heb zorgt er voor dat ik een disk zal kiezen zonder te letten op TLER.
Reden daarvan is simpel, 10 disken in een ZFS2 geeft voor die data voldoende protectie en totale kosten incl verbruik zal de doorslag geven.

Maar voor mijn super belangrijke DATA let ik daar wel degelijk op.
Aangezien ik daar ook kies voor een ZFS oplossing wil ik die "last line of defence" niet missen door een TLER schijf te gebruiken die het na luttele seconden al opgeeft.
Deze build zal bestaan uit 6* 2.5" disken in een ZFS2, WD7500BPKT in mijn geval omdat ik er daar al een aantal van heb en zo ingeval van nood disken op voorraad heb.


Als laatste hardware weetjes die ik tegenkwam tijdens mijn zoektocht die een keuze makkelijker kan maken en de kosten kan drukken van de totale build.

Op deze pagina bevestigd een gebruiker dat er 16GB in de asus-c60m1 past ipv 8GB volgens de ASUS website.
Dat maakt dit board erg intresant samen met zijn 6 SATA poorten.

Een ander ASUS juweeltje is de F1A75V_EVO want daar kan zonder problemen 32GB geheugen in en ASUS vermeld zelf dat er met geschikte 16GB modules tot wel 64GB intern geheugen in kan.
Dat zal ZFS erg leuk vinden >:)

als je niks te doen hebt doe het dan niet hier


Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
Moeten er bij de raid-controller nog weer losse kabels worden geleverd?

pricewatch: 3Ware 3Ware Multi-lane SATA cable CBL-SFF8087OCF-05M

Ik kreeg deze tip van een medetweaker... Op de site van IBM kan ik ook niet vinden dat deze kabels los moeten worden bijbesteld... Als dat het geval is moet ik dat nog even aanpassen :)

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP


Acties:
  • 0 Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
StefanvanGelder schreef op vrijdag 01 maart 2013 @ 12:58:
Moeten er bij de raid-controller nog weer losse kabels worden geleverd?

pricewatch: 3Ware 3Ware Multi-lane SATA cable CBL-SFF8087OCF-05M

Ik kreeg deze tip van een medetweaker... Op de site van IBM kan ik ook niet vinden dat deze kabels los moeten worden bijbesteld... Als dat het geval is moet ik dat nog even aanpassen :)
Veelal bijkopen, verder klopt er iets niet in je ZFS verhaal. ZFS is 'wat' veiliger dan conventionele filesystems door de metadata. Vervolgens stel je dat dit betekend dat je geen UPS/BBU/SuperCap nodig hebt omdat ZFS wel zo fantastisch is. Dat klopt niet, wat al die batterij-voorziening toe laten is een tijdelijke buffer weg te schrijven naar iets permanent en dat heeft niks te maken met ZFS maar elk bestandssysteem heeft hier evenveel voordeel aan. Het gaat hier om enkel om nieuwe data, al-beschreven-data is natuurlijk met/zonder batterij-voorziening iets beter beschermt onder ZFS dan andere FS.

Acties:
  • 0 Henk 'm!

  • Stefanovic45
  • Registratie: Juni 2008
  • Laatst online: 07-05 17:46
Mhh waar staat dat precies? UPSen etc heb je namelijk zeker wel nodig idd... Het verhaal waarin zfs wordt uitgelegd is met dank aan CiPHER gepubliceerd :)

Tesla Model Y RWD / 8.4 kWp PV installatie / WPB / lucht/lucht WP

Pagina: 1 2 Laatste

Let op:
Dit topic is niet voor persoonlijk advies! Daarvoor is DAA in het leven geroepen. Lees daarbij eerst goed dit bericht en neem het beleid in die andere subfora goed door.


De BBG omvat deze keer de volgende systemen:
[BBG] Budget- en basissysteem maart 2013
[BBG] Storage maart 2013
[BBG] Budgetgame- en basisgamesysteem maart 2013
[BBG] High-end gamesysteem maart 2013