• DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 21:12
Gisteren me Desktop PC een upgrade gegeven naar een nieuw mobo + DDR3 8GB.
In me oude mobo zat DDR2 4GB wat ik nu dus overhad. Me Ubuntu NAS open gemaakt en de schamele 1GB eruit gehaald om er 4GB in te doen.
Als ik echt grootte files overzette dan zag ik meestal tegen de 60MB/sec in me beeld. Nu ben ik 146GB aan het overzetten met files van 200MB tot 3GB en ik haal gewoon strak 88.xMB/sec _/-\o_ .

Conclusie me Ubuntu NAS met 5x500GB in Raid5 houdt wel van die extra mem.

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
'strak'? Dat kan harder hoor :)

Even niets...


  • me1299
  • Registratie: Maart 2000
  • Laatst online: 23:28

me1299

$ondertitel

Ik wil binnenkort ook zelf een nas bouwen, vermoedelijk op windows gebaseerd. Nu wil ik waarschijnlijk 4 schijven in Raid 5 gaan draaien.

Ik weet nog niet goed welk moederbord ik wil hebben. Ik zit te kijken naar die nieuwe amd hudson chipset, met geïntegreerde cpu. Deze zijn nog vrij vlot, maar ontberen sowieso raid mogelijkheid. Nu kan ik er ook een pci-express raid kaart inproppen, maar ik vraag me af of daarmee het stroomverbruik niet erg stijgt?

Eventueel zou ik natuurlijk ook softwarematige raid kunnen draaien maar hoe zit het dan met de snelheid onder windows? Ik kan me voorstellen dat een softraid niet erg snel zal zijn met random reads.

Ik wil dus een zuinige machine maken die toch een gigabit goed vol kan proppen. Hoe zit het trouwens met hotswap mogelijkheid? Ik kan me voorstellen dat de controller dit moet ondersteunen, het mooiste zou zijn dat wanneer een schijf kapot gaat ik deze on the fly kan verwisselen en de controller een rebuild doet en ik ondertussen gewoon door kan werken.

Ik zou bijvoorbeeld ook voor een Intel Atom bord kunnen opteren pricewatch: Supermicro X7SPA-HF-D525 maar die supermicro borden zijn wel heel erg aan de prijs.

[ Voor 10% gewijzigd door me1299 op 27-02-2011 15:50 ]

Het maakt eigenlijk niet uit wat je bewuste geest doet, omdat je onderbewuste automatisch precies dat doet wat het moet doen


Verwijderd

Ik kan me voorstellen dat een softraid niet erg snel zal zijn met random reads.
Want? Wat doet software RAID anders voor random reads dan hardware RAID?

RAID5 is problematisch onder Windows; RAID0 of 1 kun je prima met software RAID onder Windows doen. RAID5 is een ander verhaal; er zijn geen goede software RAID5 engines voor Windows. Intel onboard RAID komt dan nog het meest dichtbij.

Een oplossing is een Highpoint RAID kaartje; prima oplossing voor Windows. Maar ga je later met ZFS in de slag dan heb je weinig aan die controller en heb je een echte HBA nodig (een controller zonder RAID).

Hot-swap is een feature van AHCI, en Hudson heeft 6x SATA/600 die in AHCI kan fungeren dus dat zit wel goed. Overigens lijkt me dit een onbelangrijke feature voor veel consumenten; immers als je een dode schijf hebt is het uitschakelen van je server wel zo goed. Het on the fly kutten met stroomkabels heb ik slechte ervaringen mee; de spinup current kan er voor zorgen dat andere - nog draaiende - schijven daar niet lekker van worden en opeens ook uit de array springen; leuk! (NOT)

Dus gewoon even uitdoen en dan de schijf vervangen is misschien wel zo logisch en veilig.

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 21:12
Met strak bedoel ik dat hij schommeld tussen de 88,6 tot 88,9MB/sec.
Harder is altijd goed :).

Verwijderd

Lokaal, of over het netwerk? ;)

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 21:12
Over het netwerk. Is toch het DIY RAID NAS topic ?:P

  • johnkeates
  • Registratie: Februari 2008
  • Laatst online: 04-07 16:30
Je kan ook gewoon geen windows gebruiken voor je server, lost de meeste problemen meteen op. RAID levels aanpassen om dat het OS gewoon niet goed genoeg is om er mee om te gaan is toch niet echt de bedoeling lijkt me.

  • me1299
  • Registratie: Maart 2000
  • Laatst online: 23:28

me1299

$ondertitel

Verwijderd schreef op zondag 27 februari 2011 @ 15:49:
[...]

Want? Wat doet software RAID anders voor random reads dan hardware RAID?

RAID5 is problematisch onder Windows; RAID0 of 1 kun je prima met software RAID onder Windows doen. RAID5 is een ander verhaal; er zijn geen goede software RAID5 engines voor Windows. Intel onboard RAID komt dan nog het meest dichtbij.

Een oplossing is een Highpoint RAID kaartje; prima oplossing voor Windows. Maar ga je later met ZFS in de slag dan heb je weinig aan die controller en heb je een echte HBA nodig (een controller zonder RAID).

Hot-swap is een feature van AHCI, en Hudson heeft 6x SATA/600 die in AHCI kan fungeren dus dat zit wel goed. Overigens lijkt me dit een onbelangrijke feature voor veel consumenten; immers als je een dode schijf hebt is het uitschakelen van je server wel zo goed. Het on the fly kutten met stroomkabels heb ik slechte ervaringen mee; de spinup current kan er voor zorgen dat andere - nog draaiende - schijven daar niet lekker van worden en opeens ook uit de array springen; leuk! (NOT)

Dus gewoon even uitdoen en dan de schijf vervangen is misschien wel zo logisch en veilig.
Maar even voor de duidelijkheid, als ik gewoon een onboard raid functie heb, zonder XOR berekeningen en deze laat ik windows draaien. Is het dan nog steeds huilen met de pet op?

Misschien een domme vraag hoor, maar waarom zou ik later met ZFS aan de slag willen? En een raid controller die gewoon met JBOD werkt is dan toch geen probleem?

Met stroomkabels hoef ik niet te stoeien want ik neem deze kast:
Afbeeldingslocatie: http://www.wegotserved.com/wp-content/uploads/2010/08/linitx_nas_case.jpg
johnkeates schreef op zondag 27 februari 2011 @ 15:58:
Je kan ook gewoon geen windows gebruiken voor je server, lost de meeste problemen meteen op. RAID levels aanpassen om dat het OS gewoon niet goed genoeg is om er mee om te gaan is toch niet echt de bedoeling lijkt me.
Ik kan natuurlijk ook een linux distro nemen, maar mijn linux kennis rijkt niet veel verder dan een apache server herstarten :o En als ik bij kennissen kijk die wel degelijk veel met linux werken, die zijn soms een hele dag bezig om iets simpels te fixen terwijl het in windows allemaal gesneden koek is. Het zal ongetwijfeld leuker presteren, maar ik zie mijn geest nu al kruipen als ik iets in samba moet regelen wat om een twijfelachtige reden niet goed werkt oid vanwege allerlei wazige dependencies etc.

[ Voor 18% gewijzigd door me1299 op 27-02-2011 16:46 ]

Het maakt eigenlijk niet uit wat je bewuste geest doet, omdat je onderbewuste automatisch precies dat doet wat het moet doen


  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
@CiPHER
Ik ben erg benieuwd naar je reactie op deze post. Mocht je nog tijd en zin hebben...

  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 20-12 17:28
Ik kan natuurlijk ook een linux distro nemen, maar mijn linux kennis rijkt niet veel verder dan een apache server herstarten :o En als ik bij kennissen kijk die wel degelijk veel met linux werken, die zijn soms een hele dag bezig om iets simpels te fixen terwijl het in windows allemaal gesneden koek is. Het zal ongetwijfeld leuker presteren, maar ik zie mijn geest nu al kruipen als ik iets in samba moet regelen wat om een twijfelachtige reden niet goed werkt oid vanwege allerlei wazige dependencies etc.
Je kunt toch een linux distro uitproberen in virtualbox of vmware. Is doodsimpel.
Hier een makkelijke beginnersguide voor een simpele debian server.

Verwijderd

DeathKnight24 schreef op zondag 27 februari 2011 @ 16:38:
[...]


Met stroomkabels hoef ik niet te stoeien want ik neem deze kast:
[afbeelding]
he..ook een leuk kastje
en gevonden . > http://www.myelectronics.nl/contents/nl/p2128.html

( denk ik dat ik toch maar een qnap 410 voor 309,- aanschaf )

  • me1299
  • Registratie: Maart 2000
  • Laatst online: 23:28

me1299

$ondertitel

Heeft iemand trouwens nog een idee wat een losse raid kaart ongeveer aan wattage verbruikt?

Het maakt eigenlijk niet uit wat je bewuste geest doet, omdat je onderbewuste automatisch precies dat doet wat het moet doen


  • prozak
  • Registratie: December 2003
  • Laatst online: 24-12 22:34
15-20 Watt afhankelijk van de kaart natuurlijk

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Veel lager kan ook. De Rocketraid 2600 serie zou 5W verbruiken. Maar het klopt helemaal dat dit van de kaart op zich afhangt en vooral wat voor soort kaart het is. Als je een hardwarematige RAID controller hebt dan zal het verbruik daarvan hoger liggen, maar dat haalt weer verbruik weg bij je CPU. Daarnaast gaat het om piekverbruiken, als de (eventuele) onboard processor bezig is.
Zoek gewoon een kaart uit en kijk in de specificaties van die kaart wat het verbruik zou zijn. Dit kan wat optimistischer zijn dan de realiteit, maar zou in ieder geval een goede indicatie moeten geven.

De CSL/OT kroeg !


  • me1299
  • Registratie: Maart 2000
  • Laatst online: 23:28

me1299

$ondertitel

Maar zou het verbruik van een op het moederbord geïntegreerde raid controller een stuk minder zijn?

Het maakt eigenlijk niet uit wat je bewuste geest doet, omdat je onderbewuste automatisch precies dat doet wat het moet doen


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Een stuk minder dan 5W? Naar mijn mening moet je in de eerste plaats een keuze maken welk type RAID je wil en eigenlijk eerst al of je het wil. Hoewel ik toch wel behoorlijk op het verbruik let, moet de oplossing nog wel goed werken, anders ben je aan het einde van de rit slechter uit. Pas binnen een gekozen oplossing kun je eventueel gaan kijken naar de betere verbruikscijfers.
Maar ik spreek bij dit alles eigenlijk al over RAID5, waar jij niet voor lijkt te gaan. Bij RAID5 moet er veel worden gerekend, bij de lagere RAID vormen niet. JBOD is niets complex. Je kunt dat zelfs gewoon vanuit Windows regelen: spanned drives.
Ik zou gewoon eens goed bedenken wat je echt wil, welke opties er daarbij zijn, welke je het beste lijken en welke daarvan weer het beste verbruik weten neer te zetten. Maar met JBOD zou ik gewoon voor de interne Windows oplossing gaan. Let wel, je kunt geloof ik niet booten van een JBOD opstelling.

De CSL/OT kroeg !


  • me1299
  • Registratie: Maart 2000
  • Laatst online: 23:28

me1299

$ondertitel

Ik ga 4 schijven gebruiken, raid 0 valt sowieso af, en mirroring is doodzonde van mn 3e schijf. Dus het plan is iig om raid 5 te gaan draaien.

De vraag is alleen of ik dat met een add-on kaart op het mobo of een softraid ga draaien. Dit alles hangt weer af van de snelheid, de betaalbaarheid en het verbuik.

Alleen als ik softraid ga draaien werk ik met JBOD.

Het maakt eigenlijk niet uit wat je bewuste geest doet, omdat je onderbewuste automatisch precies dat doet wat het moet doen


  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
JBOD is een soort van RAID officieel, namelijk dat alle disks achter elkaar gezet worden, en 1 logisch station vormen. Dit betekend dus niet dat je alle disks los kan benaderen.

Ik krijg het gevoel dat het hier in de volksmond 'no-raid' betekend...

@DeathKnight24, Mijn LSI 3081 verbruikt maximaal 10W volgens LSI, maar in de praktijk voor mijn gevoel gemiddeld gezien minder, maar ik heb het nooit echt gemeten... Is ook heel lastig omdat je moet meten wat het verschil is op je hele systeem, maar je wil de kaart juist belasten, maar om dat te doen moet je ook je disks belasten.

Daarom zul je misschien weinig van die getallen op internet vinden, omdat het lastig te meten is.

Even niets...


Verwijderd

en hoe je een 100 TB home media server kan bouwen lees je hier :)

http://hardforum.com/showthread.php?t=1512972

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Dat is wel de meest absurde samenstelling, maar er zit daar ook een sticky waarin diverse mensen met 10TB+ samenstellingen reageren. Met name met de 2TB schijven zie je kleine leuke kastjes met veel opslagruimte.
Maar die 100TB gast, tsja...het ziet er wel leuk uit, maar je wil dat ding eigenlijk niet aan hebben. Het energieverbruik en het de geluidsdruk zijn behoorlijk hoog. Daarbij was 2x RAID6 de keuze, waardoor je ook niet zomaar een deel laat downspinnen, het is toch meer aan of uit... Maar goed, ieder zo het eigen speeltje he. :)

De CSL/OT kroeg !


Verwijderd

DeathKnight24 schreef op zondag 27 februari 2011 @ 16:38:
Maar even voor de duidelijkheid, als ik gewoon een onboard raid functie heb, zonder XOR berekeningen en deze laat ik windows draaien. Is het dan nog steeds huilen met de pet op?
Een Onboard RAID functie zonder XOR berekeningen? Even duidelijk maken wat onboard RAID is:

Onboard RAID is niets meer dan een SATA controller (AHCI/IDE) met wat firmware voor apart RAID BIOS setup waarmee je een array kan maken. De firmware zorgt er ook voor dat je array bootable is. De firmware heeft dus een klein beetje kennis van RAID, maar niet veel en read-only. Alleen de metadata wordt beschreven.

Zodra je Windows in boot, nemen de drivers het over. De drivers implementeren RAID. De hardware is niets meer dan een SATA controller; geen enkele RAID acceleratie vindt er plaats; het is puur software RAID door middel van drivers. Onboard RAID is dus absoluut geen Hardware RAID, en wordt om die reden vaak ook FakeRAID genoemd omdat het de suggestie wekt dat er een hardwarematig component aan vast zit, maar na het booten van Windows is dat niet meer het geval, al vrij vroeg in de bootcyclus nemen de RAID drivers het over.

Deze drivers maken de fysieke schijven onzichtbaar/ontoegankelijk, en presenteren een virtuele RAID device. De drivers maken gebruik van je CPU en RAM voor alle berekeningen.

Nu heb je met RAID5 een veel ingewikkeldere implementatie nodig dan RAID0 of RAID1, RAID5 vergt een intelligente en complexe software driver. Hoe meer intelligentie de driver implementeert, des te hoger het CPU verbruik maar ook des te hoger de snelheid. Hoe dommer de driver is, des te lager het CPU verbruik maar ook des te lager de snelheden. Dus:

Simpele RAID5 driver:
  • laag CPU verbruik en XOR stelt niets voor (20/7000 = 0,003% CPU gebruik voor XOR uitgaande van singlecore CPU)
  • laat de schijven continu seeken; CPU is 99%+ idle en schijven seeken continue; 20MB/s schrijfsnelheid max
  • zeer intensief voor je schijven omdat ze continu seeken wat in consumentenconfiguraties haast nooit gebeurt en vast niet goed is voor de levensduur van je schijven en bovendien snelheid om te huilen
Intelligente RAID5 driver:
  • fors hoger CPU verbruik; XOR is maar een summier deel hiervan (600/7000 = 0,08% van de CPU in gebruik voor XOR berekeningen)
  • laat de schijven bijna nooit seeken
  • hoger CPU belasting (~50%), mogelijk multithreaded, 600MB/s+ schrijfsnelheden
Conclusies:
  • XOR is een supersimpele instructie. Iedereen die zegt dat RAID5/6/7 traag is vanwege XOR heeft het niet goed begrepen. Een simpele sempron kan gigabytes XOR per seconde verstouwen. Een Intel Atom ook. Je kunt het zelf meten bij het booten van de Ubuntu distro wordt je XOR snelheid gemeten.
  • RAID5 is héél traag met schrijven tenzij de RAID5 engine een 'write-back engine' heeft die schrijfrequests opspaart en precies in een magische blokgrootte (full stripe block) wegschrijft. Alleen met zo'n write-back engine kan RAID5 snel zijn; zonder zo'n engine krijg je 15-20MB/s snelheden terwijl met een goede RAID5 engine zo'n 600MB/s+ makkelijk haalbaar moet zijn.
  • High-performance RAID5 drivers zijn erg complex en zeldzaam.
  • RAID5 levert risico's op die afgedekt moeten worden, of je data integriteit staat ter discussie. (write hole)
  • CPU gebruik voor RAID5 is een non-issue omdat je liever méér CPU gebruik en hogere snelheid hebt, dan een lage snelheid en je CPU staat eindeloos te idlen. Je wilt JUIST je CPU aan het werk houden, niet ontzien!
  • Je CPU is veel efficienter en sneller dan een hardware RAID XOR engine (lees: ARM/PPC SoC)
Misschien een domme vraag hoor, maar waarom zou ik later met ZFS aan de slag willen?
Omdat je doorhebt dat bijna alle RAID5 eigenlijk heel onveilig is en je gemakkelijk ontzettend heel veel data kunt kwijtraken terwijl je dacht dat je altijd één schijf mocht verliezen voordat je uberhaupt iets kwijtraakte. Helaas is dat een illusie en als je veel data bent kwijtgeraakt met een RAID5 array waarvan je dacht dat je beschermd was, wil je misschien wel iets wat je échte veiligheid biedt. En dat is ZFS. ZFS is wat RAID has moeten zijn, gezien de theorie eromheen. Helaas is Windows-achtig RAID altijd onbetrouwbaar gebleven en met veel problemen omgeven die normale stervelingen onbekend zijn maar wel hun data kan slopen.

ZFS biedt je veel meer zekerheid en bescherming voor je bestanden, en je kunt gebruik maken van goedkope componenten zoals een HBA controller ipv RAID controller, normale desktopschijven ipv TLER RAID edition schijven, enzovoorts.
En een raid controller die gewoon met JBOD werkt is dan toch geen probleem?
JBOD is een breed begrip. Just a Bunch Of Disks; wat is dat precies. De term wordt los gebruikt voor heel verschillende begrippen:
  • Concatenation; een vorm van RAID vergelijkbaar met RAID0, maar zonder striping. Elke disk wordt achter elkaar geplakt. Dus disk1 = 300GB en disk2 = 700GB dan is een concat van beide dus 1000GB groot en disk2 begint dan op 300GB van de capaciteit van de virtuele concat array.
  • Individuele disks aangesloten op een RAID controller kunnen in JBOD werken zodat de controller geen metadata leest van de disks, maar elke disk als losse disk beschouwt. Dit betekent nog steeds dat de firmware de baas is en bij bad sectors de schijf eruit kan kicken als het dat wilt.
  • non-RAID HBA: een echte non-RAID controller die het OS de volledige controle geeft. Dit is het soort controller dat je wilt voor ZFS, zodat je nooit meer uitvallende schijven hebt die plotsklap geen deel meer uitmaken van je RAID array.
Ik kan natuurlijk ook een linux distro nemen, maar mijn linux kennis rijkt niet veel verder dan een apache server herstarten :o
Behalve een algemeen linux OS kun je ook gewoon een NAS-specifieke distro gebruiken waardoor je je met details niet meer hoeft bezig te houden; in 15 minuten heb je je server draaien met iets als FreeNAS, NexentaStor of ZFSguru; allemaal NAS-specifieke distro's die ook ZFS ondersteuning hebben. ZFS draait overigens niet of nauwelijks onder Linux; het is een UNIX-specifieke techniek.

Je moet iets hebben wat 'gewoon werkt' en liefst helemaal dedicated alleen voor sharen van bestanden. Dan hou je je setup simpel, kan er maar weinig misgaan en kun je gewoon betrouwbare storage realiseren met een tweaker-budget dus geen dure RAID controllers of TLER schijven om vervolgens alsnog een onveilige RAID engine te draaien. Zeker nu met 2TB schijven en relatief hoge BER rate is ZFS een alternatief waar velen baat van hebben, ze moeten alleen nog kennismaken met de voordelen. :)

Verwijderd

DeathKnight24 schreef op zondag 27 februari 2011 @ 23:36:
Maar zou het verbruik van een op het moederbord geïntegreerde raid controller een stuk minder zijn?
Energieverbruik tussen software RAID en hardware RAID is in het voordeel van software RAID. Je CPU heeft wel een veel hogere TDP, maar is ook vele malen sneller en kan dus weer veel sneller naar idle. Hardware RAID verhoogt je stroomverbruik met 5 tot 10W statisch, of het nu gebruikt wordt of niet verandert niet zo heel veel aan het gebruik; niet echt fijn dus voor een NAS ofzoiets. Je wilt juist technologie die het liefst helemaal niks gebruikt als je er niks mee doet, en pas energie gebruikt als je het daadwerkelijk gebruikt. Hardware RAID is dat dus absoluut niet. Je bent dingen aan het offloaden die je host systeem veel beter (in elk geval efficienter) zelf kan doen.

Verwijderd

-Moondust- schreef op donderdag 24 februari 2011 @ 22:45:
[...]

Ik ben het helemaal met je eens, maar de ED55 heeft helaas geen PCI-slot
Voor mij juist een kernargument om dat moederbord te kiezen; ik heb een hekel aan nutteloze PCI slots; liever een echte PCI-express in plaats daarvoor. Geluidskaart doe ik zelf liever extern (USB) zodat je geen beperkingen oplegt aan je computersysteem. Net als de Creative AWE64 die nog op ISA poort ging terwijl PCI al uit was: gewoon jammer als je daardoor een apart moederbord moet kopen.

Als je een USB geluidskaart hebt (in de toekomst) ben je volkomen vrij wat voor moederbord je kiest, en maakt je setup veel flexibeler en minder foutgevoelig. Maar kan begrijpen dat je in jouw situatie nu nog voor PCI wilt gaan; maar ik vind dat eigenlijk dus wel zonde. Legacy-vrij systeem is wel zo aantrekkelijk.
Ik heb overigens voor de WD's gekozen, omdat deze in idle mode een stuk zuiniger zijn dan de Samsungs (3,7W versus 6W).
Mijn ervaring is andersom; de Samsung F4 zit met 3.5W lager dan de 4.5-5.5W van de WD Greens. De Samsung F4 gebruikt dus minder stroom, is sneller en heeft snellere emulatie wanneer je non-aligned I/O doet. Ook heeft Samsung geen problemen met load cycles (head park functie) en kun je eventueel CCTL inschakelen in de toekomst terwijl WD consumentenschijven geen TLER functie hebben.

Samsung F4 moet weer een firmware fix hebben, maar dat zou geen groot probleem mogen zijn.
Wat is het voordeel van het flashen? Ik kan de controller toch ook gewoon zo in een non-RAID config gebruiken?
Sommige controllers komen standaard in IR (RAID mode) firmware; die zijn niet geschikt voor iets als ZFS of andere software RAID. Voor software RAID wil je een een non-RAID controller zodat je geen dure ("Raid edition") schijven met TLER ondersteuning hoeft te gebruiken.

In RAID mode kunnen je schijven gedropped worden als ze last hebben van een bad sector. Echter, niet alle RAID firmware doet dit; maar naar mijn ervaring wel 90%. Dus met enkele uitzonderingen kun je zeggen dat je TLER-schijven nodig hebt op een RAID controller. Zo niet dan kun je bij een bad sector (Current Pending Sector in je SMART output) krijgen dat de hele schijf uit de array wordt geflikkerd en onzichtbaar wordt totdat je het systeem helemaal opnieuw opstart. Dit is funest voor de betrouwbaarheid van je RAID array.
Ik heb altijd met Windows gewerkt en mijn vrouw en kinderen weten ook niet beter. Dus ik ga voor Windows 7 Professional 64-bits. Ben niet bekend met ZFS, maar uit jouw woorden maak ik op dat dat te combineren is met Windows?
Nee ZFS draait alleen onder UNIX. Om die reden wordt ZFS veel gebruikt in NAS-specifieke distro's zoals NexentaStor, FreeNAS en ZFSguru; die maken het installeren en werken met ZFS een heel stuk makkelijker, zonder echt specifieke UNIX-kennis te hoeven beschikken. Net zoals Windows je een omgeving geeft die je kunt gebruiken zonder de interne werking van Windows te hoeven begrijpen. De frontend is waar het om draait dus, daar moet je mee kunnen werken.

In de praktijk gebruik je ZFS dus als NAS; als dedicated machine die alleen dat doet (en misschien iets als een torrent client ofzo) en dus niet als workstation/desktop OS. Daarvoor gebruik je dan gewoon Windows, en krijg je een drive letter (X:) voor alles wat op je ZFS NAS staat. Dus je kunt Windows en ZFS combineren, maar niet op hetzelfde systeem (zonder virtualisatie; wat een verhaal apart is).

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Verwijderd schreef op maandag 28 februari 2011 @ 16:27:
[...]
is andersom; de Samsung F4 zit met 3.5W lager dan de 4.5-5.5W van de WD Greens. De Samsung F4 gebruikt dus minder stroom, is sneller en heeft snellere emulatie wanneer je non-aligned I/O doet. Ook heeft Samsung geen problemen met load cycles (head park functie) en kun je eventueel CCTL inschakelen in de toekomst terwijl WD consumentenschijven geen TLER functie hebben.

Samsung F4 moet weer een firmware fix hebben, maar dat zou geen groot probleem mogen zijn.
Sorry, maar hier ben je wel erg op de hand van Samsung terwijl de waarheid volgens mij meer in het midden ligt.
Kun je de WD schijven ook een naam kunnen geven, volgens mij mix je nu de EADS met de EARS schijven. De WD20EARS is zuiniger dan de F4. Wel moet je rekening houden met Advanced Format. Dat op zich geen punt, zeker als je een OS hebt dat er gewoon mee overweg kan. Het inschakelen van CCTL doe je met een tooltje, dus dan is het ook eerlijk als je die ook bij WD mag inzetten en dan kun je de head park uitzetten. TLER bij de nieuwere schijven heb ik nog niet gezien, maar misschien is het (inmiddels) ook mogelijk op de nieuwere schijven.
Nee ZFS draait alleen onder UNIX. Om die reden wordt ZFS veel gebruikt in NAS-specifieke distro's zoals NexentaStor, FreeNAS en ZFSguru; die maken het installeren en werken met ZFS een heel stuk makkelijker, zonder echt specifieke UNIX-kennis te hoeven beschikken. Net zoals Windows je een omgeving geeft die je kunt gebruiken zonder de interne werking van Windows te hoeven begrijpen. De frontend is waar het om draait dus, daar moet je mee kunnen werken.
Inmiddels is er ook een Debian achtig iets met een Unix kernel ofzo, waardoor je ZFS kunt draaien. Overigens zou ik daar niet aan beginnen, maar dat terzijde.
Ik zou overigens, als je er niet teveel tijd in wil steken, voor iets als FreeNAS en niet ZFSguru kiezen. Hoewel ZFSguru een mooi project is, is het een frontend voor ZFS, niet voor BSD. Als je echt een kale NAS wil opstellen is dat prima, maar zodra je NAS meer dingen moet doen, dan is ZFSguru mogelijk niet genoeg.

Hoewel ZFS mooi, gaaf en nog meer is, moet je er, verhoudingsgewijs, wel meer tijd in steken. Dit komt niet zozeer door de complexiteit, maar omdat de Linux fora als paddestoelen uit de grond zijn geschoten. Hierdoor zijn er ook tig luie gebruikers met vragen geweest, waardoor je waarschijnlijk sneller een antwoord hebt op een vraag. (Of je op deze manier moet willen werken is een tweede.)
Overigens blijf ik FreeBSD nog wel irritant vinden bij de installatie. Het gezeur met bestaande partities en dat ZFS er ook in 8 nog wat 'bijhangt' vind ik toch wat minder. Ik ga er vanuit dat dit bij FreeBSD 9 anders is en ZFS gewoon een standaard optie is, inclusief Root on ZFS, niet dat je daarvoor Fixit moet inzetten.

De CSL/OT kroeg !


  • me1299
  • Registratie: Maart 2000
  • Laatst online: 23:28

me1299

$ondertitel

Oke, weer een hoop bijgelezen en wat rimpels op mijn voorhoofd er bij. Kan ik nu gewoon een recent moederbord etc in elkaar rammen en er FreeNAS met ZFS support op gooien? Of moet ik dan maar hopen dat de hardware ondersteund wordt?

Is het nu ook zo dat bv bij FreeNAS je een USB stick in je station prikt deze automatisch gemount wordt bv?

Ansich ben ik wel overtuigd om voor een BSD oplossing te gaan daar ik eens wat benchmarks heb zitten bekijken van RAID5 onder windows en daar wordt je niet vrolijk van :') Hoe dan ook is deze oplossing sneller, veiliger en een stuk goedkoper dan bv een Raidcontroller die zelf parity berekend. (ben je minimaal 400 euro verder ofzo)

Het maakt eigenlijk niet uit wat je bewuste geest doet, omdat je onderbewuste automatisch precies dat doet wat het moet doen


  • DARKLORD
  • Registratie: December 2000
  • Laatst online: 26-11 22:40
Dadona schreef op maandag 28 februari 2011 @ 19:59:
[...]
Ik zou overigens, als je er niet teveel tijd in wil steken, voor iets als FreeNAS en niet ZFSguru kiezen. Hoewel ZFSguru een mooi project is, is het een frontend voor ZFS, niet voor BSD. Als je echt een kale NAS wil opstellen is dat prima, maar zodra je NAS meer dingen moet doen, dan is ZFSguru mogelijk niet genoeg.
wacht maar even af. het is vol in ontwikkeling. eerste extensie wordt virtualbox. daarna volgt er meer. basis zaken zoals samba zit er al in.

http://hardforum.com/show...=1036903962&postcount=211

Verwijderd

Dadona schreef op maandag 28 februari 2011 @ 19:59:
[...]
De WD20EARS is zuiniger dan de F4.
F4 is een 666GB platter schijf. De WD20EARS komt in twee versies: de oude met 4x500GB platters en nieuwe met 3x666GB platters. Beide zijn 4K sector schijven, net als de Samsung F4. De WD20EADS is een 512-byte sector schijf, met 4x500GB platters.

De oude EARS is heel erg slecht; vier keer zo langzaam met emulatie dan een Samsung F4. De nieuwere EARS is een stuk sneller wanneer hij kleinere sectors moet emuleren, en sowieso al sneller vanwege 666GB platters dus hogere datadichtheid bij zelfde rpm = hogere sequentiele snelheid. Maar nog steeds lager dan de F4 die op 5400rpm tot 140MB/s kan halen; zeker niet slecht!

Qua stroomverbruik doet de Samsung F4 3.5W; de oude EARS en EADS zitten daar duidelijk boven, maar verschil met de EARS 3-platter zou klein moeten zijn. Ik denk niet dat je kunt stellen dat EARS zuiniger is dan de Samsung F4.
Het inschakelen van CCTL doe je met een tooltje, dus dan is het ook eerlijk als je die ook bij WD mag inzetten
TLER kun je niet inschakelen op nieuwere types EADS en alle types EARS. Tenzij dit onlangs verandert is, maar daar heb ik niets over gehoord. WD wil je juist laten betalen voor TLER door hun RAID edition schijven te promoten.
Inmiddels is er ook een Debian achtig iets met een Unix kernel ofzo, waardoor je ZFS kunt draaien.
Nee, als je ZFS wilt draaien moet je kiezen tussen Solaris en FreeBSD, of een van de vele varianten hiervan (NexentaStor of FreeNAS).
Ik zou overigens, als je er niet teveel tijd in wil steken, voor iets als FreeNAS en niet ZFSguru kiezen. Hoewel ZFSguru een mooi project is, is het een frontend voor ZFS, niet voor BSD. Als je echt een kale NAS wil opstellen is dat prima, maar zodra je NAS meer dingen moet doen, dan is ZFSguru mogelijk niet genoeg.
Dat probleem is er nog meer met FreeNAS toch? Omdat FreeNAS niet een volledige FreeBSD installatie is, maar 'stripped down', kun je niet zomaar uitbreiden. Bij ZFSguru kan dat wel omdat het een normale volledige FreeBSD installatie in zit. Als ik het goed heb begrepen.
Overigens blijf ik FreeBSD nog wel irritant vinden bij de installatie.
Er komt een nieuwe installer, de huidige sysinstall is echt superoud en doet FreeBSD ouderwets lijken, terwijl veel technologie erg modern is en bijvoorbeeld naar de Linux kernel en projecten als MySQL en Firefox is geport.

Maar je kunt ook mfsBSD gebruiken die een mooie Root-on-ZFS installatie kan uitvoeren, 100% ZFS dus. En ZFSguru kan dat ook, maar dan installeer je ook extra dingen die al voorgeïnstalleerd zijn, maar je kunt het wel verder uitbreiden dat heb ik zelf getest.

Verwijderd

DeathKnight24 schreef op maandag 28 februari 2011 @ 21:23:
Oke, weer een hoop bijgelezen en wat rimpels op mijn voorhoofd er bij. Kan ik nu gewoon een recent moederbord etc in elkaar rammen en er FreeNAS met ZFS support op gooien? Of moet ik dan maar hopen dat de hardware ondersteund wordt?
De chipset is belangrijk; Intel of AMD is meestal prima. Soms komt het voor dat je onboard gigabit netwerk niet goed werkt; dan pleur je er een Intel PRO/1000 CT (PCIe x1) in voor een paar tientjes en ben je ook klaar. Maar bij mijn systemen werkt eigenlijk alles. Dat wat vroeger wel anders, en Solaris zit nog een beetje waar FreeBSD 4/5 jaar geleden zat qua Hardware-support. Dus qua hardware support zou ik zeggen: Solaris < FreeBSD < Linux < Windows.

Als je een controller gaat kopen moet je erg opletten welke chip. Intel SASUC8i controller en flashen naar IT-firmware is de beste all-round keuze en werkt onder alle OS, dus ook Solaris. Voor ZFS dus een heel veilige keuze, maar het is PCI-express 1.0 x8 en SATA/300, de nieuwe generatie is PCI-express 2.0 x8 en SATA/600. SuperMicro USAS2-L8e bijvoorbeeld; maar die heeft weer een raar bracket terwjil Intel een normaal bracket heeft en dus normaal in je kast past.
Ansich ben ik wel overtuigd om voor een BSD oplossing te gaan daar ik eens wat benchmarks heb zitten bekijken van RAID5 onder windows en daar wordt je niet vrolijk van :') Hoe dan ook is deze oplossing sneller, veiliger en een stuk goedkoper dan bv een Raidcontroller die zelf parity berekend. (ben je minimaal 400 euro verder ofzo)
Koop dan lekker veel Samsung F4 (of WD20EARS 3-platter als je die beter vindt) in een RAID-Z of RAID-Z2. Daarbij is het belangrijk dat je de 'juiste' combinatie schijven gebruikt:
met RAID-Z (raid5) kun je het beste 3x of 5x 4K sector schijven gebruiken
met RAID-Z2 (raid6) kun je het beste 6x of 10x 4K sector schijven gebruiken

Als je dat doet en er minimaal 8GB RAM in stopt, gaat ZFS echt supersnel qua writes. Dure RAID controller heb je helemaal niet nodig, en nu heb je ook geen gezeik met schijven die uit je array vallen omdat de RAID controller deze eruit trapt. Dat probleem heb je niet als je een normale non-RAID controller (HBA) gebruikt onder ZFS.

  • Q
  • Registratie: November 1999
  • Laatst online: 00:21
Een belangrijke vraag voor de mensen die zelf een NAS willen bouwen:
Is ZFS wel een goede keuze voor mij?
Ik blijf er bij dat het niet goed is om mensen hier BSD en ZFS aan te smeren. De meeste mensen zijn er niet mee geholpen. En dan nog, 8 GB RAM in een storage server om het een beetje leuk te laten performen, dat is toch gewoon flauwekul voor thuis gebruik?

BSD is geen beginners platform. Alleen al daarom zou ik mensen richting ubuntu of een vergelijkbaar platform sturen. Alles wat relevant is aan ZFS kan ook onder Linux. Welliswaar niet altijd even elegant, maar makkelijker, met een bredere user base qua support.

Mensen moeten het allemaal zelf weten. Als ze het zien zitten, by all means go for it. Maar ga zeker geen solaris draaien, Open Solaris is hardstikke dood en is voor de lange termijn geen goede optie. Toegegeven, het blijft werken als het werkt, maar dat is het dan.

In het ZFS geweld hier in dit topic lijkt de vaak net zo makkelijke en eenvoudige oplossing die Linux biedt ondergesneeuwd te raken, terwijl ZFS zoiets als het 'growen' van een array nog steeds niet ondersteund. Wel handig om te weten lijkt me, als je er op gokte dat je later nog eens disks zou kunnen toevoegen aan je array naar gelang de behoefte. Linux biedt ook alle voordelen van een goede software RAID implementatie.

Niets ten kwade van FreeBSD maar hardware support blijft een issue. Daar zul je scherper op moeten letten, of je zult moeten accepteren dat je gokt en kunt verliezen.

ZFS is gaaf maar voor de meeste mensen die dit topic bezoeken overkill en mogelijk zelfs gewoon niet wat ze echt nodig hebben. Het gaat niet alleen om ZFS maar ook om het 'pakket' er om heen.

[ Voor 7% gewijzigd door Q op 01-03-2011 01:09 ]


  • me1299
  • Registratie: Maart 2000
  • Laatst online: 23:28

me1299

$ondertitel

Ik wil dus 4 schijven in raid 5 gaan draaien, voor mij is het belangrijk dat die machine de 1Gbit vol kan stouwen met sequential writes.

Sowieso is 8GB van de zotte en volgens mij toch echt zwaar overbodig, ik zit meer aan een gb of 2 te denken, iig low voltage modules om het verbruik nog iets verder terug te dringen.

Ik ga iig eens serieus naar freenas kijken. Daar lijkt wel redelijk goede support voor te zijn.

Het maakt eigenlijk niet uit wat je bewuste geest doet, omdat je onderbewuste automatisch precies dat doet wat het moet doen


Verwijderd

ZFS is vooral geheugen-intensief. De performance schaalt met het aantal GB RAM dat je toevoegt. 1 of 2 GB RAM per schijf is de maatstaf. 16GB RAM is dus high-performance met 8 of 10 schijven in RAID-Z1/2; 8GB RAM is degelijke performance met hetzelfde aantal schijven, 4GB gaat je snelheid redelijk inzakken en 2GB is er niet veel meer van over. Maar met 4 schijven is 2GB RAM nog wel te doen.

Maar je zegt zuinig geheugen; is het niet veel zuiniger om voor 4GB modules te gaan dus hogere dichtheid en dus met 2 modules al 8GB weten te bereiken? Dat is zuiniger dan nu 2GB modules gebruiken en dan later 4 van die krengen gebruiken om 8GB te bereiken, als je dat ooit wilt. Met 4GB sticks blijven de sticks langer bruikbaar en breed inzetbaar.

En over de prijs, 8GB koop je vanaf 65 euro; is niet echt meer een probleem toch? Is juist een mooie investering voor ZFS. Beter een goedkope CPU (50 euro) en veel geheugen (80 euro) dan andersom. De prioriteit ligt hier dus anders.

Bij een normale software RAID setup zoals Linux of FreeNAS met UFS, heb je véél minder geheugen nodig. ZFS is echter héél anders en heeft een geavanceerd cache-management systeem (ARC) wat pas echt goed werkt met een goede RAM : DISKS verhouding.

  • me1299
  • Registratie: Maart 2000
  • Laatst online: 23:28

me1299

$ondertitel

Ja de prijs van geheugen is inderdaad niet zo'n groot probleem. Ik stop er vermoedelijk slechts 1 module in, ganged of unganged gaat heus het verschil niet maken mij dunkt.

Het maakt eigenlijk niet uit wat je bewuste geest doet, omdat je onderbewuste automatisch precies dat doet wat het moet doen


Verwijderd

Met weinig geheugen is een traditionele setup zoals Linux met software RAID sneller dan ZFS. Misschien wel leuk als je rekening houdt met een RAM upgrade mocht je ooit in de toekomst ZFS willen draaien als OSen daarvoor beter uitontwikkeld zijn; dan doe je voorlopig gewoon Linux mdraid dat werkt ook redelijk goed. Maar niet zulke goede bescherming tegen BER en andere dingen die problemen op RAID-niveau gaan veroorzaken; ZFS is het meest robuste filesystem dat zichzelf automatisch repareert (self-healing) voor zover mogelijk, en zo niet laat hij bestanden zien die corrupt zijn. Dat zijn unieke features die Linux alleen met Btrfs kan matchen, maar Btrfs is veel minder uitontwikkeld dan ZFS. Btrfs is ook geen RAID laag; dat moet je met mdraid combineren. ZFS is beide (RAID + FS) in één package.

Je moet je eigen afwegingen maken, zelf denk ik dat het goed is om in de toekomst van richting te kunnen veranderen. Kies daarom hardware die voor een 'plan B' geschikt zijn of daartoe upgrades toestaan zonder verspilling van hardware-aankopen. Een goed voorbeeld is een dure RAID controller die ongeschikt is voor ZFS, omdat normale desktop schijven er om de haverklap uitvallen. Dan maar RAID edition disks kopen allemaal? En je huidige desktop-edition disks dan? Zulk soort foutjes kunnen erg kostbare lessen opleveren.

Dus denk hier overna en als je de vrijheid hebt om later wat anders te kiezen dan is de kans veel minder groot dat je een miskoop doet, naar mijn inzicht. Hoop dat je er wat aan hebt. :)

  • Q
  • Registratie: November 1999
  • Laatst online: 00:21
Ik denk dat de keuze van software raid belangrijk is voor de flexibiliteit, of je nu BSD of Linux gebruikt. Zeker voor thuisgebruik bespaart je dat ook een dure hardware controllel die vervolgens ook nog kieskeurig is over de schijven die je er in stopt. Ik draair een array met de beruchte samsung spinpoint F1 schijven die menig array om zeep hebben geholpen in hardware raid setups. Met software raid niets aan de hand. Ik durf te wedden dat onder BSD het ook prima werkt.

Wat BER betreft, ik ken de rekensommen maar nu is de vraag of het in de praktijk ook een issue is. Begrijp me niet verkeerd, ik had liever ook een slimmer FS die daar mee overweg kan ipv een hele disk er uit te gooien.

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 22-12 11:58

Ravefiend

Carpe diem!

Verwijderd schreef op dinsdag 01 maart 2011 @ 01:30:
ZFS is vooral geheugen-intensief. De performance schaalt met het aantal GB RAM dat je toevoegt. 1 of 2 GB RAM per schijf is de maatstaf. 16GB RAM is dus high-performance met 8 of 10 schijven in RAID-Z1/2; 8GB RAM is degelijke performance met hetzelfde aantal schijven, 4GB gaat je snelheid redelijk inzakken en 2GB is er niet veel meer van over. Maar met 4 schijven is 2GB RAM nog wel te doen.
...
Mijn inziens, gezien het feit dat ZFS erop gemaakt is om geheugen te gebruiken als cache, lijkt het mij optimaal om te opteren voor RAIDZ(2) met voldoende geheugen (8GB). Opteer bv. voor een mATx mb met een H67 dewelke max. 32GB aan kan. Lijkt me voldoende future proof. Q maakt ook een goed punt dat dit topic meer afdrijft naar een promotie campagne voor ZFS doch kan je niet ontkennen dat voor diegene die uit zijn op maximale data protection hier toch het beste mee zullen zijn, zeker in combinatie met FreeNAS. Laat ik mezelf, voor alle duidelijkeid, in die categorie plaatsen... :+

Back to ZFS en RAIDZ2. De laatste dagen al erg veel doorgelezen doch zie ik door het bos de bomen niet meer. Het doel is max. performance en netto diskspace boeit me minder. Ben ik correct in mijn conclusie dat het beter is om 2 vdevs met minder disks (4) te nemen dan alles in 1 vdev (8 disks)?

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Uh, in welk systeem is ZFS sneller dan Software MD RAID? ZFS is vele malen veiliger, maar door die checks lijkt het mij echt niet sneller...
Ik haal toch echt 150% meer performance met Software Linux RAID dan met ZFS :)

Bovendien is FreeBSD leuk, maar heeft toch echt een kleinere community dan Linux (ja, ik weet dat veel software gewoon werkt onder BSD, maar lang niet alles). Dat vind ik persoonlijk een groot nadeel.

(De ware reden dat ik geen ZFS gebruik, is dat elk OS dat ZFS heeft, geen VMXNET ondersteuning heeft, en ik dus met 1Gbit e1000 opgescheept zit...)

Even niets...


  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
Verwijderd schreef op dinsdag 01 maart 2011 @ 00:06:
[...]
De oude EARS is heel erg slecht; vier keer zo langzaam met emulatie dan een Samsung F4. De nieuwere EARS is een stuk sneller wanneer hij kleinere sectors moet emuleren, en sowieso al sneller vanwege 666GB platters dus hogere datadichtheid bij zelfde rpm = hogere sequentiele snelheid. Maar nog steeds lager dan de F4 die op 5400rpm tot 140MB/s kan halen; zeker niet slecht!

Qua stroomverbruik doet de Samsung F4 3.5W; de oude EARS en EADS zitten daar duidelijk boven, maar verschil met de EARS 3-platter zou klein moeten zijn. Ik denk niet dat je kunt stellen dat EARS zuiniger is dan de Samsung F4.
De WD20EARS schijven die je nu koopt zijn de nieuwe versie. Je kunt dit onder andere aan de printplaat zien. Overigens heeft Samsung blijkbaar nog altijd de oude specs op de site staan. Ze geven namelijk aan dat de schijf in idle 5.1W zou verbruiken. Maar ik kom inderdaad testjes tegen waarin de schijf 3.7W zou verbruiken, misschien ook wel 3.5. Daarom dacht ik dat de WD20EARS zuiniger is, aangezien die 3.7W verbruikt in idle, ook volgens de specs van WD.
Nee, als je ZFS wilt draaien moet je kiezen tussen Solaris en FreeBSD, of een van de vele varianten hiervan (NexentaStor of FreeNAS).
Ik doelde op kFreeBSD. "Debian GNU/kFreeBSD is a port that consists of GNU userland using the GNU C library on top of FreeBSD's kernel, coupled with the regular Debian package set."
Dat probleem is er nog meer met FreeNAS toch? Omdat FreeNAS niet een volledige FreeBSD installatie is, maar 'stripped down', kun je niet zomaar uitbreiden. Bij ZFSguru kan dat wel omdat het een normale volledige FreeBSD installatie in zit. Als ik het goed heb begrepen.
FreeNAS heeft diverse zaken onboard die menigeen op een NAS gebruikt, zoals rsync, ftp, torrent, ... Het is een vinkje aanzetten, wat instellingen doorvoeren en gaan. Als je minder standaard zaken wil doen dan is FreeBSD absoluut de betere keuze. (Of als je, zoals ik, wil weten waar het systeem mee bezig is, voor het geval er toch iets fout gaat en je GUI niet werkt.)
Er komt een nieuwe installer, de huidige sysinstall is echt superoud en doet FreeBSD ouderwets lijken, terwijl veel technologie erg modern is en bijvoorbeeld naar de Linux kernel en projecten als MySQL en Firefox is geport.
Ouderwets lijken is geen punt. Debian zet vanaf 6 een iets moderner uitziende installer uit, maar het blijft wat gedateerd. Debian 5 doet denken aan de FreeBSD installer, maar dat maakt mij niet uit. Het probleem is dat de installer van FreeBSD bij harde schijven moeilijker doet dan Debian. Je moet daarbij meer dingen doen.
Maar je kunt ook mfsBSD gebruiken die een mooie Root-on-ZFS installatie kan uitvoeren, 100% ZFS dus. En ZFSguru kan dat ook, maar dan installeer je ook extra dingen die al voorgeïnstalleerd zijn, maar je kunt het wel verder uitbreiden dat heb ik zelf getest.
Ik moet nog even kijken hoe ver ZFSguru nu is, de vorige keer kon je het nog niet echt inzetten als NAS omdat de upgrade alleen al een verse installatie vereiste. Maar ik ga er vanuit dat het inmiddels al een stuk meer productieklaar is. (Mits je niet de experimentele tak neemt.)

De CSL/OT kroeg !


  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 22-12 11:58

Ravefiend

Carpe diem!

Dadona schreef op dinsdag 01 maart 2011 @ 10:05:
[...]
Ik moet nog even kijken hoe ver ZFSguru nu is, de vorige keer kon je het nog niet echt inzetten als NAS omdat de upgrade alleen al een verse installatie vereiste. Maar ik ga er vanuit dat het inmiddels al een stuk meer productieklaar is. (Mits je niet de experimentele tak neemt.)
Even gekeken op http://zfsguru.com/doc/limitations en daar lees je:
  • Missing feature: Error recovery; replacing failed devices.
  • Missing feature: Hot spares.
Game over voor ZFSguru, en weer terug naar FreeNAS et al. :)

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Holy crap:

Ik zie hier een pareltje :)

http://www.plugloadsoluti...OS%202411_300W_Report.pdf

http://www.plugloadsoluti...sDetail.aspx?id=27&type=2
Even onderaan kijken bij Platinum gecertificeerde 300W voeding :)

[ Voor 40% gewijzigd door FireDrunk op 01-03-2011 11:21 ]

Even niets...


  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
Verwijderd schreef op dinsdag 01 maart 2011 @ 00:06:
F4 is een 666GB platter schijf. De WD20EARS komt in twee versies: de oude met 4x500GB platters en nieuwe met 3x666GB platters. Beide zijn 4K sector schijven, net als de Samsung F4. De WD20EADS is een 512-byte sector schijf, met 4x500GB platters.
Hoe kan ik zien welke versie van de EARS een webwinkel verkoopt? Overigens bedankt voor je uitgebreide antwoorden CiPHER. Top.

Verwijderd

na veel in dit topic gelezen te hebben toch besloten om dit x geen kant en klaar nas doosje te kopen, maar de 'tweaker way', vallen en opstaan.
doel : uiteindelijk een ubuntu (ofzo) software raid6 met 8st. 2TB disks in een norco RPC-2208 rackmount waarvan 1 st. hotspare ( dus pakweg 10 TB )

nou weet ik niets van mdadm en weinig van linux dus vraag ik mij het volgende af :

ik heb nog een ASUS P5W dh DeLuxe MOBO met 1 st. pc-E X 4 slot/ 4 GB / c2d 6600
als ik daar nou is een HighPoint 2680 kaart inprik (sas 8x) is het dan mogelijk om via die kaart, via 2 kabeltjes, via uhhh.. 8 usb sticks aan te sluiten om eea te simuLEREN ?
dus sata2 -> usb en dat maal 8 kan dat /bestaat dat ? ..

of een andere manier om te kunnen oefenen/leren voordat ik in het diepe duik :?


(zoiets moet het worden :*) > http://www.vidabox.com/products_rack24.php )

[ Voor 5% gewijzigd door Verwijderd op 01-03-2011 16:57 ]


  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
Dan de hamvraag...waar koop je dit ding?

Verwijderd

@Moondust: als je nu een nieuwe EARS koopt dan krijg je denk ik de 3-platter; tenzij ze echt oude voorraden hebben liggen maar in dat geval kun je de schijf met 7 dagen bedenktijd weer inruilen.

@borroz
Ik zie dat je moederbord twee keer een PCI-express x16 slot heeft en twee keer een PCI-express x1 slot; geen x4 slot zoals je noemde. Heb ik het goede moederbord bekeken? ASUS P5WDH Deluxe.

Wat je zeker weten niet moet doen wanneer je een software RAID configuratie onder Linux/BSD maakt, is een RAID controller kopen. Als je dat doet heb je ook RAID edition hardeschijven nodig, en is de betrouwbaarheid van je array een heel stuk minder. Continu uitvallende schijven die uit de array vallen; dat wil je nu juist vermijden!

Pas dus op met kant en klare kasten met expander of RAID controller erin; doe dat niet! Koop zelf je controller en sluit losse disks aan. Gebruik van mini-SAS kabels is prima, maar je moet wel even kijken dat er niet stiekem een expander inzit die je snelheid omlaag rukt en voor problemen kan zorgen. Ik zou gaan voor een probleemvrije oplossing met normale desktop schijven zonder TLER; dat is juist het voordeel van software RAID onder Linux/BSD.

Wat wel werkt is een HBA controller. Intel SASUC8i is een goede allround keuze. Deze heeft twee mini-SAS kabels (apart kopen!) waarmee je tot 8 Serial ATA hardeschijven kunt aansluiten. Ook raad ik aan geen Expanders of Port Multipliers te gebruiken maar gewoon meerdere controllers. Met 8 schijven op de HBA en 6 op je moederbord heb je plek voor 14 schijven of 10 schijven in je main array + nog wat losse disks voor OS of whatever.

Als je wilt uitproberen, waarom begin je dan niet met Virtualbox ofzo; gewoon verschillende projecten vergelijken meeste hebben een .iso image die kun je zo booten in een Virtualbox omgeving en uitproberen voordat je iets koopt of aan iets vastzit. Kan het je zeker aanraden.

Als je voor Linux gaat met software RAID is RAM niet zo belangrijk; 2GB is eigenlijk al ruim zat dan. Ga je iets als ZFS gebruiken dan heb je een relatief veel te sterke CPU voor de hoeveelheid RAM. ZFS is vooral handig als je een nieuw systeem gaat kopen dan is de hardware die geschikt is voor ZFS veel goedkoper.

Dus Linux software RAID is prima om mee te beginnen; maar dan draai je wel een algemeen Linux OS ipv een NAS-specifieke distro. Je kunt bijvoorbeeld OpenMediaVault proberen dat is van de vroegere FreeNAS makers en is gebaseerd op Linux.

[ Voor 10% gewijzigd door Verwijderd op 01-03-2011 17:38 ]


Verwijderd

Verwijderd schreef op dinsdag 01 maart 2011 @ 17:34:

@borroz
Ik zie dat je moederbord twee keer een PCI-express x16 slot heeft en twee keer een PCI-express x1 slot; geen x4 slot zoals je noemde. Heb ik het goede moederbord bekeken? ASUS P5WDH Deluxe.
oeps.. je hebt helemaal gelijk.. 8)7 ik heb helegaar geen pci-e x4 slot.. dus moet ik nu toch een nieuw mobo aan gaan schaffen om zo'n sas kaart te kunnen gaan gebruiken (of kan ik iets met dat x16 slot).

dat van die sas kaartjes had ik min of meer wel begrepen.. 2 aansluitingen die dan met kabeltjes naar 8 sata2 disks gaan.. ik had de Supermicro AOC-SASLP-MV8 in gedachten, maar nu blijkt dat ik geen pci-e x4 heb moet ik daar nog is over denken.

bedankt voor de info in ieder geval.. alleen dat simuleren , raid expansion/hot spare/ er valt een disk uit de array ect. kan je dat dan ook virtueel doen ??

  • DARKLORD
  • Registratie: December 2000
  • Laatst online: 26-11 22:40
Verwijderd schreef op dinsdag 01 maart 2011 @ 17:34:


Dus Linux software RAID is prima om mee te beginnen; maar dan draai je wel een algemeen Linux OS ipv een NAS-specifieke distro. Je kunt bijvoorbeeld OpenMediaVault proberen dat is van de vroegere FreeNAS makers en is gebaseerd op Linux.
OpenMediavault is er nog niet... er zit er ook voorlopig nog niet aan te komen.
FreeNAS 0.7 kan je proberen. Of de hergeschreven versie 0.8 welke nu RC2 als laatste versie heeft.

Verwijderd

DARKLORD schreef op dinsdag 01 maart 2011 @ 18:06:
[...]


OpenMediavault is er nog niet... er zit er ook voorlopig nog niet aan te komen.
FreeNAS 0.7 kan je proberen. Of de hergeschreven versie 0.8 welke nu RC2 als laatste versie heeft.
stom..natuurlijk zo kan het ook, ben gelijk bezig :)

Afbeeldingslocatie: http://img7.imageshack.us/img7/6039/testings.jpg

Verwijderd

Verwijderd schreef op dinsdag 01 maart 2011 @ 17:51:
[...]
oeps.. je hebt helemaal gelijk.. 8)7 ik heb helegaar geen pci-e x4 slot.. dus moet ik nu toch een nieuw mobo aan gaan schaffen om zo'n sas kaart te kunnen gaan gebruiken (of kan ik iets met dat x16 slot).
Past prima in je x16 slot. Ook x4 en x1 kaartjes.

Overigens of je er van kunt booten hangt af van je moederbord/BIOS. Maar als je boot van de onboard chipset SATA heb je dat potentiële probleem ook niet meer.
ik had de Supermicro AOC-SASLP-MV8 in gedachten, maar nu blijkt dat ik geen pci-e x4 heb moet ik daar nog is over denken.
Die controller kun je beter niet nemen, gebaseerd op Marvell controller en die werkt niet overal goed; hoor er veel slechte verhalen over.
bedankt voor de info in ieder geval.. alleen dat simuleren , raid expansion/hot spare/ er valt een disk uit de array ect. kan je dat dan ook virtueel doen ??
Expansion en hot spare kun je simuleren. Maar dat non-TLER schuiven uit hardware arrays vallen kun je alleen met echte hardware testen (disk moet Current Pending Sector hebben; en dan die sector lezen).
DARKLORD schreef op dinsdag 01 maart 2011 @ 18:06:
OpenMediavault is er nog niet... er zit er ook voorlopig nog niet aan te komen.
Je hebt gelijk. :/
FreeNAS 0.7 kan je proberen. Of de hergeschreven versie 0.8 welke nu RC2 als laatste versie heeft.
0.7 zit veel functionaliteit in maar is gebaseerd op oudere FreeBSD releases en dus slechtere hardware compatibility. FreeBSD 0.8 is wel 8.2-RELEASE dus recent; maar nog een RC. Wel mooie interface! Maar een nadeel met FreeNAS vind ik dat het moeilijk is uit te breiden. Veel FreeBSD-dingen zijn eruit gestript en dat maakt iets als een portstree opzetten en nieuwe software toevoegen lastig. Hopelijk kunnen ze dat verbeteren in FreeNAS 0.8; die nu door iX systems wordt ontwikkeld dus andere ontwikkelaars.

Geen van alle ZFS distro's zijn écht geweldig, en allemaal hebben ze hun eigen voordelen en nadelen. Gewoon Virtualbox opzetten en een beetje proeven, zou ik zeggen!

  • 0rbit
  • Registratie: Maart 2000
  • Laatst online: 18-03-2021
Ben ik nou gek of betreft het bij de Platinum gecertificeerde voedingen alleen 115V modellen? :?

De 230V varianten doen het allemaal minder goed.

Ik ben geheel voldaan, dank u wel!


  • -Moondust-
  • Registratie: Juli 2002
  • Laatst online: 20-12 23:39
0rbit schreef op dinsdag 01 maart 2011 @ 20:05:
Ben ik nou gek of betreft het bij de Platinum gecertificeerde voedingen alleen 115V modellen? :?

De 230V varianten doen het allemaal minder goed.
Voor zover ik het begrepen heb is die 115V de interne spanning. De Input Voltage is 100V tot 240V. Prima geschikt voor gebruik in Nederland dus.

Verwijderd

zo, voorzichtig de eerste stapjes gezet met FreeNas onder VMware.

heb 8 diskjes aangemaakt en moet nu gaan formatteren.. kan ik ZFS gebruiken ? is dat al veilig, of moet ik iets anders pakken ?

en 8 virtuele diskjes 'formatteren' met UFS .. sloop ik dan niet mijn NTFS onder win7 of haal ik nu al alles door elkaar :9

verder zie ik geen raid 6 onder FreeNas ?

Afbeeldingslocatie: http://img543.imageshack.us/img543/3171/freenassie1.jpg

[ Voor 19% gewijzigd door Verwijderd op 01-03-2011 22:00 ]


  • nzyme
  • Registratie: November 2001
  • Laatst online: 19-12 20:22

nzyme

terror

heeft iemand wat ervaringen van een Atom plankje (bijv. X7SPA-HF) met Solaris/ZFS?

| Hardcore - Terror |


Verwijderd

Verwijderd schreef op dinsdag 01 maart 2011 @ 21:44:
heb 8 diskjes aangemaakt en moet nu gaan formatteren.. kan ik ZFS gebruiken ? is dat al veilig, of moet ik iets anders pakken ?
ZFS heeft veel meer mogelijkheden, zoals RAID6 (RAID-Z2).
en 8 virtuele diskjes 'formatteren' met UFS .. sloop ik dan niet mijn NTFS onder win7 of haal ik nu al alles door elkaar :9
Alles in je VM kan niet je normale windows HDD zien; je ziet alleen virtuele harde schijven; dat zijn gewoon files op je windows pc. Dus je VM kan in principe nks stukmaken op je 'host pc'.
verder zie ik geen raid 6 onder FreeNas ?
RAID5 met UFS is niet superveilig (wel snel), en RAID6 is er alleen voor ZFS.

@nzyme: zou eerder Zacate overwegen, maar Atom kan inderdaad ZFS doen. Grootste bezwaar is de beperking van 4GB RAM, en PCI-express is een probleem met Atom. Zacate kan 16GB (8GB in de praktijk) RAM aan en heeft SATA/600 en beter PCI-express en iets meer performance.

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 22-12 11:58

Ravefiend

Carpe diem!

Meuktip submitted: FreeNAS 8.0-RC2 Available!
http://sourceforge.net/ma...rum_name=freenas-announce

Hij staat nog niet op de homepage http://freenas.org maar wel op SF zelf.

  • nzyme
  • Registratie: November 2001
  • Laatst online: 19-12 20:22

nzyme

terror

Verwijderd schreef op woensdag 02 maart 2011 @ 00:29:
@nzyme: zou eerder Zacate overwegen, maar Atom kan inderdaad ZFS doen. Grootste bezwaar is de beperking van 4GB RAM, en PCI-express is een probleem met Atom. Zacate kan 16GB (8GB in de praktijk) RAM aan en heeft SATA/600 en beter PCI-express en iets meer performance.
de grap met dat SM plankje is nu juist dat daarop een ICH9 zit, 6x SATA en 2x Intel gbit. Voor een thuis omgeving is 4GB als limiet toch wel te doen hoop ik... Als ik 1gbit vol kan trekken met daarachter een ZFS pool (4x2TB in raidz) ben ik tevreden :)

| Hardcore - Terror |


  • KennieNL
  • Registratie: Mei 2007
  • Laatst online: 30-11 11:18
Ik draai nu al een een tijdje 3 x 1TB in RAID5 op Ubuntu via mdamd.

Nu doe ik af een toe een check op mn raidset (echo check /sys/block/md0/md/sync_action), maar als ik dit doe loopt mn log redelijk vol foutmeldingen:
[2985736.909943] ata4.00: failed command: READ FPDMA QUEUED
[2985736.913847] ata4.00: cmd 60/08:68:37:1d:36/00:00:38:00:00/40 tag 13 ncq 4096 in
[2985736.913848] res 40/00:2c:37:1f:36/00:00:38:00:00/40 Emask 0x1 (device error)
[2985736.921664] ata4.00: status: { DRDY }
[2985736.925576] ata4.00: failed command: READ FPDMA QUEUED
[2985736.929435] ata4.00: cmd 60/f8:70:3f:1f:36/00:00:38:00:00/40 tag 14 ncq 126976 in
[2985736.929437] res 40/00:2c:37:1f:36/00:00:38:00:00/40 Emask 0x1 (device error)
[2985736.937293] ata4.00: status: { DRDY }
[2985736.941188] ata4.00: failed command: READ FPDMA QUEUED
[2985736.945095] ata4.00: cmd 60/08:78:37:20:36/00:00:38:00:00/40 tag 15 ncq 4096 in
[2985736.945098] res 40/00:2c:37:1f:36/00:00:38:00:00/40 Emask 0x1 (device error)
[2985736.952957] ata4.00: status: { DRDY }
[2985736.957788] ata4.00: both IDENTIFYs aborted, assuming NODEV
[2985736.957791] ata4.00: revalidation failed (errno=-2)
[2985736.961618] ata4: hard resetting link
[2985737.492527] ata4: softreset failed (device not ready)
[2985737.496434] ata4: applying SB600 PMP SRST workaround and retrying
[2985737.672544] ata4: SATA link up 3.0 Gbps (SStatus 123 SControl 300)
[2985737.678997] ata4.00: SB600 AHCI: limiting to 255 sectors per cmd
[2985737.685504] ata4.00: SB600 AHCI: limiting to 255 sectors per cmd
[2985737.685508] ata4.00: configured for UDMA/133
[2985737.685580] ata4: EH complete
.....
etc.

Nu weet ik dat er altijd badblocks etc op een disk zitten, maar toch baat ik me zorgen bij als ik dit soort meldingen zie.

Volgens SMART zijn mn disken nog OK, alleen de Hardware_ECC_Recovered zijn op alle 3 disken erg hoog.


Wat zou ik nog meer kunnen controleren om zeker te weten dat mn RAID set nog goed is?
En is het verstandig om af en toe een repair uit te voeren ipv een check.

  • EagleClaw
  • Registratie: Oktober 2010
  • Laatst online: 03-09 18:55
Hoi iedereen,

Ter vervanging/uitbreiding van mijn QNAP TS-209 zoek ik een diy NAS die ik in de toekomst makkelijk kan uitbreiden. Belangrijk voor mij is een erg stil systeem, replicatie/backup mogelijkheden naar mijn huidige QNAP. Voornaamste gebruik is het streamen naar WD TV, Apple TV, XBMC, ... en als fileserver.
Ik denk het simpel te houden en met NFS volumes te werken vanuit Windows Server 2008 R2 (heb nog een licentie liggen) of een Linux variant (Ubuntu).

Ik had al de volgende onderdelen in gedachten:

#ProductPrijsSubtotaal
1Fractal Design Define R3 (Zwart)€ 87,58€ 87,58
1Cooler Master Hyper 212 Plus€ 21,95€ 21,95
1Nexus Real Silent D12SL-12 BW, 120mm€ 5,75€ 5,75
1AMD Athlon II X3 450€ 58,91€ 58,91
1Nexus Value 430€ 51,50€ 51,50
1Kingston ValueRAM KVR1333D3N9K2/4G€ 36,90€ 36,90
1Asrock 880GMH/USB3 R2.0€ 64,90€ 64,90
Bekijk collectie
Importeer producten
Totaal€ 327,49


Verder dacht ik aan de Samsung F4 schijven icm de onboard RAID en evt de goedkoopste SSD/laptop HDD voor OS.
Voor mij zijn er nog bepaalde gebieden waar verbetering vatbaar is en waar ik graag jullie menig over had geraadpleegd...
  • PSU heb ik gekozen uit stilte-overwegingen, maar ik merk nu dat er slechts 4 SATA aansluitingen zijn voorzien...
  • 5xSATA (dus 1x OS4 en 4x Storage) op het mobo is niet echt bepaald future-proof voor een NAS, zeker als je RAID mee in het plaatje betrekt..
  • Bestaat er Software die incremental backup doet voor de "belangrijke data" naar de QNAP?
  • Voorstellen voor goedkope, kleine SSD?
  • Alle opmerkingen welkom..
Alvast bedankt!

Verwijderd

KennieNL schreef op woensdag 02 maart 2011 @ 10:25:
Ik draai nu al een een tijdje 3 x 1TB in RAID5 op Ubuntu via mdamd.

Nu weet ik dat er altijd badblocks etc op een disk zitten, maar toch baat ik me zorgen bij als ik dit soort meldingen zie.

Volgens SMART zijn mn disken nog OK, alleen de Hardware_ECC_Recovered zijn op alle 3 disken erg hoog.
Dat is onschuldig; zonder ECC kunnen hardeschijven bijna niets meer lezen. Kun je de info uit je SMART ergens integraal posten? Liefst van al je disks.

smartctl -A /dev/sda/b/c output is voldoende.

Verwijderd

Verwijderd schreef op dinsdag 01 maart 2011 @ 21:44:
zo, voorzichtig de eerste stapjes gezet met FreeNas onder VMware.

heb 8 diskjes aangemaakt en moet nu gaan formatteren.. kan ik ZFS gebruiken ? is dat al veilig, of moet ik iets anders pakken ?

en 8 virtuele diskjes 'formatteren' met UFS .. sloop ik dan niet mijn NTFS onder win7 of haal ik nu al alles door elkaar :9

verder zie ik geen raid 6 onder FreeNas ?

[afbeelding]
Je gaat ZFS op virtueele VMWare disks laten acteren? het kan, dat is niet het punt, maar het lijkt mij wat vreemd.

Heb je dan meerdere van deze virtueele disks op 1 fysieke disks staan of heb je 8 fysieke disks en op elke disk precies 1 virtueele VMware disk gemaakt? In het eerste geval creer je nogal wat extra risico dat door het kapot gaan van 1 fysieke disks meerdere virtueele disks kapot gaan en ZFS mogelijk ook niet meer kan helpen.

In het tweede geval creer je a) wat overhead door alle disk access via VMWare te laten lopen en b) disks met native ZFS er op kun je ieder moment in een andere pc hangen, nu er de VMWare filesystem ook nog op staat is dat niet 1-2-3 mogelijk....

Voor precies dit geval heb ik dus naast de SATA aansluiting op het moederbord nog een tweede SATA controler in een PCI poort gestopt. Met PCI passthrough krijgt de VM directe toegang tot de disc om daar direct met ZFS aan de gang te gaan.

O ja, als je met ZFS gaat werken is het onnodig om de 8 disks met UFS te formateren, ZFS is namelijk naast storage systeem ook een bestandssyteem a la UFS.

[ Voor 5% gewijzigd door Verwijderd op 02-03-2011 15:25 ]


  • KennieNL
  • Registratie: Mei 2007
  • Laatst online: 30-11 11:18
Verwijderd schreef op woensdag 02 maart 2011 @ 15:16:
[...]

Dat is onschuldig; zonder ECC kunnen hardeschijven bijna niets meer lezen. Kun je de info uit je SMART ergens integraal posten? Liefst van al je disks.

smartctl -A /dev/sda/b/c output is voldoende.
Disk 1:
http://yourpaste.net/7634/

Disk 2:
http://yourpaste.net/7635/

Disk 3:
http://yourpaste.net/7636/

Verwijderd

EagleClaw schreef op woensdag 02 maart 2011 @ 11:00:
Hoi iedereen,

kipperde knip.....
  • PSU heb ik gekozen uit stilte-overwegingen, maar ik merk nu dat er slechts 4 SATA aansluitingen zijn voorzien...
  • Bestaat er Software die incremental backup doet voor de "belangrijke data" naar de QNAP?
Alvast bedankt!
PSU SATA: er bestaan verloop stekkers van 4 pens molex naar sata
Backup: google is your friend en ik zat recent zelf 'bacula' te bestuderen.

Verwijderd

nzyme schreef op woensdag 02 maart 2011 @ 08:40:
de grap met dat SM plankje is nu juist dat daarop een ICH9 zit, 6x SATA en 2x Intel gbit. Voor een thuis omgeving is 4GB als limiet toch wel te doen hoop ik... Als ik 1gbit vol kan trekken met daarachter een ZFS pool (4x2TB in raidz) ben ik tevreden :)
Ken het bordje en is voor Linux software RAID prima, maar voor ZFS zou ik hem laten liggen.

Zacate is op veel punten gewoon beter:
  • Lager idle power consumption (sommige sources zeggen de helft van Atom; tot 10W idle verbruik)
  • 6x SATA/600 AHCI/TRIM capable slots zijn erg sexy om later een SSD als L2ARC/ZIL aan je pool te hangen
  • PCI-express is 2.0 ipv 1.0 (beide x4 lanes)
  • Geen duur SO-DIMM DDR2 geheugen maar goedkoop desktop DDR3 geheugen en kan 8GB aan ipv 4GB limiet voor Atom
  • Extra's als USB 3 kunnen leuk zijn voor de toekomst; een high-speed USB stick die je als L2ARC gebruikt bijvoorbeeld.
Tenzij je echt grote bezwaren ziet lijkt me Zacate + 8GB DDR3 RAM voor een ZFS setup vele malen beter. Als je er toch 4GB in wilt gooien, stop er dan een enkele module in van 4GB zodat je later nog kunt uitbreiden. Dit lukt natuurlijk niet met het Atom bordje.

Verwijderd

6 ACTIEVE bad sectors dus héél veel problemen met deze schijf:
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 6

En één cable error wat niet zo erg is.
9 current pending sectors; ouch!
Wéér een. Dus op al je disks zitten bad sectors die nog NIET omgewikkeld zijn met een reserve sector. Dat gebeurt pas als je naar die sectoren schrijft. ZFS doet dat automatisch met een redundante array; mdraid onder Linux dacht ik niet. Wat je kunt proberen is een scrub/rebuild beginnen en kijken of de Current Pending Sector dan weggaat. Maar dit zijn dus problemen waardoor onder Windows onboard RAID of Hardware RAID je schijven uit de array geflikkerd zouden worden!

  • KennieNL
  • Registratie: Mei 2007
  • Laatst online: 30-11 11:18
Verwijderd schreef op woensdag 02 maart 2011 @ 15:56:
[...]

6 ACTIEVE bad sectors dus héél veel problemen met deze schijf:
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 6

En één cable error wat niet zo erg is.


[...]

9 current pending sectors; ouch!


[...]

Wéér een. Dus op al je disks zitten bad sectors die nog NIET omgewikkeld zijn met een reserve sector. Dat gebeurt pas als je naar die sectoren schrijft. ZFS doet dat automatisch met een redundante array; mdraid onder Linux dacht ik niet. Wat je kunt proberen is een scrub/rebuild beginnen en kijken of de Current Pending Sector dan weggaat. Maar dit zijn dus problemen waardoor onder Windows onboard RAID of Hardware RAID je schijven uit de array geflikkerd zouden worden!
Zijn de disken, als de sectors verwerkt zijn, wel verder nog betrouwbaar?

Ik ga vannacht een repair via mdadm aanslingen, kijken wat het doet

[ Voor 3% gewijzigd door KennieNL op 02-03-2011 16:29 ]


Verwijderd

Ja een paar bad sectors zegt in principe niets over of je disk nu op sterven staat of nog 10/20 jaar mee kan. Bad sectors komen ook relatief vaker voor op schijven met hoge datadichtheid, zoals 2TB disks. Met een duur woord wordt dit uBER - uncorrectable Bit-Error-Rate - genoemd. Dit is de snelheid waarmee bad sectors worden ontwikkeld; sectoren waarvan de inhoud niet meer bepaald kan worden zelfs niet met ECC (Error Correcting Code) die enkele bit errors kan repareren. Bij teveel schade kan de ECC niets meer met de data en heb je dus een pending sector.

Zodra je schrijft naar deze sector, zal de current pending sector in de SMART output verdwijnen. De hardeschijf wisselt de bad sector dan om met een reserve sector. In dat geval zie je Reallocated Sector Count stijgen per omgewisselde sector. Echter, het kan zijn dat er helemaal geen fysieke schade aan die sector is maar simpelweg een ECC probleem; dan zal de sector gewoon in gebruik blijven en niet omgewisseld worden.

Dat een schijf er plotsplak mee ophoudt kent hele andere oorzaken en staat hier eigenlijk los van. Het probleem is vooral dat veel RAID engines niet om weten te gaan met dit soort Current Pending Sectors; en onder Hardware RAID en Windows onboard RAID zouden je schijven nu allang uit de array getrapt zijn. Gelukkig is Linux vriendelijker, maar hij repareert de schade dus niet automatisch, zoals ZFS dat doet.

Je kunt het handmatig doen, of je kunt iets als Spinrite gebruiken (commerciëel) wat de inhoud van de sectoren kan proberen te herstellen, zonder dataverlies dus. Als je de data niet meer nodig hebt is een zero-write op je disks te oplossing om de schade te repareren; dat moet altijd werken. Na de zero-write moet de Current Pending Sector op 0 staan.

Verwijderd

Verwijderd schreef op woensdag 02 maart 2011 @ 15:21:
[...]


Je gaat ZFS op virtueele VMWare disks laten acteren? het kan, dat is niet het punt, maar het lijkt mij wat vreemd.

Heb je dan meerdere van deze virtueele disks op 1 fysieke disks staan of heb je 8 fysieke disks en op elke disk precies 1 virtueele VMware disk gemaakt? In het eerste geval creer je nogal wat extra risico dat door het kapot gaan van 1 fysieke disks meerdere virtueele disks kapot gaan en ZFS mogelijk ook niet meer kan helpen.

In het tweede geval creer je a) wat overhead door alle disk access via VMWare te laten lopen en b) disks met native ZFS er op kun je ieder moment in een andere pc hangen, nu er de VMWare filesystem ook nog op staat is dat niet 1-2-3 mogelijk....

Voor precies dit geval heb ik dus naast de SATA aansluiting op het moederbord nog een tweede SATA controler in een PCI poort gestopt. Met PCI passthrough krijgt de VM directe toegang tot de disc om daar direct met ZFS aan de gang te gaan.

O ja, als je met ZFS gaat werken is het onnodig om de 8 disks met UFS te formateren, ZFS is namelijk naast storage systeem ook een bestandssyteem a la UFS.
Puur om is te kijken hoe je FreeNAS in kan stellen.. dus eigenlijk gewoon een simulatie van wat ik straks wil gaan bouwen.
Ik kan er eventueel nog wel een diskje aanhangen maar snelheid en omvang maken op dit moment niets uit.

Afbeeldingslocatie: http://img856.imageshack.us/img856/3866/zfs1.jpg

mijn eerste virtuele ZFS diskje werkt ... :'(
al zoekende hoe ik raid 6 met freenas ZFS in kan stellen (niet gevonden) las ik dit :

' Played with different ZFS layout yesterday with my 6 1TB drives

a. Raidz1
b. Raidz2
c. dynamic stripe over 3 pairs of mirrors
d. dynamic stripe over 6 individual drive

a. b. and c. have similar performance write/read 140/300+ Mbyte/s
d. has best write/read performance 224/550 Mbyte/s'

en dit : Does RAID 6 stop working in 2019 ? :X

Verwijderd

Dat klopt inderdaad wel; RAID5 is vandaag de dag eigenlijk al te onveilig. Dat komt door uBER:

1) je draait een RAID5, na een maand gaat één disk helemaal kaduuk
2) niets aan de hand toch? rebuilden met een nieuwe disk
3) gedurende de rebuild komt er een Pending Sector zoals hierboven voorbij; de schijf wordt uit de array geknikkerd (tenzij je TLER hebt) en hoe dan ook je rebuild zal stoppen; er is geen redundante data beschikbaar om de rebuild door te laten gaan. Theoretisch kan de RAID engine die bad sector skippen; maar ik denk dat heel veel implementaties dat dus niet doen en zich stukbijten.
4) geen toegang meer tot data; recovery mogelijk maar ingewikkeld en makkelijk om hierbij fouten te maken

ZFS is hier echter immuun voor:
1) je hebt geen TLER/CCTL/ERC disks nodig als je een non-RAID controller (HBA) gebruikt
2) onleesbare sectoren bij ZFS worden automatisch gerepareerd tenzij er geen redundancy over is
3) zoals in bovenstaand voorbeeld een degraded RAID-Z met een bad sector op een van de resterende schijven, dan is alleen een bepaalde file stuk; welke kun je precies zien met zpool status -v output.
4) in tegenstelling tot andere filesystems zoals NTFS/Ext3/4 heeft ZFS altijd redundante metadata zelfs op een single disk. Dus hooguit files kunnen stuk gaan, maar nooit de metadata zelf, tenzij je echt ernstige meervoudige gaten hebt waarbij alle kopiën (ditto blocks) van essentiële metadata onbeschikbaar zijn.

Simpel gezegd: ZFS is een stuk beter bewapend tegen uBER en daarom vrijwel immuun tegen de effecten daarvan, zoals uitgelegd in dat artikel.

Verwijderd

klopt het dat je niet vanuit de webgui raid 6 (raidz2) in kan stellen op freenas maar dat je zoiets moet gaan doen :
http://www.zfsbuild.com/2010/06/03/howto-create-raidz2-pool/ O-)


* en bedankt voor je heldere uitleg telkens, denk dat er veel mensen wat van opsteken (ik in ieder geval wel)
ben wel niet helemaal een ict noob, maar dat storage gebeuren is wel weer een vak apart _/-\o_

[ Voor 36% gewijzigd door Verwijderd op 02-03-2011 18:04 ]


Verwijderd

RAID-Z2 moet ook met FreeNAS 0.8RC2 kunnen, of heb je met de oude geprobeerd? Beter via de GUI doen, omdat die de disks formatteert zoals FreeNAS misschien wilt.

  • nzyme
  • Registratie: November 2001
  • Laatst online: 19-12 20:22

nzyme

terror

Verwijderd schreef op woensdag 02 maart 2011 @ 15:52:
[...]

Ken het bordje en is voor Linux software RAID prima, maar voor ZFS zou ik hem laten liggen.

Zacate is op veel punten gewoon beter:
  • Lager idle power consumption (sommige sources zeggen de helft van Atom; tot 10W idle verbruik)
  • 6x SATA/600 AHCI/TRIM capable slots zijn erg sexy om later een SSD als L2ARC/ZIL aan je pool te hangen
  • PCI-express is 2.0 ipv 1.0 (beide x4 lanes)
  • Geen duur SO-DIMM DDR2 geheugen maar goedkoop desktop DDR3 geheugen en kan 8GB aan ipv 4GB limiet voor Atom
  • Extra's als USB 3 kunnen leuk zijn voor de toekomst; een high-speed USB stick die je als L2ARC gebruikt bijvoorbeeld.
Tenzij je echt grote bezwaren ziet lijkt me Zacate + 8GB DDR3 RAM voor een ZFS setup vele malen beter. Als je er toch 4GB in wilt gooien, stop er dan een enkele module in van 4GB zodat je later nog kunt uitbreiden. Dit lukt natuurlijk niet met het Atom bordje.
ik heb nog 2x 1GB liggen, dat is vooral een belangrijke motivatie... pci-express gebruik ik verder niet, de 2 onboard gbit poorten zijn prima. Er zit 4x sata300 op en 2x sata600, qua disks wil ik 3x2TB in raidz en 2x een 2.5" 7200 toeren disk in mirror gebruiken. Blijft er dus 1 sata poort over voor de toekomst. De NAS moet voor domme storage head spelen en storage bieden aan de ESX server met daarop 10 vm's die 98% idle spelen. (die gaan per NFS praten met die mirror drive van 2x 7200rpm).

Ach, misschien ga ik toch nog voor de Sandybridge aangezien die ook zuinig is maar dan wel sneller dan Atom/Zacate (maar minder zuinig weliswaar).

Lastig :)

| Hardcore - Terror |


Verwijderd

ICH9 is 6x SATA/300 toch? Alleen de nieuwe 6-series chipsets (Sandy Bridge) hebben 2 SATA/600, dacht ik.

Maar opzich is het een mooi bord met 2 intel NICs en 6 SATA. Mogelijk niet zo toekomstvast als andere platforms, maar voor nu is het prima spul voor een NAS. Ik denk alleen dat andere keuzes je meer vrijheid geven later nog nuttige dingen met de hardware te doen, en het niet als een verouderd platform met allemaal beperkingen waardoor je er niet meer in wilt investeren. DDR2 bijvoorbeeld zou ik nu niet meer nieuw kopen, als je het al hebt prima. Met Zacate kun je voor goedkoper DDR3 gaan, waardoor je met 8GB voor 70 euro klaar kunt zijn.

Verwijderd

de webgui van FreeNas 0.8RC2 ziet er prima uit .. :9

Afbeeldingslocatie: http://img62.imageshack.us/img62/6093/freenas08rc2webgui.jpg

  • 0rbit
  • Registratie: Maart 2000
  • Laatst online: 18-03-2021
Verwijderd schreef op woensdag 02 maart 2011 @ 22:22:
de webgui van FreeNas 0.8RC2 ziet er prima uit .. :9

[afbeelding]
Ziet eruit al een verademing. Straks maar eens testen op een extra computertje. Dan later maar overstappen en ZFS ook op mijn "productie"systeem draaien.

Ik ben geheel voldaan, dank u wel!


Verwijderd

0rbit schreef op woensdag 02 maart 2011 @ 22:40:
[...]


Ziet eruit al een verademing. Straks maar eens testen op een extra computertje. Dan later maar overstappen en ZFS ook op mijn "productie"systeem draaien.
het lukt mij niet om via de webgui een raidz aan te maken .. tis blijkbaar nog niet helemaal af 8)

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 22-12 11:58

Ravefiend

Carpe diem!

Verwijderd schreef op woensdag 02 maart 2011 @ 23:24:
[...]
het lukt mij niet om via de webgui een raidz aan te maken .. tis blijkbaar nog niet helemaal af 8)
Er is inderdaad nog een opstaande bug hierover: Ticket #145 Error when adding ZFS volume

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Verwijderd schreef op woensdag 02 maart 2011 @ 17:46:
[...]

Dat klopt inderdaad wel; RAID5 is vandaag de dag eigenlijk al te onveilig. Dat komt door uBER:

1) je draait een RAID5, na een maand gaat één disk helemaal kaduuk
2) niets aan de hand toch? rebuilden met een nieuwe disk
3) gedurende de rebuild komt er een Pending Sector zoals hierboven voorbij; de schijf wordt uit de array geknikkerd (tenzij je TLER hebt) en hoe dan ook je rebuild zal stoppen; er is geen redundante data beschikbaar om de rebuild door te laten gaan. Theoretisch kan de RAID engine die bad sector skippen; maar ik denk dat heel veel implementaties dat dus niet doen en zich stukbijten.
4) geen toegang meer tot data; recovery mogelijk maar ingewikkeld en makkelijk om hierbij fouten te maken

ZFS is hier echter immuun voor:
1) je hebt geen TLER/CCTL/ERC disks nodig als je een non-RAID controller (HBA) gebruikt
2) onleesbare sectoren bij ZFS worden automatisch gerepareerd tenzij er geen redundancy over is
3) zoals in bovenstaand voorbeeld een degraded RAID-Z met een bad sector op een van de resterende schijven, dan is alleen een bepaalde file stuk; welke kun je precies zien met zpool status -v output.
4) in tegenstelling tot andere filesystems zoals NTFS/Ext3/4 heeft ZFS altijd redundante metadata zelfs op een single disk. Dus hooguit files kunnen stuk gaan, maar nooit de metadata zelf, tenzij je echt ernstige meervoudige gaten hebt waarbij alle kopiën (ditto blocks) van essentiële metadata onbeschikbaar zijn.

Simpel gezegd: ZFS is een stuk beter bewapend tegen uBER en daarom vrijwel immuun tegen de effecten daarvan, zoals uitgelegd in dat artikel.
Je doet het nu wel echt voorkomen dat elke tweaker die RAID5 gaat gebruiker dom, stom en oerstom is.
Dat valt allemaal wel mee... Ik zie zeker in dat RAID5 niet meer van deze tijd is vanwege de grootte schijven en de risico's die dat met zich meebrengt.

Maar botweg zeggen dat bijna elke implementatie schijven eruit gooit bij bad sectors is voorbarig.
Ik heb meerdere professionele RAID implementaties in mijn handen gehad (LSI, Promise, HP, Dell, Areca) en die geven allemaal een 'Pending Error'. Zolang het device nog levert wat hij MOET leveren, zal er geen probleem zijn, maar krijg je een waarschuwing dat er een disk zeer binnenkort kapot kan gaan.

RAID6 is zeker beter en betrouwbaarder, maar ook niet heilig, dat besef ik ook wel.
Maar in de praktijk valt het allemaal wel mee. Ik heb _jaren_ een RAID5 array gehad van 4 x 500, toen 4x.1.5TB, toen 8 x 1.5TB en die is nooit helemaal onrepareerbaar geweest.

Ja ik had physical-disk-write cache aan, en nee ik had geen UPS, is dat dan slim om die factor ook nog in het spel te brengen... Nee, natuurlijk niet.

Ik heb het dus ook 1 keer gehad, dat de stroom uitviel, en ik 1 corrupte map had. Na een reboot gaf de controller keurig aan dat hij niet netjes alles weg had kunnen schrijven en dat er een aantal blocks niet goed meer waren. Na boot was er 1 directory op mijn array corrupt. (NTFS) maar niets wat GetDataBackNTFS niet kon restoren (de metadata repareren) en er waren uiteindelijk 2 files kapot ofzo. (De 2 files die op het moment van stroomuitval beschreven werden).

Is er dus een grote kans dat er iets mis gaat? Ja zeker, en al helemaal nu we richting de 5TB disks gaan.
Is dat iets waar je kostte-wat-het-kost vandaan moet blijven omdat *al* je data in vlammen opgaat? Nee

offtopic:
Thijs draait nu ook RAID6 omdat hij geen zin heeft in repareren, maar dat kost je dus wel een extra disk :)

Even niets...


  • nzyme
  • Registratie: November 2001
  • Laatst online: 19-12 20:22

nzyme

terror

Verwijderd schreef op woensdag 02 maart 2011 @ 21:11:
ICH9 is 6x SATA/300 toch? Alleen de nieuwe 6-series chipsets (Sandy Bridge) hebben 2 SATA/600, dacht ik.

Maar opzich is het een mooi bord met 2 intel NICs en 6 SATA. Mogelijk niet zo toekomstvast als andere platforms, maar voor nu is het prima spul voor een NAS. Ik denk alleen dat andere keuzes je meer vrijheid geven later nog nuttige dingen met de hardware te doen, en het niet als een verouderd platform met allemaal beperkingen waardoor je er niet meer in wilt investeren. DDR2 bijvoorbeeld zou ik nu niet meer nieuw kopen, als je het al hebt prima. Met Zacate kun je voor goedkoper DDR3 gaan, waardoor je met 8GB voor 70 euro klaar kunt zijn.
stom, natuurlijk heeft SB pas sata600 :|

wat Zacate betreft is dan alleen deze interessant:
pricewatch: Asus E35M1-M Pro
die heeft namelijk meerdere uitbreiding slots (en ik moet sowieso 1 hebben voor de Intel nic, onboard Realtech begin ik niet aan) en met maar 5x sata600 kan ik dan in de toekomst ook nog een hdd controller bijprikken. Met 118euro plus 70eu voor wat ram en 25eu voor een Intel nic kom ik dan wel ruim boven wat die SM Atom plank moet kosten... en die heeft IPMI en 2x intel :p

blijft lastig dus :)

| Hardcore - Terror |


  • KennieNL
  • Registratie: Mei 2007
  • Laatst online: 30-11 11:18
Verwijderd schreef op woensdag 02 maart 2011 @ 15:56:
[...]

6 ACTIEVE bad sectors dus héél veel problemen met deze schijf:
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 6

En één cable error wat niet zo erg is.


[...]

9 current pending sectors; ouch!


[...]

Wéér een. Dus op al je disks zitten bad sectors die nog NIET omgewikkeld zijn met een reserve sector. Dat gebeurt pas als je naar die sectoren schrijft. ZFS doet dat automatisch met een redundante array; mdraid onder Linux dacht ik niet. Wat je kunt proberen is een scrub/rebuild beginnen en kijken of de Current Pending Sector dan weggaat. Maar dit zijn dus problemen waardoor onder Windows onboard RAID of Hardware RAID je schijven uit de array geflikkerd zouden worden!
Helaas na een repair actie naar maar sync_action zijn ze nog niet weg:

Disk 1: 6 sectors
Disk 2: 7 sectors
Disk 3: 2 sectors

bij disk 2 zijn er dus 2 weg gegaan, bij disk 3 is er 1 bijgekomen |:(

Iemand nog suggesties hoe ik dit kan oplossen?

  • Dadona
  • Registratie: September 2007
  • Laatst online: 18-12 20:14
FireDrunk schreef op donderdag 03 maart 2011 @ 08:09:
[...]
offtopic:
Thijs draait nu ook RAID6 omdat hij geen zin heeft in repareren, maar dat kost je dus wel een extra disk :)
Ik heb persoonlijk zoiets dat ik op het moment zelf besluit of ik ga repareren of niet. Zo heeft mijn RAID5 array van WD10EACS schijven het (arbitraire) omslagpunt bereikt. Als daarvan een schijf kapot gaat en ik dus met een degraded array kom te zitten, dan is dat voor mij het moment om nieuwe schijven erbij te nemen. De schijven zijn dermate 'oud', klein, luidruchtig en langzaam dat tijd en de kans op een echt probleem het niet meer waard zijn.
Maar ik heb dus niet zoiets dat ik nog een extra schijf toevoeg, omdat ik gezeur / problemen vooraf wil voorkomen, als dat niet echt nodig is vanuit betrouwbaarheidsoogpunt.

[ Voor 11% gewijzigd door Dadona op 03-03-2011 09:42 ]

De CSL/OT kroeg !


  • redfoxert
  • Registratie: December 2000
  • Niet online
KennieNL schreef op donderdag 03 maart 2011 @ 08:40:
[...]


Helaas na een repair actie naar maar sync_action zijn ze nog niet weg:

Disk 1: 6 sectors
Disk 2: 7 sectors
Disk 3: 2 sectors

bij disk 2 zijn er dus 2 weg gegaan, bij disk 3 is er 1 bijgekomen |:(

Iemand nog suggesties hoe ik dit kan oplossen?
Backups maken en nieuwe schijven aanschaffen?

https://discord.com/invite/tweakers


  • KennieNL
  • Registratie: Mei 2007
  • Laatst online: 30-11 11:18
redfoxert schreef op donderdag 03 maart 2011 @ 09:42:
[...]


Backups maken en nieuwe schijven aanschaffen?
Kan ik dit soort resultaten uit SMART (zelfs al is hij passed) bij Samsung als RMA indienen?
Gezien ze nog geen 3 jaar oud zijn

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
KennieNL schreef op donderdag 03 maart 2011 @ 10:07:
[...]


Kan ik dit soort resultaten uit SMART (zelfs al is hij passed) bij Samsung als RMA indienen?
Gezien ze nog geen 3 jaar oud zijn
Nee, Samsung is volgens mij redelijk kritisch, als de schijf minder dan 1 jaar oud is, zou je het bij de winkel kunnen proberen. Samsung wil volgens mij dat hun Samsung Toolkit echt een error geeft, anders moet je daarop wachten (wat niet leuk is met RAID setups.. )

Even niets...


  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Dat is best wel raar dan, want ik heb iets van 3 schijven verstuurd grofweg 1 jaar geleden en dat ging echt super snel en zonder gezeik. Gewoon aanvraag invullen, mailen en that's it !! Binnen 2 weken een vervangende HDD terug :)

Pre-F1/F2/F3/F4 schijven overigens voor het geval nu iemand denkt "Oh nooos Samsung schijven hebben hoge uitval! Bla Bla Bla" :P

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • KennieNL
  • Registratie: Mei 2007
  • Laatst online: 30-11 11:18
Zijn ouder dan 1 jaar, en sowieso is de winkel failliet :P

Ik zal eens kijken of ik vanmiddag de mogelijkheid heb om Samsung customer service te bellen...
Wel zonde... 3 F1's van 1TB binnen 3 jaar naar de knoppe (300 euro aan disken destijds).

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Wie niet waagt, die niet wint :)
Gewoon proberen :)

Even niets...


Verwijderd

FireDrunk schreef op donderdag 03 maart 2011 @ 08:09:
Je doet het nu wel echt voorkomen dat elke tweaker die RAID5 gaat gebruiker dom, stom en oerstom is.
Waar haal je dat vandaan? Ik geef enkel een technische uitleg van dit artikel:
Why RAID 5 stops working in 2009

Waarom zeg je dat tweakers dom zijn? Ik haal dat nergens uit hoor.
Ik zie zeker in dat RAID5 niet meer van deze tijd is vanwege de grootte schijven en de risico's die dat met zich meebrengt.
Het is dus de relatief toegenomen BER (Bit-Error-Rate) of eigenlijk uBER dat RAID5 steeds onveiliger aan het worden is. Disks worden groter, maar hebben vaker last van pending sectors, en dat is heel gevaarlijk voor traditioneel RAID5 (en dus ook RAID6 in mindere mate).
Maar botweg zeggen dat bijna elke implementatie schijven eruit gooit bij bad sectors is voorbarig.
Ik heb meerdere professionele RAID implementaties in mijn handen gehad (LSI, Promise, HP, Dell, Areca) en die geven allemaal een 'Pending Error'. Zolang het device nog levert wat hij MOET leveren, zal er geen probleem zijn, maar krijg je een waarschuwing dat er een disk zeer binnenkort kapot kan gaan.
Ik kan in elk geval voor Areca spreken dat deze evenhard disks uit de array trapt als bijvoorbeeld Intel onboard RAID. Dit soort RAID controllers hebben stricte firmware die als de disk binnen 10 seconden niet reageert als verloren beschouwd wordt. Dus als disks voor 10 seconden niet reagere, bijvoorbeeld omdat ze met bad sector recovery bezig zijn, zullen ze eruit getrapt worden.

Dat geldt voor bijna alle hardware RAID en alle Windows onboard RAID. Dus onder het Windows platform wordt je eigenlijk verplicht om TLER schijven te kopen. Onder Linux/BSD/Solaris kun je er nog mee weg komen om normale desktopschijven te kopen en op een non-RAID controller aan te sluiten. Maar stel je gebruikt een controller zoals Areca voor die taak, dan nog steeds gaan je disks uitvallen; spontaan verdwenen door een bad sector; zéér irritant!

Er zijn wel RAID firmware waarbij je de timeout kan instellen, bij LSI heb ik dat gezien. Maar dat is wel een uitzondering, voor één of andere reden zijn bijna alle hardware RAID enorm streng over drive timeouts.
Ik heb het dus ook 1 keer gehad, dat de stroom uitviel, en ik 1 corrupte map had. Na een reboot gaf de controller keurig aan dat hij niet netjes alles weg had kunnen schrijven en dat er een aantal blocks niet goed meer waren.
Dat is iets anders dan uitvallende schijven door bad sector recovery. Als je gewoon je write-back buffer bent kwijtgeraakt zal je wel wat corruptie op je filesystem hebben; maar dat is een apart probleem.
Is er dus een grote kans dat er iets mis gaat? Ja zeker, en al helemaal nu we richting de 5TB disks gaan.
Is dat iets waar je kostte-wat-het-kost vandaan moet blijven omdat *al* je data in vlammen opgaat? Nee
Ook dat heb ik niet gezegd. :)

Je kunt het wel zien als een zwak punt van huidige filesystems die geen redundante metadata gebruiken, en dus als argument vóór ZFS, maar dat betekent niet dat iedereen die iets anders als ZFS gebruikt gelijk dom en stom is; zó simpel is het heus niet. Maar ik zou zelf wel zeggen dat er een groot verschil zit tussen ZFS en traditionele RAID omgevingen. Traditioneel RAID is ook nooit zo veilig geweest als het had kunnen zijn. Het is best een fragiele layer die hardware fabrikanten in hun controllers stoppen, waar veel bij fout kan gaan.

Zou mooi zijn als Windows nieuw filesystem ontwikkelt, met ingebouwd RAID; winFS 2.0? :)

  • KennieNL
  • Registratie: Mei 2007
  • Laatst online: 30-11 11:18
Samsung maar eens gebeld, moet hun tooltje dus draaien (verwachtte ik al).

Nja eens kijken wanneer ik er tijd/zin in heb

Verwijderd

nou lees ik net dit :

What are ZFS cache devices?

ZFS is able to use SSDs in a special configuration, where it acts as cache for the HDDs. This is like having more RAM as filecache, but then SSDs are much bigger than your RAM can hold. Whenever you read something from the RAID array that is cached, the SSD will perform the read request instead; with very low access times. ZFS tracks which data is most accessed and puts those on the SSD. This means it automatically adapts to your usage pattern.
You can have an array of many TeraBytes and have a small SSD that serves the files you access every day and make a real improvement to the performance of the array.

heeft zoiets zin in een zelfbouw NAS (ism vb freeNAS)

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 22-12 11:58

Ravefiend

Carpe diem!

Verwijderd schreef op donderdag 03 maart 2011 @ 23:12:
heeft zoiets zin in een zelfbouw NAS (ism vb freeNAS)
Zoiets kan zeker zinvol zijn als je bv. gebruik maakt van RAIDZ of RAIDZ2 zpool gezien deze combinaties een negative impact hebben op de performance. Een SSD als 'cache' werkt ook werkelijk als een buffer tussen het geheugen en je andere disks wat maakt dat files die je vaak gebruikt, sneller toegankelijk kunnen worden.

De afgelopen weken heb ik zelf al eens verder gekeken naar een setup voor RAIDZ2 (6+hotspare) in combinatie met een ECC chipset. Nog niet helemaal compleet (kabels + boot) maar de prijs voor een intel based solution is toch ook wel navenant :) ...

#ProductPrijsSubtotaal
1Intel Xeon X3430€ 169,-€ 169,-
7Western Digital Caviar GreenPower WD20EARS, 2TB€ 70,90€ 496,30
1Lian Li PC-V354B€ 137,43€ 137,43
1Intel RAID Controller SASUC8I€ 130,54€ 130,54
1Seasonic S12II 380W€ 49,-€ 49,-
1Kingston ValueRAM KVR1333D3D4R9SK2/8GI€ 160,-€ 160,-
1Supermicro X8SIL-F€ 178,73€ 178,73
Bekijk collectie
Importeer producten
Totaal€ 1.321,-


Moeilijke afweging gezien ik wel verwacht dat het MB + CPU toch wel best future-proof zijn om dit verder uit te bouwen over pakweg 2 jaar oid.

Verwijderd

Ravefiend schreef op vrijdag 04 maart 2011 @ 09:42:
[...]


Moeilijke afweging gezien ik wel verwacht dat het MB + CPU toch wel best future-proof zijn om dit verder uit te bouwen over pakweg 2 jaar oid.
moet je dan geen 'futureproof' kast nemen.. die nieuwe Lian Li ? :9

deze

  • MrBarBarian
  • Registratie: Oktober 2003
  • Laatst online: 07-03-2023
Ravefiend schreef op vrijdag 04 maart 2011 @ 09:42:
[...]

De afgelopen weken heb ik zelf al eens verder gekeken naar een setup voor RAIDZ2 (6+hotspare) in combinatie met een ECC chipset. Nog niet helemaal compleet (kabels + boot) maar de prijs voor een intel based solution is toch ook wel navenant :) ...

#ProductPrijsSubtotaal
1Intel Xeon X3430€ 169,-€ 169,-
7Western Digital Caviar GreenPower WD20EARS, 2TB€ 70,90€ 496,30
1Lian Li PC-V354B€ 137,43€ 137,43
1Intel RAID Controller SASUC8I€ 130,54€ 130,54
1Seasonic S12II 380W€ 49,-€ 49,-
1Kingston ValueRAM KVR1333D3D4R9SK2/8GI€ 160,-€ 160,-
1Supermicro X8SIL-F€ 178,73€ 178,73
Bekijk collectie
Importeer producten
Totaal€ 1.321,-


Moeilijke afweging gezien ik wel verwacht dat het MB + CPU toch wel best future-proof zijn om dit verder uit te bouwen over pakweg 2 jaar oid.
Waarom niet de Supermicro X8SI6-F-O? Dit heeft een onboard sas-chip, dus ruimte voor 8 disken.

Daarachter kan je nog een SAS-expander plaatsen, waarna je ruimte hebt voor veeeeeel disken..

iRacing Profiel


  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 22-12 11:58

Ravefiend

Carpe diem!

Verwijderd schreef op vrijdag 04 maart 2011 @ 09:50:
[...]
moet je dan geen 'futureproof' kast nemen.. die nieuwe Lian Li ? :9
deze
MrBarBarian schreef op vrijdag 04 maart 2011 @ 10:02:
[...]
Waarom niet de Supermicro X8SI6-F-O? Dit heeft een onboard sas-chip, dus ruimte voor 8 disken.

Daarachter kan je nog een SAS-expander plaatsen, waarna je ruimte hebt voor veeeeeel disken..
De nieuwe Lian-Li met een X8SI6-F-O zou een mooi alternatief zijn doch opteer ik liever voor een compacte NAS en dus de mATX combo met de X8SIL-F. Met een beetje modding krijg ik in de Lian Li PC-V354B misschien nog wel een paar extra disks in boven de voeding (link). Cable management zal dan wel een extra uitdaging zijn maar héééél veel disks is niet direct een doel ... :+

Verwijderd

Ravefiend schreef op vrijdag 04 maart 2011 @ 11:51:
[...]


[...]


De nieuwe Lian-Li met een X8SI6-F-O zou een mooi alternatief zijn doch opteer ik liever voor een compacte NAS en dus de mATX combo met de X8SIL-F. Met een beetje modding krijg ik in de Lian Li PC-V354B misschien nog wel een paar extra disks in boven de voeding (link). Cable management zal dan wel een extra uitdaging zijn maar héééél veel disks is niet direct een doel ... :+
heel fraai kastje.. ben benieuwd of je daar 7 a 9 disks in kan krijgen 8)
ik zit zelf zo'n norco rpc2208 te overwegen maar nu ik dit zie ..

ondertussen doe ik een poging om nexenta onder vmware aan de gang te krijgen, ook een ZFS filesysteem.
(ik laat me niet zomaar freenas 'aansmeren' natuurlijk O-) )

Afbeeldingslocatie: http://img59.imageshack.us/img59/3978/nexetnasetup.jpg

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Verwijderd schreef op vrijdag 04 maart 2011 @ 12:45:
[...]


heel fraai kastje.. ben benieuwd of je daar 7 a 9 disks in kan krijgen 8)
ik zit zelf zo'n norco rpc2208 te overwegen maar nu ik dit zie ..

ondertussen doe ik een poging om nexenta onder vmware aan de gang te krijgen, ook een ZFS filesysteem.
(ik laat me niet zomaar freenas 'aansmeren' natuurlijk O-) )

[afbeelding]
Nexenta onder vmware werkt prima kan ik je vertellen, alleen is de performance niet zo super.
Grootste nadeel voor mij was dat het geen ondersteuning heeft voor VMXNET3 en je dus met E1000 zit.

VT-d en dat soort taferelen werken prima :)

Even niets...


  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 22-12 11:58

Ravefiend

Carpe diem!

Verwijderd schreef op vrijdag 04 maart 2011 @ 12:45:
[...]
heel fraai kastje.. ben benieuwd of je daar 7 a 9 disks in kan krijgen 8)
ik zit zelf zo'n norco rpc2208 te overwegen maar nu ik dit zie ..
Yup, 7 disks en nog één 5,25" die je kan omtoveren voor een extra disk of zelfs 2 x SSD. Perfect mogelijk zoals je kan zien. Veel kleiner dan dit kan je het niet vinden dacht ik zo. De Norco RPC-2208 heeft ook wel zo zijn extra's zoals hot swappable trays maar daar heb ik zelf geen behoefte aan.

Verwijderd

FireDrunk schreef op vrijdag 04 maart 2011 @ 12:51:
[...]


Nexenta onder vmware werkt prima kan ik je vertellen, alleen is de performance niet zo super.
Grootste nadeel voor mij was dat het geen ondersteuning heeft voor VMXNET3 en je dus met E1000 zit.

VT-d en dat soort taferelen werken prima :)
vergeet de 'blingbling' factor niet .. :*)

Afbeeldingslocatie: http://img46.imageshack.us/img46/5220/dahboard.jpg

maar bedoelde je specifiek de performance ONDER vmware of in het algemeen ..

Verwijderd

Ravefiend schreef op vrijdag 04 maart 2011 @ 13:11:
[...]


Yup, 7 disks en nog één 5,25" die je kan omtoveren voor een extra disk of zelfs 2 x SSD. Perfect mogelijk zoals je kan zien. Veel kleiner dan dit kan je het niet vinden dacht ik zo. De Norco RPC-2208 heeft ook wel zo zijn extra's zoals hot swappable trays maar daar heb ik zelf geen behoefte aan.
wanneer ga je aan die 'klus' beginnen... want 'pics or it didn't happend' natuurlijk 8)

  • Ravefiend
  • Registratie: September 2002
  • Laatst online: 22-12 11:58

Ravefiend

Carpe diem!

Verwijderd schreef op vrijdag 04 maart 2011 @ 13:37:
[...]
wanneer ga je aan die 'klus' beginnen... want 'pics or it didn't happend' natuurlijk 8)
As soon as I've made up my mind ... :+ Voorlopig zal ik je tevreden moeten stellen met dit voorbeeld:

Afbeeldingslocatie: http://i472.photobucket.com/albums/rr82/t258jgn/SYSTEM/sys-56.jpg

Lol: er past zelfs nog een extra SSD onder de PSU! _O-

Afbeeldingslocatie: http://www.warfuric.com/image/images/dsc01268medium.jpg

[ Voor 27% gewijzigd door Ravefiend op 04-03-2011 14:29 ]


Verwijderd

Ravefiend schreef op vrijdag 04 maart 2011 @ 13:47:
[...]


As soon as I've made up my mind ... :+ Voorlopig zal ik je tevreden moeten stellen met dit voorbeeld:

[afbeelding]

Lol: er past zelfs nog een extra SSD onder de PSU! _O-

[afbeelding]
ziet er toch nog netjes uit zo .. en LianLi is wel kwaliteitspul 8)


mijn 'ff proefdraaien' met NexentaStor onder vmware lukt niet helemaal.
hij ziet maar 2 virtuele diskjes (ide ?) zitten en ik heb er toch echt meerdere aangemaakt .. 8)7

Afbeeldingslocatie: http://img130.imageshack.us/img130/5584/uhhg.jpg

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 23-12 10:30
Je kan gewoon alles op LSI Logic SAS hangen als controller type.
Let wel even op dat je alles netjes een eigen ID geeft, en let er op dat de controller zelf ook een ID heeft.

Ik zou doen:

OS disk mirror op 0:1 en 0:2
RAIDZ set op 1:1, 1:2, en 1:3

Als je de disks op 1:x zet word er door VMware een 2e controller aangemaakt als het goed is in de VM.

Mocht dit allemaal niet werken/kunnen, ligt dat aan Workstation, ik heb namelijk ESX(i) :P

Even niets...

Pagina: 1 ... 44 ... 226 Laatste

Let op:
In dit topic bespreken we de hardwarematige kant van het bouwen van een NAS. Vragen en discussies die betrekking hebben op de softwarematige kant, dien je elders te stellen. Zo is het ZFS topic de juiste plek voor vragen over ZFS maar ook over softwareplatformen zoals FreeNAS, NAS4Free, ZFSguru en andere softwareplatforms die met ZFS werken.