• herbalx
  • Registratie: September 2007
  • Laatst online: 21-04 22:44
Beste Tweakers,

ik hoop dat jullie een stukje advies hebben waardoor ik stop met zweten ......

Het probleem is het volgende:

Twee weken gelegen een nieuwe PC gebouwd, voorzien van een ASUS sabertooth x58 MOBO met daarop een RAID 5 config van 4 x 2 TB schijven.

Donderdag op vrijdag heb ik een nieuwe videokaart er in gehangen, geinstalleerd en prima werkend. Tot een dag later of te wel, gister avond klapte in 1 keer de hele machine uit en deze was ook niet meer aan te krijgen.

Buiten dat ik er baalde maakte ik me niet veel zorgen en ben direct het probleem op gaan sporen, na alleen uit de kast gehaald te hebben bleek het de nieuwe videokaart te zijn. Vervolgens heb ik deze vervangen met een oude kaart en de machine draaide weer..... maar ik kwam er achter dat alle Bios settings weg waren waardoor hij mijn RAID 5 niet initialiseerde. Na dit aangepast te hebben zag ik tot mijn grote schrikt dat de array nog maar twee schijven als member had staan (ipv 4)

Voor de duidelijkheid het was een array van 4 schijven in RAID 5, nu zitten er nog twee schijven in de array en geeft hij aan dat twee schijven geen deel meer uit maken van de array (non-member). Ik heb alle aansluitingen gecontroleerd en alles zit goed, echter heb ik geen idee hoe ik nu mijn RAID 5 array weer terug krijg zonder de aanwezig data te verliezen.

Ik hoop dat jullie mij kunnen helpen/advies kunnen geven, de data op de schijven is voor mij van groot belang (niet voor niks RAID 5). wie-o-wie kan mij een aantal geven


Specs:

MOBO: Asus Sabertooh x58
CPU: i7 Core 950

Intel matrix storage controller (onboard)
Schijven: Hitiachi 2TB 7200rpm

[Voor 4% gewijzigd door herbalx op 13-02-2011 13:59]


  • CiPHER
  • Registratie: November 2000
  • Laatst online: 28-04-2017

CiPHER

Brute Force

Nouja je zegt "niks voor niks RAID 5" maar daar gaat het dus fout, want je gebruikt waarschijnlijk RAID5 in write-back modus; "write caching" noemt intel dat in zijn drivers. Dat kan bij dit soort gevallen (stroomuitval) je metadata beschadigen of out-of-sync brengen met als gevolg dat enkele disks simpelweg niet meer deel uitmaken van de RAID. Dat gebeurt zo vaak dat je zo'n Windows RAID niet als veilig kunt beschouwen.

RAID5 kan inderdaad beschermen tegen schijfuitval, maar vaak vergeet men dat het toevoegen van een complexe laag (RAID abstractielaag) ook toegenomen risico betekent. In jouw geval gaat het dus om zo'n geval; dit is een failure van de RAID-laag, niet van je schijven of andere hardware. RAID en filesystems moeten stroomuitval afdekken, maar met de 'write caching' optie in de Intel drivers maak je gebruik van je RAM als write-back; en die is foetsie bij een blauw scherm of stroomuitval.

Als je echt veilige opslag wilt, kun je eens kijken naar ZFS. Dat is echt een heel stuk beter dan 'ouderwets RAID' met al zijn vervelende eigenschappen wat het eigenlijk helemaal niet zo betrouwbaar maakt als veel mensen denken en eigenlijk ook mogen verwachten gezien alle theoretische uitleg over RAID. Maar helaas, de praktijk is anders.

Nu je concrete probleem, je hebt een broken array. Je kunt met een Ubuntu Linux cdtje proberen of die je RAID herkent. Branden op een ander systeem, dan met dat cdtje booten en kijken of je Intel RAID array gevonden wordt. Dat check je zo:
1) open menu Places
2) klik op Home
3) nu krijg je een venster met daarin aan de linkerkant een balk, daarin zou je RAID adapter moeten staan
4) klik op je adapter en kijk of je je data ziet

Als dit niet werkt kun je met Windows software aan de slag zoals RAID reconstructor. Eén waarschuwing als je je schijven op Windows aansluit: als windows vraagt om je schijven te 'initialiseren', DOE DIT DAN NIET! Dat betekent namelijk corruptie/gegevensverlies/hoofdpijn.

Wanneer ga jij jouw data beschermen? Kies voor ZFS!


  • herbalx
  • Registratie: September 2007
  • Laatst online: 21-04 22:44
Cipher bedankt voor je uitleg, ik persoonlijk niet hoe het met write caching zat maar dit kan de problemen verklaren. Zelf heb ik juiste gekozen voor een raid 5 om een uitval van een schijf te voorkomen maar dat dit soort dingen een probleem zouden gaan vormen had ik geen rekening mee gehouden.

na wat zoek werk zie ik dat er meer mensen zijn met zelfde probleem, er wordt vanuit verschillende plekken verwezen naar een oplossing, deze ben ik nu voorzichtig aan het proberen.
(http://forums.extremeoverclocking.com/t320393.html)

  • McKaamos
  • Registratie: Maart 2002
  • Niet online

McKaamos

Master of the Edit-button

En je draait vast ook op de RAID controller die op het moederbord zit, of niet?
If so, die dingen zijn nou niet bepaald geavanceerd en zijn vatbaarder voor dergelijke foutjes.

Een fatsoenlijke RAID controller (Adaptec, Areca, 3Ware, etc) is veel beter bestand tegen problemen, en ook nog eens vele malen sneller.
Ik heb hier (op een Adaptec kaart met 6 disks in RAID5) meermaals stroomuitval gehad zonder een centje pijn. Draait al een jaar of 3 a 4 prima. Zelfs incl migratie naar een nieuw mobo.

Kortom: RAID5 is opzich prima, maar je moet niet besparen op fatsoenlijke apparatuur.
Onboard RAID klassificeert niet bepaald als "fatsoenlijk" in de wereld van RAID5 ;)

[Voor 14% gewijzigd door McKaamos op 13-02-2011 15:55]

Hey, pssssst! Wanna buy some stuf? | Opel Vectra C GTS 1.8 '06 | Honda CBR600F '97 | Honda Magna V30 '85


  • MegaTronics
  • Registratie: Januari 2004
  • Laatst online: 03-12-2021

MegaTronics

Chef WiFi Kabels

Plus RAID is sowieso geen vervanging van een backup, zoals je nu ondervind. Hoop voor je dat je de data kunt restoren en dat je over een backup gaat nadenken.

[Voor 41% gewijzigd door MegaTronics op 13-02-2011 16:01]

Vroeger, toen de Batavieren nog met zijn vijven waren.


  • herbalx
  • Registratie: September 2007
  • Laatst online: 21-04 22:44
McKaamos schreef op zondag 13 februari 2011 @ 15:53:
En je draait vast ook op de RAID controller die op het moederbord zit, of niet?
If so, die dingen zijn nou niet bepaald geavanceerd en zijn vatbaarder voor dergelijke foutjes.

Een fatsoenlijke RAID controller (Adaptec, Areca, 3Ware, etc) is veel beter bestand tegen problemen, en ook nog eens vele malen sneller.
Ik heb hier (op een Adaptec kaart met 6 disks in RAID5) meermaals stroomuitval gehad zonder een centje pijn. Draait al een jaar of 3 a 4 prima. Zelfs incl migratie naar een nieuw mobo.

Kortom: RAID5 is opzich prima, maar je moet niet besparen op fatsoenlijke apparatuur.
Onboard RAID klassificeert niet bepaald als "fatsoenlijk" in de wereld van RAID5 ;)
Ja ik wist dat het m.b.t. tot de preformance altijd wat tegen valt als je onboard gebruikt, maargoed dat accepteerde ik, had in mijn gedachte om over twee maandjes een nette controller met de wat schijfjes erbij te doen. Maar dat dit zo snel zo gebeuren had ik ook niet verwacht ! ik kan die gigabyte videokaart wel schieten :X.

Nu eerst maar is kijken of ik dat data weer leesbaar kan maken ...... Testdisk heeft nog wel wat uurtjes nodig zo te zien ..

  • McKaamos
  • Registratie: Maart 2002
  • Niet online

McKaamos

Master of the Edit-button

MegaTronics schreef op zondag 13 februari 2011 @ 15:56:
Plus RAID is sowieso geen vervanging van een backup, zoals je nu ondervind. Hoop voor je dat je de data kunt restoren en dat je over een backup gaat nadenken.
Dat is ook waar idd.
Het zit nogsteeds in 1 kastje, en voegt wat fout tollerantie toe. Wanneer het noodlot toeslaat en b.v. je voeding er uit knalt en al je schijven opblaast heb je nogsteeds geen backup.
Backups zijn alleen backups als ze volledig gescheiden van het betreffende bron apparaat worden bewaard.

Hey, pssssst! Wanna buy some stuf? | Opel Vectra C GTS 1.8 '06 | Honda CBR600F '97 | Honda Magna V30 '85


  • herbalx
  • Registratie: September 2007
  • Laatst online: 21-04 22:44
maar CiPHER even terug komend op die driver caching, is het dan niet beter om driver caching uit de schakelen voor de RAID 5 of de schijven in de RAID 5 array ? of zeg ik dan iets storms ?

  • McKaamos
  • Registratie: Maart 2002
  • Niet online

McKaamos

Master of the Edit-button

herbalx schreef op zondag 13 februari 2011 @ 16:08:
maar CiPHER even terug komend op die driver caching, is het dan niet beter om driver caching uit de schakelen voor de RAID 5 of de schijven in de RAID 5 array ? of zeg ik dan iets storms ?
Je kan write caching in windows wel uit zetten voor die disk, maar ik weet niet of de drivers ook mee doen. Bij mij staat windows eigen write caching wel aan en geeft geen problemen.

Hey, pssssst! Wanna buy some stuf? | Opel Vectra C GTS 1.8 '06 | Honda CBR600F '97 | Honda Magna V30 '85


  • CiPHER
  • Registratie: November 2000
  • Laatst online: 28-04-2017

CiPHER

Brute Force

McKaamos schreef op zondag 13 februari 2011 @ 15:53:
En je draait vast ook op de RAID controller die op het moederbord zit, of niet?
If so, die dingen zijn nou niet bepaald geavanceerd en zijn vatbaarder voor dergelijke foutjes.
Ook Hardware RAID heeft deze problemen. Als je schijven een bad sector hebben en een tijdje nodig hebben om deze te lezen, besluit de hardware controller na 10 seconden dat de tijd erop zit en de hele schijf als verloren wordt beschouwd, wat natuurlijk belachelijk is. Ik heb niet de nieuwste firmware getest, maar ook Areca heeft hier last van, wat toch een van de betere Hardware RAID controllers is.

Hardware RAID is niet meer zo in: het is duur, niet flexibel, soms onveilig of storingsgevoelig. Wat is dan wel in? Nou, filesystems die zelf direct meerdere schijven aanspreken. Tot voor kort was een filesystem een dom iets dat op één device werd geplaatst en de RAID engine maakt van meerdere schijven één virtuele schijf, waar de filesystem op werkt. Nieuw is dat filesystems direct meerdere volumes gaan aanspreken, en RAID combineren in hun functionaliteit, wat grote voordelen kan geven die onmogelijk zijn wanneer RAID en filesystem gescheiden zijn.

Vandaar dat ik zeg: kijk eens naar ZFS als je veilige opslag wilt. Je kunt wel zeggen RAID is geen backup, maar een backup is ook geen RAID. Je wilt gewoon veilige opslag die niet na een scheet gelijk op zn gat ligt, punt. Als je dát hebt, kun je voor de écht belangrijke bestanden (persoonlijke foto's, administratie, school/werk) een echte backup gebruiken. Maar het begin is toch echt veilige storage. Onzin om bulkdata die je kunt hergenereren 1:1 te gaan backuppen.

Dus in plaats van nu een dure controller te kopen (waar je juist voor ZFS niks aan hebt!) kun je ook een alternatief ZFS of Linux fileserver overwegen. Zolang je non-RAID controllers gebruikt, heb je daarvoor geen TLER schijven nodig en gaan schijven ook niet disconnecten als ze een bad sector hebben. ZFS repareert automatisch bad sectors zolang je maar redundancy hebt, dus merk je helemaal niks van. Blijft gewoon werken. En als je het een half jaar gebruikt denk je had ik dit maar eerder ontdekt. ;)

Wanneer ga jij jouw data beschermen? Kies voor ZFS!


  • CiPHER
  • Registratie: November 2000
  • Laatst online: 28-04-2017

CiPHER

Brute Force

herbalx schreef op zondag 13 februari 2011 @ 16:08:
maar CiPHER even terug komend op die driver caching, is het dan niet beter om driver caching uit de schakelen voor de RAID 5 of de schijven in de RAID 5 array ? of zeg ik dan iets storms ?
Bij RAID0, RAID1 en combinaties daarvan zal dat qua performance niet zoveel uitmaken. Maar RAID5 is anders, RAID5 heeft die write-back nodig anders is het heel erg traag voor je schijven, bovendien ook 'zwaar' voor je schijven omdat je ze continu laat seeken voor alle writes. Snelheden tussen 0.01MB/s en 20MB/s is wat je kunt verwachten voor RAID5 zonder write-back.

Dus Intel + RAID5 zonder write-back ('write cache') is erg traag. En daarmee los je ook niet alle onveiligheid van Windows driver RAID op; het blijft storingsgevoelig vooral de metadata is een zwak punt. Die wordt vaak geupdate en een paar foutjes in die 512 bytes en dat gaat je gelijk de nek omdraaien. Persoonlijk vind ik de storage daardoor erg onbetrouwbaar geworden.

En mensen die zeggen dat het prima bij hen draait: ja prima, TOTdat je problemen krijgt, dat moge duidelijk zijn. Het blijft prima werken, TOTdat je een bad sector hebt, of meerdere disks disconnecten, of gezeik met je metadata, al dan niet in combinatie met een crash, stroomstoring of andere invloeden.

Dus het punt wat ik wil maken is dat 'ouderwets RAID' eigenlijk helemaal niet zo veilig is als 'we' denken. Om dan alleen aan backups te gaan denken is overkill; je kunt ook kijken naar gratis alternatieven die niet op Windows zijn gebaseerd. Dan voorkom je al die problemen en heb je ook geen dure TLER schijven of RAID controller met Battery Backup Unit nodig.

Wanneer ga jij jouw data beschermen? Kies voor ZFS!


  • herbalx
  • Registratie: September 2007
  • Laatst online: 21-04 22:44
Ik blijk inderdaad de betrouwbaarheid van RAID overschat te hebben.

Het eerst wat me nu te doen staat is kijken of dat ik data uit de RAID recovered krijg en vervolgens eens zoeken naar een alternatief. ZFS klinkt wel interessant, ik heb zojuist even een stukje op wikipedia gelezen maar ik kon daar niet uit opmaken of ik het ook onder windows kan gebruiken,

  • Q
  • Registratie: November 1999
  • Laatst online: 09-05 20:44

Q

Zie mijn signature

herbalx schreef op zondag 13 februari 2011 @ 17:40:
ZFS klinkt wel interessant, ik heb zojuist even een stukje op wikipedia gelezend maar ik kon daar niet uit opmaken of ik het ook onder windows kan gebruiken,
Dan is ZFS geen optie voor je.

TE KOOP | Microserver Gen8 + 8GB & SSD


  • herbalx
  • Registratie: September 2007
  • Laatst online: 21-04 22:44
ontopic: Heb nu alle schijven op non-members gezet en vervolgens een nieuwe array aangemaakt met exact dezelfde instellingen als daarvoor. Ben op dit moment met Testdisk de schijf aan het analyseren (36% atm), ik hoop dat deze morgen ochtend klaar is.

offtopic: Q, wat zou je dan zeggen ? Ik bedoel, het voordeel van RAID 5 zie ik wel zitten, het snelheids verlies is jammer maar dat zou ik graag inleveren tegen een stukje zekerheid. Maar gezien het feit dat ik er nu achter ben gekomen dat deze zekerheid niet altijd gegarandeerd is sta ik open voor andere ideeen.

Als ZFS alleen mogelijk is onder linux dan moet ik naar een andere oplossing opzoek of bij RAID 5 blijven, Het moet gewoon niet zo zijn dat ik bij de eerste beste HDD crash mijn data kwijt ben en weet nu ook zeker dat ik een goede bescherming tegen technische fouten nodig heb, het geen wat nu gebeurt is, is voor 1 keer en nooit weer .... (ik moet nog steeds maar hopen of ik mijn data terug kan lezen)

  • McKaamos
  • Registratie: Maart 2002
  • Niet online

McKaamos

Master of the Edit-button

CiPHER schreef op zondag 13 februari 2011 @ 17:19:
[...]

Ook Hardware RAID heeft deze problemen. Als je schijven een bad sector hebben en een tijdje nodig hebben om deze te lezen, besluit de hardware controller na 10 seconden dat de tijd erop zit en de hele schijf als verloren wordt beschouwd, wat natuurlijk belachelijk is. Ik heb niet de nieuwste firmware getest, maar ook Areca heeft hier last van, wat toch een van de betere Hardware RAID controllers is.

Hardware RAID is niet meer zo in: het is duur, niet flexibel, soms onveilig of storingsgevoelig. Wat is dan wel in? Nou, filesystems die zelf direct meerdere schijven aanspreken. Tot voor kort was een filesystem een dom iets dat op één device werd geplaatst en de RAID engine maakt van meerdere schijven één virtuele schijf, waar de filesystem op werkt. Nieuw is dat filesystems direct meerdere volumes gaan aanspreken, en RAID combineren in hun functionaliteit, wat grote voordelen kan geven die onmogelijk zijn wanneer RAID en filesystem gescheiden zijn.

Vandaar dat ik zeg: kijk eens naar ZFS als je veilige opslag wilt. Je kunt wel zeggen RAID is geen backup, maar een backup is ook geen RAID. Je wilt gewoon veilige opslag die niet na een scheet gelijk op zn gat ligt, punt. Als je dát hebt, kun je voor de écht belangrijke bestanden (persoonlijke foto's, administratie, school/werk) een echte backup gebruiken. Maar het begin is toch echt veilige storage. Onzin om bulkdata die je kunt hergenereren 1:1 te gaan backuppen.

Dus in plaats van nu een dure controller te kopen (waar je juist voor ZFS niks aan hebt!) kun je ook een alternatief ZFS of Linux fileserver overwegen. Zolang je non-RAID controllers gebruikt, heb je daarvoor geen TLER schijven nodig en gaan schijven ook niet disconnecten als ze een bad sector hebben. ZFS repareert automatisch bad sectors zolang je maar redundancy hebt, dus merk je helemaal niks van. Blijft gewoon werken. En als je het een half jaar gebruikt denk je had ik dit maar eerder ontdekt. ;)
Hardware RAID is in ieder geval niet zo foutgevoelig als onboard rommel.
Ik heb hier hele goede ervaringen met een dedicated controller en die kunnen een stuk meer abuse hebben.

Sowieso, als je een bad sector hebt is je schijf stervende. Niet zo raar dat een controller de schijf dan als slecht markeert.
Harddisk vervangen namelijk defecte sectoren. Dus zodra je een slechte sector opmerkt ben je door de pool reservesectoren heen. De schijf is dan sowieso aan vervanging toe.
Verder klapt de array er niet bij elke dwars zittende scheet er uit en kan je veel beter de array herstellen als er toch iets fout gaat, in tegenstelling tot onboard troep.
Hell, mijn adaptec kaart heeft nog nooit problemen gegeven in de afgelopen 3 jaar, inclusief een verhuizing naar een andere machine en meerdere stroom storingen.
Als jouw Areca kaart bij elke dwars zittende scheet problemen gaf, was er gewoon wat mis met dat ding of gebruikte je slechte schijven.

En ja, RAID is de enige optie onder WIndows. ZFS kan je wel vergeten, tenzij je onder Linux wil gaan werken.

Edit:
Aan de andere kant is RAID nooit 100% veilig. Dat is geen enkele vorm van RAID.
RAID kan hooguit een extra laag fout tollerantie geven (mits je daarvoor goede apparatuur gebruikt) en backups zal je altijd moeten maken.
De enige vorm van backup is opslag op een fysiek anere lokatie.

[Voor 4% gewijzigd door McKaamos op 13-02-2011 20:35]

Hey, pssssst! Wanna buy some stuf? | Opel Vectra C GTS 1.8 '06 | Honda CBR600F '97 | Honda Magna V30 '85


  • CiPHER
  • Registratie: November 2000
  • Laatst online: 28-04-2017

CiPHER

Brute Force

McKaamos schreef op zondag 13 februari 2011 @ 20:32:
[...]
Hardware RAID is in ieder geval niet zo foutgevoelig als onboard rommel.
Ben ik niet van overtuigd; de firmware in hardware RAID is ook gewoon heel strict over timeouts van je HDDs. Dus net als onboard RAID werkt alles prima totdat je een disk hebt die 10 seconden niet reageert door een bad sector of gezeik met metadata.

Hardware RAID5 is ook onveilig. De controller weet niet of de data of juist de parity nu corrupt is; en gaat er voor het gemak maar vanuit dat de parity fout is. En dan hebben we nog de RAID5 write hole, wat eigenlijk maar een klein probleem is relatief aan de andere.

Het grote probleem is dat Windows geen modern filesystem zoals Btrfs of ZFS heeft. Als dat het wel had had je al dat gedoe met RAID niet gehad omdat Windows het native ondersteunde en dan zou het ook zonder gezeik kunnen werken. Maar omdat Windows deze functionaliteit tot op heden mist moet dat door third parties erin worden 'gehackt' met een proprietary driver die zich voordat als SCSI hardeschijf maar dus in feite een RAID array is. Klinkt dit als high-tech? Zo ja dan zit er iets in je oren. ;)
Ik heb hier hele goede ervaringen met een dedicated controller
Hoeveel Current Pending Sector heb je al op je schijven gehad dan?
Sowieso, als je een bad sector hebt is je schijf stervende. Niet zo raar dat een controller de schijf dan als slecht markeert.
Wat je nu zegt is natuurlijk onzin, hardeschijven hebben bijna altijd wel een paar bad sectors. Een bad sector is ook helemaal niets gevaarlijks, het zijn actieve bad sectors (current pending sector) die gevaar zijn. Die bad sectors kunnen door de RAID/Windows opgevraagd worden en zijn dus 'zichtbaar'; maar als ze worden opgevraagt dan zal de schijf tot 120 seconden recovery plegen en na 10 seconden kickt de RAID engine de schijf eruit.
Harddisk vervangen namelijk defecte sectoren. Dus zodra je een slechte sector opmerkt ben je door de pool reservesectoren heen. De schijf is dan sowieso aan vervanging toe.
Dat heb je toch iets verkeerd begrepen. Check je SMART output:

Reallocated Sector Count = passieve bad sectors die omgewisseld zijn met een reserve
Current Pending Sector = actieve bad sectors die nog niet omgewisseld kunnen worden omdat de HDD de sector niet kan lezen. Pas als de host zal schrijven naar deze onleesbare sector, zal de HDD hem kunnen omwisselen.
(..) en kan je veel beter de array herstellen als er toch iets fout gaat, in tegenstelling tot onboard troep.
Hoezo beter? Precies hetzelfde. Vervelende is dat je je schijven van de RAID controller moet halen om softwarematige RAID recovery te doen.
Als jouw Areca kaart bij elke dwars zittende scheet problemen gaf, was er gewoon wat mis met dat ding of gebruikte je slechte schijven.
Ja als je de fabrikanten moet geloven moet je heftig investeren in TLER schijven; een simpele firmware toggle die het recoveren van bad sectors na 7 seconden staakt, daar betaal je dan 50 euro voor of nog meer.

Maar dat is dus onzin, hoge capaciteit (hoge areal density) schijven hebben last van uBER en uBER betekent dat je Current Pending Sector in je SMART output kunt krijgen. Dat is de aanleiding voor problemen met RAID op Windows-platform.

Linux en andere non-windows OS gaan helemaal geen disks disconnecten in paniek als ze een simpele bad sector tegenkomen, dus heb je ook geen dure TLER schijven nodig. Geen broken arrays, nooit meer. Maar dit gaat alleen op als je software RAID gebruikt. Gebruik je hardware RAID onder Linux heb je precies hetzelfde probleem; de hardware RAID firmware kickt de disks uit de array.

Deze problemen zijn aan de orde van de dag, het is jammer dat er zoveel onduidelijkheid over bestaat.

Wanneer ga jij jouw data beschermen? Kies voor ZFS!


  • CiPHER
  • Registratie: November 2000
  • Laatst online: 28-04-2017

CiPHER

Brute Force

herbalx schreef op zondag 13 februari 2011 @ 17:40:
ZFS klinkt wel interessant, ik heb zojuist even een stukje op wikipedia gelezen maar ik kon daar niet uit opmaken of ik het ook onder windows kan gebruiken,
En ook niet onder Linux (ja er zijn omwegen; maar die zijn geen volwaardig alternatief). ZFS draait op echt UNIX, maar er zijn speciale distributies die zich op NAS-gebruik richten waarin ZFS beschikbaar is.

Als je ZFS wilt gebruiken moet je het je zo voorstellen dat je een nieuwe NAS-machine bouwt specifiek voor ZFS en als fileserver op je netwerk gebruikt. Dus je kunt het prima met Windows gebruiken, maar dan gebruik je het als NAS waarbij Windows via Samba een drive letter krijgt toegewezen (X:) en daarop je bestanden staan.

Er zijn heel veel voordelen, de twee grootste voordelen:
1) ZFS repareert alles automatisch; een disk check bestaat niet meer. Zodra ZFS schade tegenkomt, zal het die repareren indien mogelijk. Je kunt dat ook zien, dus je hebt nooit meer met silent corruption te maken; als er corruptie optreedt dan weet je dat en in vrijwel alle gevallen kan ZFS die fixen. Als dat niet lukt zijn hooguit wat files (bij naam genoemd) ontoegankelijk, maar het filesystem zelf blijft altijd intact.
2) snapshots zijn een soort backup voor je data. Als je je data van een snapshot voorziet en de dag erna zijn ze geinfecteerd door een virus of je hebt een belangrijke map verwijdert, dan kun je die gewoon weer terughalen omdat de snapshot ze nog heeft. Een soort backup dus, in de zin van dat je terug in de tijd kan van hoe het bestand/filesystem toen was opgeslagen.

ZFS is het makkelijkst te gebruiken met een NAS-distro als NexentaStor, FreeNAS of ZFSguru. Alle drie zijn nog in ontwikkeling, je zou het eens kunnen proberen in Virtualbox, of er een project tussen zit wat je fijn en makkelijk vindt werken en dus een alternatief voor je zou vormen.

Wanneer ga jij jouw data beschermen? Kies voor ZFS!


  • McKaamos
  • Registratie: Maart 2002
  • Niet online

McKaamos

Master of the Edit-button

CiPHER schreef op zondag 13 februari 2011 @ 21:33:
[...]

Ben ik niet van overtuigd; de firmware in hardware RAID is ook gewoon heel strict over timeouts van je HDDs. Dus net als onboard RAID werkt alles prima totdat je een disk hebt die 10 seconden niet reageert door een bad sector of gezeik met metadata.

Hardware RAID5 is ook onveilig. De controller weet niet of de data of juist de parity nu corrupt is; en gaat er voor het gemak maar vanuit dat de parity fout is. En dan hebben we nog de RAID5 write hole, wat eigenlijk maar een klein probleem is relatief aan de andere.

Het grote probleem is dat Windows geen modern filesystem zoals Btrfs of ZFS heeft. Als dat het wel had had je al dat gedoe met RAID niet gehad omdat Windows het native ondersteunde en dan zou het ook zonder gezeik kunnen werken. Maar omdat Windows deze functionaliteit tot op heden mist moet dat door third parties erin worden 'gehackt' met een proprietary driver die zich voordat als SCSI hardeschijf maar dus in feite een RAID array is. Klinkt dit als high-tech? Zo ja dan zit er iets in je oren. ;)


[...]

Hoeveel Current Pending Sector heb je al op je schijven gehad dan?


[...]

Wat je nu zegt is natuurlijk onzin, hardeschijven hebben bijna altijd wel een paar bad sectors. Een bad sector is ook helemaal niets gevaarlijks, het zijn actieve bad sectors (current pending sector) die gevaar zijn. Die bad sectors kunnen door de RAID/Windows opgevraagd worden en zijn dus 'zichtbaar'; maar als ze worden opgevraagt dan zal de schijf tot 120 seconden recovery plegen en na 10 seconden kickt de RAID engine de schijf eruit.


[...]

Dat heb je toch iets verkeerd begrepen. Check je SMART output:

Reallocated Sector Count = passieve bad sectors die omgewisseld zijn met een reserve
Current Pending Sector = actieve bad sectors die nog niet omgewisseld kunnen worden omdat de HDD de sector niet kan lezen. Pas als de host zal schrijven naar deze onleesbare sector, zal de HDD hem kunnen omwisselen.


[...]

Hoezo beter? Precies hetzelfde. Vervelende is dat je je schijven van de RAID controller moet halen om softwarematige RAID recovery te doen.


[...]

Ja als je de fabrikanten moet geloven moet je heftig investeren in TLER schijven; een simpele firmware toggle die het recoveren van bad sectors na 7 seconden staakt, daar betaal je dan 50 euro voor of nog meer.

Maar dat is dus onzin, hoge capaciteit (hoge areal density) schijven hebben last van uBER en uBER betekent dat je Current Pending Sector in je SMART output kunt krijgen. Dat is de aanleiding voor problemen met RAID op Windows-platform.

Linux en andere non-windows OS gaan helemaal geen disks disconnecten in paniek als ze een simpele bad sector tegenkomen, dus heb je ook geen dure TLER schijven nodig. Geen broken arrays, nooit meer. Maar dit gaat alleen op als je software RAID gebruikt. Gebruik je hardware RAID onder Linux heb je precies hetzelfde probleem; de hardware RAID firmware kickt de disks uit de array.

Deze problemen zijn aan de orde van de dag, het is jammer dat er zoveel onduidelijkheid over bestaat.
Als het probleem zou liggen in sectoren die op X moment omgewisseld worden, dan zou m'n array al lang degraded moeten zijn.
Het draait inmiddels al een jaar of 3, minstens. En ook nog onder Win2K3 met 6 schijven van 400GB. Dat verhoogt het risico op een re-allocate aanzienlijk, lijkt me.
Ik heb hier absoluut nog nooit enige piep uit het ding gekregen.

Reallocated sectors hebben alle schijven, ben ik het helemaal mee eens, maar die mogen niet in de weg liggen van de werking van een RAID controller.
Zodra je door de pool reserve sectoren heen bent is het normaal dat een schijf er uit dondert in een array, eerder niet.
Je bevestigt dus mijn hele punt ;)

Verder begrijp je m'n punt over het recoveren van een array niet helemaal geloof ik... Een fatsoenlijke controller kan gewoon tijdens het draaien van het OS rebuilden. Wordt wel langzaam enzo, maja. Daar heb je geen software voor nodig, dat doettie gewoon. Defecte disk er uit, verse er in, uurtje of X wachten en de boel is weer op vol vermogen.
Tenminste, dat doettie hier wel. Als die van jou dat niet kan, heb je imho gewoon een prutsding gekocht. Misschien de budget lijn, zonder eigen cache en processor ofzo?

Hey, pssssst! Wanna buy some stuf? | Opel Vectra C GTS 1.8 '06 | Honda CBR600F '97 | Honda Magna V30 '85


  • CiPHER
  • Registratie: November 2000
  • Laatst online: 28-04-2017

CiPHER

Brute Force

McKaamos schreef op zondag 13 februari 2011 @ 23:15:
[...]

Reallocated sectors hebben alle schijven, ben ik het helemaal mee eens, maar die mogen niet in de weg liggen van de werking van een RAID controller.
Zodra je door de pool reserve sectoren heen bent is het normaal dat een schijf er uit dondert in een array, eerder niet.
Je bevestigt dus mijn hele punt ;)
Je begrijpt het nog niet helemaal, dat is niet erg ik leg het graag uit. :)

Ik vermoed namelijk dat je denkt "er gaan pas echt bad sectors komen die je RAID ziet zodra je reserve sectoren op zijn"; dat is dus niet zo! Je hebt vele soorten 'bad sectors':
  • Een klassieke "BAD sector"; fysieke schade dus niet recoverable. Ook al heb je een miljoen reserve sectoren, deze bad sector wordt NIET omgewisseld totdat je er naartoe schrijft. Dit komt omdat hardeschijven niet zomaar de mogelijkheid tot recovery opgeven; dat moet je zelf doen door er naar te schrijven, is de gedachte. Bij RAID kan dat in principe heel goed, omdat de data elders vandaan kan worden geplukt, van de overige schijven + parity bijvoorbeeld. Maar weinig RAID implementaties kunnen dit, maar ZFS is er één van.
  • Nadat een bad sector is omgewisseld wordt hij passief. Het OS of de RAID engine kan deze bad sector dus niet meer zien of aanspreken of anderzins last van hebben; hij bestaat niet meer vanuit het perspectief van de gebruiker van de schijf (de RAID engine). Dit zie je als Reallocated Sector Count in je SMART output. Dit zijn dus sectoren met SCHADE die niet meer gebruikt worden.
  • Steeds vaker heb je last van uBER - uncorrectable Bit-Error-Rate. Dan krijg je dus een actieve bad sector ("Current Pending Sector" in je SMART output) die je RAID kan zien en die dus heel erg gevaarlijk is; één zo'n sector kan en waarschijnlijk zal ervoor zorgen dat je disk uit de array vliegt. Dit kan gebeuren zonder enkele fysieke schade aan die sector. Het grote verschil met de eerste bad sector die ik noem, is dat bij dit type geen fysieke schade aan je sector is. Nadat je hebt geschreven naar de betreffende sector wordt dan er dan ook geen sector-swap gedaan. De sector zelf is dus prima, maar de data kon niet worden uitgelezen. Dat probleem heet uBER (uncorrectable Bit-Error-Rate) en is een steeds groter probleem voor hoge capaciteit (2TB+) schijven, vooral die nog 512-byte sectoren hebben ipv de nieuwe 4K sectoren die meer ECC gegevens hebben om bit errors te corrigeren.
Kortom, het is niet simpelweg een kwestie van "ik heb 2000 reserve sectoren dus ik heb pas problemen als ik hier doorheen ben"; het is een kwestie van dat elke actieve / zichtbare bad sector voor problemen zorgt voor veel Hardware en Windows onboard/driver RAID engines. En die gaan pas weg als je er naar schrijft.

Onder Linux en andere OS is het grote verschil dat bij zo'n Current Pending Sector de disk NIET uit de array wordt gesmeten, die blijft er gewoon in en alleen die ene I/O faalt. Je kunt lange 'hangs' hebben, maar in geval van ZFS zou zelfs dat niet hoeven, omdat ZFS redundante data gebruikt om de schade gelijk te repareren en de juiste gegevens schrijft naar de 'foute' sector, zodat die omgewisseld kan worden indien nodig en het probleem verdwijnt. Dus waar je met Windows onboard RAID of de meeste hardware RAID problemen hebt met een broken array, heb je daar bij Linux/ZFS software RAID geen last van. Voorwaarde daarvan is wel dat je geen RAID controller gebruikt, het moet een normale non-RAID controller zijn die het OS de totale controle geeft of zo'n disk gedisconnect wordt of niet.

Er zijn wel uitzonderingen. Bij LSI controllers heb ik gezien dat de timeout in te stellen is. Standaard op 10 seconden, maar je kunt het op 120 seconden zetten dat zou dit grote probleem ook moeten verhelpen. Bij Areca geen soortgelijke instelling gezien, erg jammer!
Verder begrijp je m'n punt over het recoveren van een array niet helemaal geloof ik
Recovery is wat anders dan een rebuild. Een rebuild is het synchroniseren van de redundancy met de primaire data wat de RAID engine gewoon zelf kan. Recovery is het handmatig 'recoveren' van de RAID set, bijvoorbeeld een broken Areca array recoveren met Ubuntu Linux software RAID, die Areca metadata kan uitlezen. Dan omzijl je dus de RAID driver. ZFS heeft overigens geen recovery methode; alles wat mogelijk is om de array te recoveren zit standaard al in ZFS.

ZFS doet een rebuild ook veel eleganter. In plaats van domweg alle sectoren te rebuilden, doet ZFS dat op filesystem-niveau. Het grote verschil is dat als je maar 20% gevulde array hebt, je ook maar 20% van de tijd nodig hebt. Alleen de actieve data wordt gerebuild. Dat is ook iets wat niet mogelijk is zonder dat Filesystem en RAID engine uit één pakket bestaan, zoals het geval is bij ZFS.

Heb je wel eens met ZFS gewerkt? Zo niet, waarom probeer je het niet? Je bent tweaker toch, je wilt nieuwe dingen leren? Dit is echt een grote stap voorwaarts wat betreft bescherming voor je data, geweldige features en kostenbesparende eigenschappen zoals geen dure controller nodig of RAID-edition hardeschijven die TLER ondersteunen. Het geld wat je hiermee bespaart, kun je dan weer uitgeven aan meer schijven of meer geheugen.

Grote nadeel van ZFS is dat het alleen onder sommige OS draait, en dat betekent dus bijna automatisch dat je het als server gebruikt. En je bent er wel meer tijd mee kwijt dan een windows server, maar NexentaStor, FreeNAS of ZFSguru moet als tweaker toch wel lukken?!

Proberen kan heel makkelijk: download Virtualbox op virtualbox.org en maak een nieuwe VM aan waarop je je ZFS NAS installeert. Dan kun je alles rustig testen voordat je er veel moeite in gaat steken of hardware gaat kopen etc.

Wanneer ga jij jouw data beschermen? Kies voor ZFS!


  • McKaamos
  • Registratie: Maart 2002
  • Niet online

McKaamos

Master of the Edit-button

Aha, dus effectief komt het er op neer dat ik nergens last van heb omdat ik relatief kleine schijven gebruik (slechts 400GB p/s), die veel minder last hebben van uBER.

Dat verklaart volgens mij dan ook meteen waarom ik een tijdje terug, bij het doorspitten van een QVL voor een bepaalde RAID kaart, geen 2TB schijven zag staan. (alleen 1.5)
Waarschijnlijk dan ivm die 512byte sectoren.
Dat komt dan vast doordat de platter density zo hoog wordt en het risico op lees/schrijf foutjes daarmee dus ook toeneemt. Am I correct?

ZFS heb ik nog niet mee gewerkt, nee.
Ooit wel eens met Linux geprutst. Lukt opzich wel, maar kost me een hoop tijd en ik vertrouw mezelf er niet voldoende mee om het als "productie server"* te gebruiken.
Daarom draait m'n huidige systeem ook gewoon onder Windows.
De RAID5 gaat er hier wel uit trouwens. Niet om problemen, maar om geluid en energie verbruik. Komt een RAID1 setje van 2x 2TB voor terug (icm andere zuinige hardware).

* Productie in de zin voor eigen permanent gebruik

Destijds was het een beetje Slackware met Apache, MySQL en PHP. En ik heb ooit bij een webhoster gewerkt waar ik nog wel eens op de console wat dingetjes deed (rechten corrigeren, logjes filteren omdat klant X z'n webspace gedefaced was, tarballetje uitpakken om een webspace te restoren nadat de klant de boel leeg gegooid had, dat soort dingen).
Geen moeilijke dingen dus. Wel één voordeel is dat ik al in het DOS tijdperk ben begonnen en consoles me dus niet vreemd zijn. Dat scheelt wel een hoop.
Maargoed, ooit misschien weer eens er mee aan de slag. Op het moment heb ik het te druk met andere dingen.

[Voor 52% gewijzigd door McKaamos op 14-02-2011 00:52]

Hey, pssssst! Wanna buy some stuf? | Opel Vectra C GTS 1.8 '06 | Honda CBR600F '97 | Honda Magna V30 '85


  • herbalx
  • Registratie: September 2007
  • Laatst online: 21-04 22:44
Even een update, ik heb na het reset van de raid members TestDisk gedraaid in de normale modus heeft hij 1 partitie van 10 GB op een schijf van 12 kunnen vinden wat uiteraard niet klopt bij de raid 5 opstelling van 4 x @ TB. Ik ben dus gister begonnen met de deepscan, die rond 60 uur in beslag gaat nemen.

Ik ben hoopvol, want de getallen in deep scan komen meer overeen met de grote van de juiste patitie. Tevens merkte hij een gedeelte aan als EFISECTOR wat mij extra hoop geeft om de ik de partitie als GPT onder windows heb aangemaakt ...... Ik hoop dus dat vanavond/vannacht de scan klaar is er dat jullie vervolgens kan berichten of ik de patatie in een nieuwe RAID 5 array heb weten te recoveren ...

  • Q
  • Registratie: November 1999
  • Laatst online: 09-05 20:44

Q

Zie mijn signature

Deze meneer kan beter gewoon backups maken en niet alleen RAID draaien.

ZFS is totale overkill en bullshit voor jou. Zeker als je kennisvlak niet bij unix ligt.

Het enige wat je nodig hebt is nog iets van een NAS of usb disk waar je de data die echt belangrijk is op backupt.

Als je het dan helemaal goed wilt doen leg je bijv een usb disk ook bij iemand anders thuis (met truecrypt versleuteld...) zodat ook brand een relatief beperkte impact heeft.

Dat is alles.

TE KOOP | Microserver Gen8 + 8GB & SSD


  • herbalx
  • Registratie: September 2007
  • Laatst online: 21-04 22:44
Beste Tweakers,

Ik kan jullie vermelden dat het mij succesvol gelukt is om de data te recoveren. Voor toekomstige tweakers met dit probleem de stappen naar de oplossing op een rijtje

LETOP:

Deze stappen zijn bedoeld voor het recoveren van een gebroken RAID 5 array waarbij de data nog op alle disks nog aanwezig is. (in mijn geval, waren twee schijven uit de array gehaald)

1. Zorg ervoor dat alle schijven nog op de juiste poorten staan aangesloten zoals voor de crash.

2. reboot de machine, en start de BIOS raid utility en noteer de huidige setup van je array (naam van de array, stripe size enz. enz.)

3. reset vervolgens alle schijven naar non-members, vervolgens maak je een nieuwe array aan met exact de zelfde instellingen als daarvoor (de gegevens die je genoteerd hebt) voeg vervolgens alle schijven weer toe aan de array en reboot de PC.

4. Download de tool Testdisk van www.cgsecurity.org en start deze op, selecteer vervolgens de raid schijf en kies voor analyse. In het volgende scherm kun je kiezen voor het type partitie dat je had draaien (onder windows zal dit intel partition of GPT zijn) en vervolgens start je de analyse

LETOP: Soms kan het zijn dat je bij de eerste optie geen partitie gegevens kan vinden, het kan zijn dat je dan voor "deeper search" moet kiezen. Mocht het zijn dat je onder beide opties geen informatie vind dan zitten je schijven niet aangesloten zoals in de array voor de crash.

5. Wanneer er partitie informatie gevonden en je denkt dat het de juiste partitie kan zijn kun je de tool stoppen, anders moet je hem gewoon door laten lopen tot het eind.

6. Als de tool verschillende partitie informatie heeft gevonden kun je deze informatie selecteren en kiezen voor P (list files) zo kun je zien of met de gevonden partitie data de juiste bestanden worden gevonden (bestanden van voor de crash), links onder in het scherm wordt de grote van de partitie getoont bij het selecteren van de partitie informatie.

7. Wanneer je de juiste partitieinformatie hebt gevonden ken je hier middels de pijltjes toetsen (links, rechts) het type aan toe (primary of extended) wanneer je dit gedaan heb druk je op ENTER en kom je in het volgende scherm, hier kies je vervolgens voor write waarna de partitie informatie wordt weggeschreven (letop: weer er zeker van je de juiste partitieinformatie heb geselecteerd)

8. Als de informatie is weggeschreven geeft de tool aan dat je moet herstarten, wanneer je dit gedaan hebt zul je onder de windows RAID 5 als drive weer terug vinden en is alle data weer te benaderen.

succes ermee !


Tevens wil ik mijn dank uitspreken naar alle tweakers die mij middels dit topic hebben geholpen en advies hebben gegeven. Tevens ben ik meer te weten gekomen over de betrouwbaarheid van raid en andere bestandsystemen, bedankt daarvoor.

Totslot ga ik het advies van een NAS ten harte nemen en staat deze op mijn verlanglijstje genoteerd.

  • CiPHER
  • Registratie: November 2000
  • Laatst online: 28-04-2017

CiPHER

Brute Force

Fantastisch en gefeliciteerd, ook dank voor je uitgebreide uitleg daar kunnen andere gebruikers (al dan niet via Google) baat bij hebben!

Mocht je in de toekomst een eigen NAS willen bouwen dan hoop ik je hier op GoT te treffen. :)

Wanneer ga jij jouw data beschermen? Kies voor ZFS!


  • Q
  • Registratie: November 1999
  • Laatst online: 09-05 20:44

Q

Zie mijn signature

Gefeliciteerd en leuk dat je de recovery beschrijft. Misschien leuk om deze post te linken in het datarecovery topic?

TE KOOP | Microserver Gen8 + 8GB & SSD

Pagina: 1



Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Bij het bezoeken van het forum plaatst Tweakers alleen functionele en analytische cookies voor optimalisatie en analyse om de website-ervaring te verbeteren. Op het forum worden geen trackingcookies geplaatst. Voor het bekijken van video's en grafieken van derden vragen we je toestemming, we gebruiken daarvoor externe tooling die mogelijk cookies kunnen plaatsen.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Forum cookie-instellingen

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee