Areca Raid6 Gecrashed

Pagina: 1
Acties:

  • thetrueman2
  • Registratie: Maart 2011
  • Laatst online: 06-01 12:47
Hallo GoT,

Afgelopen nacht is mijn Homeserver (Nassie) gecrashed. Deze bestaat uit een Asrock B75M moederbord met een simpele i3 3220 als basis, en gebruikt een areca 1261ML als raidcontroller waarop 8 4TB WD Red schijven zijn aangesloten in Raid 6. Als OS wordt WS2008R2 gebruikt, welke op een losse HDD staat. Op de array staan een heel aantal backups, series, spelletjes en fotos die ik liever niet wil kwijtraken, al is van de kritieke data een offsite backup. Na een paar uur proberen en zoeken hoop ik dat iemand weet wat ik het beste kan doen, aangezien ik tamelijk ten einde raad ben.

Omstreeks 5 uur vanmorgen begon de controller herhaaldelijk te piepen (snelle biepjes). Normaliter is alleen Power+Ethernet aangesloten en staat de case uit het zicht. In een halfslaap heb ik de server toen uitgedrukt, en ben na mijn werk gaan kijken wat er aan de hand was. Na het opstarten begon het gepiep gelijk weer. Ik heb toen via remote desktop ingelogd op de webGUI van areca en het bleek dat een van de HDDs een te hoge TLER vertoonde waardoor de alarmbellen gingen rinkelen.

Ik moest even de deur uit, dus om te voorkomen dat de buren horendol zouden worden heb ik de server afgesloten. Bij thuiskomst heb ik hem aangesloten op een beeldscherm+tobo, maar nu zit het systeem vast in een bootloop. De server start, de controller biept 1 keer, de schijven spinnen op snelheid en dan valt het systeem uit. Als alles dan is uitgedraait begint het weer opnieuw (oneindig). Er komt geen beeld uit (ook geen bootlogo of POST), en ik weet niet of het veilig is om te booten zonder dat de controller is aangesloten (er is geen BBU aanwezig/aangesloten).

Wat kan ik het beste doen? Is het veilig om de controller los te halen zonder dataverlies, en moet ik de HDDs dan ook loskoppelen? En hoe kan ik de controller debuggen zonder dat het systeem wil booten met de controller er in?

Alle tips en hulp zijn meer dan welkom :).

I can tell by your lack of interest that I was kidding.


  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

De RAIDconfig staat op je disks opgeslagen. Dus los halen en terugprikken en je kunt gewoon bij je RAIDarray komen, dat doet m'n 1220 iig. Mik de disk eruit die de hoge TLER geeft en druk er een andere in zodat ie kan rebuilden naar dat ding.

  • thetrueman2
  • Registratie: Maart 2011
  • Laatst online: 06-01 12:47
Aah super. Ik ga er mee aan de slag :)

Enorm bedankt voor de reply alvast!

I can tell by your lack of interest that I was kidding.


  • thetrueman2
  • Registratie: Maart 2011
  • Laatst online: 06-01 12:47
Kleine necro van dit topic. Na veel gehannes heen en weer met de schijf die als timed out was gemarkeerd heb ik hem teruggestuurd naar de webshop. Eenmaal daar aangekomen bleek deze het echter prima te doen, en waren er geen abnormale waarden te vinden in de SMART informatie.

Omdat ik er zelf ook geen wijs meer uit werd heb ik hem na ontvangst weer terug in de server gezet, maar ook nu bleven er zich problemen voordoen. Na volledige disassemblage van het systeem bleek het probleem een gebroken voedingskabel te zijn. Geen idee hoe, maar de kabel was helemaal door.

Schijf er weer in gedaan na een format (want pariteit, dus leek mij makkelijker om te rebuilden). De schijf geactiveerd als hot spare en toegewezen aan de array, daarna een RESCUE uitgevoerd middels de BIOS en een SIGNAT er achter aan. Na een reset wilde windows weer booten, alleen kan ik de volumes er op niet benaderen. Geen enkel volume wordt herkend in disk management, al geeft de controller in de web GUI aan dat de raid set in orde is (er wordt geen volume set gevonden though)

De web GUI geeft aan dat de Raid set state Normal is en deze is actief, alle schijven worden herkend (8/8) maar ik kan ondanks vele uren googlen geen oplossing vinden.

In de eventlog vond ik terug dat hij zonder notificatie was begonnen met rebuilding, maar ik omdat ik niet merkte dat dit gestart was heb ik de controller soft gereset. :/ Is er een manier om dit handmatig te (her)starten?

2015-09-05 19:08:35 Proxy Or Inband HTTP Log In
2015-09-05 19:01:38 H/W Monitor Raid Powered On
2015-09-05 19:00:00 H/W Monitor Raid Powered On
2015-09-05 18:56:58 RS232 Terminal VT100 Log In
2015-09-05 18:56:44 H/W Monitor Raid Powered On
2015-09-05 18:26:39 Proxy Or Inband HTTP Log In
2015-09-05 18:20:00 H/W Monitor Raid Powered On
2015-09-03 14:27:23 Proxy Or Inband HTTP Log In
2015-09-03 14:21:35 H/W Monitor Raid Powered On
2015-09-03 14:18:59 Proxy Or Inband HTTP Log In
2015-09-03 14:11:32 H/W Monitor Raid Powered On
2015-09-03 14:09:39 File Storage Rebuild RaidSet
2015-09-03 14:07:50 RS232 Terminal VT100 Log In
2015-09-03 14:07:17 Incomplete RAID Discovered
2015-09-03 14:07:17 H/W Monitor Raid Powered On
2015-09-03 14:05:51 RS232 Terminal VT100 Log In

Alle responses worden zeer op prijs gesteld. Inmiddels bijna een maand zonder data, en het begint toch wel een beetje te kriebelen. :)

Bij voorbaat dank.

I can tell by your lack of interest that I was kidding.


Verwijderd

TL;DR: je hebt je schijf geformatteerd waar data op stond? Huh?

Je hebt je RAID array laten rebuilden terwijl je geen 1:1 backup hebt van de schijven? Huh?!

Je hebt het niet helemaal slim aangepakt als ik dat mag zeggen. Is je data echt belangrijk? Ik wil je verhaal wel aandachtig doornemen, maar het moet ook mijn tijd waard zijn. Heb je er veel voor over om je data terug te halen, qua tijd en geld dat je allemaal reserveschijven hebt zodat je een deftige 1:1 backup kan maken voordat je gaat klooien?

Omdat je nu al hebt gerebuild, zijn je kansen wel flink geslonken overigens... Oh zo dat is zo jammer je had alles terug kunnen halen!

[ Voor 82% gewijzigd door Verwijderd op 05-09-2015 19:45 ]


  • thetrueman2
  • Registratie: Maart 2011
  • Laatst online: 06-01 12:47
Het is een lang verhaal, en spijt van het formatteren heb ik zeker. Ik heb werkelijk niet door gehad dat er een rebuild gestart was, anders had ik natuurlijk nooit gereset maar was ik er lekker afgebleven.

Echter heb ik financieel de middelen niet om 30TB+ aan data te back-uppen. Ik ben niet bang om de data te verliezen, aangezien van de écht belangrijke data (schoolwerk/werk/fotos) wel een offsite backup is. Echter gaat het wel om véél data. O.a antieke probeercode, disc images en een aantal VMs die voor mij waardevol zijn, maar waardoor ik geen schade lijdt als ik ze niet meer heb.

En ja, ik realiseer me dat ik het niet slim aan heb gepakt. Daarvoor excuses! Ik heb werkelijk niet gemerkt dat het rebuilden op enige manier gestart was. :/

I can tell by your lack of interest that I was kidding.


Verwijderd

Nouja excuses mag je aan jezelf maken. :)

Punt is, ik kan mensen helpen met 'moeilijke' RAID recovery, maar dan wil ik ook zien dat het de ander serieus is. Pas dan vind ik het mijn tijd waard, want ik beschouw mijn tijd als zeer waardevol.

Dat gezegd, ik weet ook niet of het echt zin heeft. Die rebuild zorgt ervoor dat er plekjes hier en daar zijn overschreven. Als de instellingen niet goed zijn (disk order, stripesize, offset) dan betekent dit een vernietiging van je data om de stripe block, en dan kun je het wel opgeven eigenlijk.

Nog even concreet:
  • Wat zie je bij Disk Management / Schijfbeheer? Kun je hier een screenshot van laten zien?
  • Heb je voordat je de disk had toegevoegd, dus waarbij je volume degraded draaide, wel gekeken hoe Windows/Areca je data ziet? Kun je daar nog iets meer over vertellen?

  • thetrueman2
  • Registratie: Maart 2011
  • Laatst online: 06-01 12:47
Ik wil het echt serieus een kans geven, maar ben helder groen als het op recovery aankomt. Juist omdat het maar 1 schijf betrof die, zoals later bleek, niet eens defect was ben ik er vanuit gegaan dat het rebuilden relatief eenvoudig zou zijn.

Zoals al gemeld is er in windows niet te zien dat er volumes aanwezig zijn behalve die op de bootschijf. De controller zou evengoed niet kunnen bestaan.

- Screenshot van Disk management:
Disk Management

- Wat betreft de weergave met 7 disks. De raid set werd ook in die staat herkend door de controller, maar was gemarkeerd als incomplete (degraded). Op dat moment herkende windows het volume al niet meer, en was er (op het oog) geen verschil tussen de incomplete set of de set zoals hij nu draait.

Na het opnieuw toevoegen van de ontbrekende (lege) schijf als hot spare via de bios veranderde de state naar Normal in de bios. Na de reset was er geen verandering merkbaar, dus heb ik gepoogd om de set handmatig te recoveren (zie boven).

I can tell by your lack of interest that I was kidding.


Verwijderd

Hm, heb je wel de drivers voor Areca geïnstalleerd? Kijk eens in Apparaatbeheer of je dingen met uitroeptekentjes ziet.

Ook je degraded volume had je namelijk moeten zien, dus toen was het al mis kennelijk. Laten we hopen dat het nog simpel te fixen is en je data er nog gewoon is! Als er geen gekke dingen gebeurd zijn verder, zou dat gewoon zo moeten zijn namelijk.

  • thetrueman2
  • Registratie: Maart 2011
  • Laatst online: 06-01 12:47
De drivers heb ik destijds wel geinstalleerd. Ook kan ik de controller terugvinden onder storage controllers, dus het lijkt mij dat deze correct functioneert. Een herinstallatie van de drivers heb ik niet geprobeerd, maar zou dat uberhaupt kunnen helpen?

Afbeeldingslocatie: http://static.tweakers.net/ext/f/GHS41D5wEULTEtvRF5DGFnZX/medium.png

Ik waardeer alle hulp zeer! Hopelijk is het nog te redden :)

I can tell by your lack of interest that I was kidding.


  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 10-06-2025
Ik heb ooit wel eens een soortgelijk probleem gehad nadat ik mijn raid-controller, inclusief disks/RAID had overgeprikt naar een nieuw systeem. De Volume State was "normal" maar Windows zag niets staan in Disk Management.

Nu weet ik alleen niet precies meer hoe ik dit weer aan de praat heb gekregen, maar er staat mij iets van bij dat dit te maken had met de "SCSI Ch/Id/Lun" instelling. Deze heb ik volgens mij moeten aanpassen naar 0/0/0.

Kun je eens kijken & posten wat er wordt aangegeven onder "Information" -> "RaidSet Hierarchy" in de web-console?

  • thetrueman2
  • Registratie: Maart 2011
  • Laatst online: 06-01 12:47
Hier een SS van de Raid Hierarchy. Bedankt voor alle hulp, ik ga overigens nergens meer zomaar aanzitten zonder tips. Dus tenzij jullie de data naar de eeuwige jachtvelden verklaren blijft het lekker staan. :)

Afbeeldingslocatie: http://static.tweakers.net/ext/f/hAcFq5hRDvnHcoSBAwQeHDMJ/medium.png

I can tell by your lack of interest that I was kidding.


  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 10-06-2025
Het ziet er naar uit dat je Volume Set verdwenen is. Kijk anders eens op dit forum. Misschien dat hier wat bruikbare informatie voor je bij staat.

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 06-01 15:49
Wat vreemd lijkt is dat je raidset zich "gezond" meldt of is de rebuild helemaal geslaagd?.
Probeer eerst "activate raidset" vanuit bios menu en daarna de meer avontuurlijke acties zoals level 2 rescue. Areca controllers zijn bij mij 100% betrouwbaar gebleken bij het rebuilden en recoveren van een degraded raidset / volumeset.

[ Voor 23% gewijzigd door BartNL op 06-09-2015 13:51 ]


  • thetrueman2
  • Registratie: Maart 2011
  • Laatst online: 06-01 12:47
@brederodekater: Ik had dat topic inderdaad al gevonden, en lijk nu vast te zitten rond dit punt. Ik ben nu echter een beetje angstig om zomaar dingen er op los te laten, aangezien de raidset wel in orde lijkt.

@BartNL: het probleem zit hem er in dat ik de eerste rebuild dus zonder het door te hebben onderbroken heb. Activate raid set heb ik in mijn vorige stappen al gedaan, waarbij de controller aangeeft dat de raid set al actief is.

Kan het kwaad om LeVeL2ReScUe + reboot + SIGNAT uit te voeren? of beschadig ik de data daar misschien meer mee?

I can tell by your lack of interest that I was kidding.


Verwijderd

Dat heeft zeker de potentie om je data te knagen. Ik zou eerst even uitzoeken waarom je RAID set niet zichtbaar is in je OS.

Misschien ook even booten met een Ubuntu linux LiveCD bijvoorbeeld. Voordat je drastische maatregelen gaat nemen zonder backup van je data.

  • thetrueman2
  • Registratie: Maart 2011
  • Laatst online: 06-01 12:47
Dank voor de feedback. Ik ga nu een livecd voorbereiden, ben benieuwd wat daar uit komt.

I can tell by your lack of interest that I was kidding.


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 06-01 15:49
level2rescue heb ik regelmatig gedaan en is heeft altijd gewerkt. Beetje afhankelijk van hoe erg het is dat je data kwijt is zou het de volgende stap kunnen zijn. Eigenlijk zou je de disk die niet helemaal ge-rebuild is beter uit de array kunnen halen. Dat kun je ook na een level2rescue doen.
level2rescue schrijft enkel de raidset info naar alle schijven en qua data heb ik het nog nooit op het veroorzaken van data verlies kunnen betrappen. Kan ook bijna niet aangezien het 0,0 tijd in beslag neemt.

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 06-01 15:49
livecd is zinloos wanneer je raid controller de volume set al niet ziet.

  • thetrueman2
  • Registratie: Maart 2011
  • Laatst online: 06-01 12:47
Volume wordt inderdaad ook in Ubuntu niet herkend. An sich ook logisch aangezien de controller het niet goed doorgeeft, maar proberen kan (in dit geval) geen kwaad.

//Edit. @BartNL: Dus eerst L2R, als dat niet werkt dan de disk verwijderen en daarna opnieuw L2R? of eerst de disk verwijderen en DAN L2R?

[ Voor 30% gewijzigd door thetrueman2 op 06-09-2015 23:23 ]

I can tell by your lack of interest that I was kidding.


  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 06-01 15:49
L2R maakt denk ik niet uit wanneer je de disk die aan het rebuilden was er uit haalt. Meest safe is om dat vooraf te doen. Dus disk er uit dan L2R. En wanneer je een degraded raidset en volumeset terug hebt de "lege disk" terugplaatsen en rebuilden.
Volgorde is L2R en wanneer je volumeset terug is en je data ok lijkt een signat en reboot. Daarna rebuild.

  • thetrueman2
  • Registratie: Maart 2011
  • Laatst online: 06-01 12:47
De set wordt nu weer als incomplete/degraded gedetecteert. De volume set is echter nog steeds niet zichtbaar, ook niet na een L2R.

I can tell by your lack of interest that I was kidding.


  • Q
  • Registratie: November 1999
  • Laatst online: 00:46

Q

Au Contraire Mon Capitan!

Als je echt om je data geeft, zou ik een data recovery bedrijf inschakelen. Kost een paar duizend euro, maar de vraag is of je data het waard is. Zelf nu doorgaan met klooien maakt de kans op recovery in mijn ogen alleen maar kleiner.

  • BartNL
  • Registratie: Maart 2001
  • Laatst online: 06-01 15:49
hij geeft al aan dat de data niet kritisch is. Bij Areca moet je vooral met SIGNAT uitkijken omdat je daarmee de dan gedetecteerde informatie naar alle disks schrijft. Zou je pas moeten doen wanneer data ok is/lijkt.
@thetrueman2
Dat je alleen de volumeset kwijt bent maakt het voor mij onduidelijk d.w.z. eigenlijk is er weinig mis behalve dan dat je data niet beschikbaar is ;)
De info op Hardforum is wat ik ook zou gebruiken en in de afgelopen jaren heb ik nog nooit een NO INIT hoeven te doen maar lijkt dat dat de volgende stap zou kunnen zijn.

  • thetrueman2
  • Registratie: Maart 2011
  • Laatst online: 06-01 12:47
Ik heb naar mijn weten alles geprobeerd, inclusief een NO INIT maar ben er helaas niet in geslaagd om de volume set te herstellen. Omdat ik de ruimte nu toch wel nodig heb zie ik het volume maar als verloren. Wel een goed leermoment om van enigszins frequent gebruikte data om de zoveel tijd een backup te maken.

Iedereen bij deze hartelijk bedankt voor de tijd en moeite. M.N. BartNL en CiPHER hebben me aan het denken gezet, en ik ga de volgende keer anders/slimmer om met een crash. :)

I can tell by your lack of interest that I was kidding.


Verwijderd

Je zou een ZFS NAS kunnen overwegen. Dan zou zoiets niet meer voor mogen komen. Nadeel is wel dat je Areca controller incompatible is met ZFS.

  • thetrueman2
  • Registratie: Maart 2011
  • Laatst online: 06-01 12:47
Ik heb het overwogen toen ik deze setup aan het bouwen was. Zonder de controller zou ik kunnen leven, maar de opslag los moeten stellen van het windows OS leek mij destijds wat omslachtig (en ja, ik wil wel graag bij windows blijven :)).

Misschien is de scheiding nu wel de overstap waard. Ik ga er in ieder geval opnieuw naar kijken, bedankt voor de tip!

I can tell by your lack of interest that I was kidding.


Verwijderd

Mensen met een Synology gebruiken toch ook Windows? Zo ook heel veel mensen die ZFS gebruiken. Je hebt dan alleen een aparte machine die de opslag doet: netwerkopslag. Met alle ZFS platforms is het ook gemakkelijk te gebruiken voor mensen met alleen Windows kennis. Je moet alleen bereid zijn een middagje in te lezen en een beetje moeite te doen. That's it. In principe één keer instellen en jarenlang geen omkijken naar.

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21:00
Als je avontuurlijk bent kun je storage spaces proberen :)

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

Dan heb je nog steeds geen bescherming tegen corruptie, helaas.

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21:00
Nee maar het draait wel onder Windows, en dat was een requirement.

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

Tja, wat is dan precies het verschil tussen een lokaal station (D:) of een mapped network drive (D:). In de praktijk niet zoveel behalve dat gigabit een bottleneck kan vormen. Maar voor de rest ontloopt het elkaar niet zoveel.

  • DYX
  • Registratie: Mei 2008
  • Laatst online: 05-01 19:26

DYX

Verwijderd schreef op woensdag 09 september 2015 @ 10:42:
Tja, wat is dan precies het verschil tussen een lokaal station (D:) of een mapped network drive (D:). In de praktijk niet zoveel behalve dat gigabit een bottleneck kan vormen. Maar voor de rest ontloopt het elkaar niet zoveel.
Omdat je dan nog steeds een niet-windows systeem te onderhouden heb. Ik heb dezelfde overweging gemaakt en ook gekozen om met hardware-raid te gaan ipv ZFS. Puur om het feit dat als er iets mis zou gaan ik niet genoeg *nix kennis heb om dit te kunnen oplossen. Dit is natuurlijk puur een persoonlijke keuze van iemand, waarbij de afweging tussen onderhoudbaarheid en bescherming gemaakt is :)

  • rookie no. 1
  • Registratie: Juni 2004
  • Laatst online: 07-01 17:11
Verwijderd schreef op woensdag 09 september 2015 @ 09:40:
Dan heb je nog steeds geen bescherming tegen corruptie, helaas.
Kun je me uitleggen waarom je geen bescherming zou hebben tegen corruptie op basis van Storage Spaces i.c.m. het ReFS wat Microsoft sinds Server 2012 aanbiedt? Je kunt ReFS nog steeds niet voor alle doel einden gebruiken, maar wanneer dat wel mogelijk is heb ik het idee dat de kans corruptie hierdoor aanzienlijk verkleint wordt. Heb ik dat niet goed begrepen uit de documentatie over ReFS of bedoel je iets anders?

Overigens zal ZFS vast veel beter zijn voor (grote) storage systemen, maar wordt eenvoudigweg niet overal gekozen ('onbekend' is onbemind?)

Verwijderd

DYX schreef op woensdag 09 september 2015 @ 11:16:
Omdat je dan nog steeds een niet-windows systeem te onderhouden heb.
Je hebt niks te onderhouden. ZFS onderhoudt zichzelf. Als een disk crasht, dan misschien. Maar zoveel mensen die een ZFS platform draaien en dit jarenlang zonder omkijken gedaan hebben. Dan denken 'moet ik niet een keer updaten?' die vragen hoor ik vaak op het ZFSguru forum.

Kortom, dit is niet echt een issue. Eenmaal geconfigureerd kun je er jaren tegenaan. En ZFS zorgt dat je beschermd bent.
Ik heb dezelfde overweging gemaakt en ook gekozen om met hardware-raid te gaan ipv ZFS. Puur om het feit dat als er iets mis zou gaan ik niet genoeg *nix kennis heb om dit te kunnen oplossen.
Nouja de kans dat er iets mis gaat is extreem veel groter met Hardware RAID en andere legacy oplossingen. Dat laat dit topic ook maar eens zien. Beter dan Areca + RAID6 kan bijna niet op hardware RAID gebied. ZFS is gewoon dé manier om je data op te slaan in dit tijdperk.

@rookie no. 1: ReFS is wel het minst uitontwikkelde 3e generatie filesystem. Ik hoor er weinig goeds over van mensen die het gebruiken. Misschien over een aantal jaar dat de kinderziektes eruit zijn. Tot die tijd zou ik lekker blijven bij iets wat gewoon 'werkt'.

  • DYX
  • Registratie: Mei 2008
  • Laatst online: 05-01 19:26

DYX

Verwijderd schreef op woensdag 09 september 2015 @ 13:16:
[...]

Je hebt niks te onderhouden. ZFS onderhoudt zichzelf. Als een disk crasht, dan misschien. Maar zoveel mensen die een ZFS platform draaien en dit jarenlang zonder omkijken gedaan hebben. Dan denken 'moet ik niet een keer updaten?' die vragen hoor ik vaak op het ZFSguru forum.

Kortom, dit is niet echt een issue. Eenmaal geconfigureerd kun je er jaren tegenaan. En ZFS zorgt dat je beschermd bent.


[...]

Nouja de kans dat er iets mis gaat is extreem veel groter met Hardware RAID en andere legacy oplossingen. Dat laat dit topic ook maar eens zien. Beter dan Areca + RAID6 kan bijna niet op hardware RAID gebied. ZFS is gewoon dé manier om je data op te slaan in dit tijdperk.
Qua onderhoud geldt natuurlijk hetzelfde voor hardware raid. Deze draait ook gewoon, maar persoonlijk monitor ik deze alsnog en update indien nodig. Geen onderhoud zou kunnen en zal misschien functioneel gezien niet vereist zijn, maar bij mij persoonlijk gaat er toch iets jeuken als ik een systeem zou hebben die erg ver achterligt qua updates. Maar dit is natuurlijk iets persoonlijks.

Je opmerking dat het risico extreem veel groter is, is natuurlijk wel wat overdreven. Als ik ga kijken zie ik online ook wel posts voorbij komen van mensen die hun ZFS pool omzeep hebben geholpen op wat voor manier dan ook. Het is en blijft software (zelfde geldt voor firmware van hardware raid). Er kan altijd iets gebeuren. Maar dit is niet een discussie die ik verder niet ga voeren aangezien jij een redelijk duidelijk mening heb over ZFS heb en ik gedeeltelijk blijkbaar een andere ;)

Verwijderd

DYX schreef op woensdag 09 september 2015 @ 13:41:
Qua onderhoud geldt natuurlijk hetzelfde voor hardware raid.
Natuurlijk niet. Dat bewijst dit topic toch maar eens?

Bovendien heb je het dan over het RAID-gedeelte. Ook het filesystem ben je nog niet klaar mee, want dat is natuurgetrouw een legacy filesystem waar je handmatig filesystem checks moet doen en die kan ook nooit weten of je data nu corrupt is of niet, alleen of het filesystem consistent is.

ZFS lost alle fouten automatisch op, tenzij het onmogelijk is om dit op te lossen, doordat je te weinig redundancy hebt. Dus ZFS is vrijwel onderhoudsvrij, terwijl legacy RAID met legacy filesystems dat zeker niet zijn.

ZFS zelf hoef je ook niet te updaten; dat is vrijwel 'af' - er komen hooguit nieuwe features bij en wat performancetweaks. Heb je niet nodig. Updaten voor security zou wel nodig zijn, als je de machine gebruikt in een vijandige omgeving (internet). Maar normaliter hang je een NAS niet aan het internet.
Als ik ga kijken zie ik online ook wel posts voorbij komen van mensen die hun ZFS pool omzeep hebben geholpen op wat voor manier dan ook.
Vertel eens! Ben benieuwd! :)

Op goede platforms zoals BSD waar ZFS mature is, zou dit nooit voor mogen komen. Tenzij je dingen doet die niet 'mogen' - zoals ZFS op een hardware RAID controller draaien of ZFS gebruiken op onveilige virtualisatielagen. Kortom als er iets tussen ZFS en de disks zit. Daar kun je ZFS dan ook niet de schuld van geven.

  • rookie no. 1
  • Registratie: Juni 2004
  • Laatst online: 07-01 17:11
Verwijderd schreef op woensdag 09 september 2015 @ 13:16:
[...]Tot die tijd zou ik lekker blijven bij iets wat gewoon 'werkt'.
Kortom, zelfs beter om NTFS nog te gebruiken als het om een volledige Windows omgeving gaat? Dat zou me verbazen. Lijkt me dat je daarmee juist weer meer kans hebt op corruptie.

Verwijderd

ZFS is prima mature en wordt door enorm veel mensen - inclusief veel thuisgebruikers - gebruikt. Dus ik snap je punt niet zo goed? Als je dit nou over Btrfs of ReFS zegt, heb je wel een punt.

En inderdaad, hetzelfde argument kun je ook opvoeren om terug te gaan naar FAT16, is nog ouder en meer 'bewezen' dan NTFS. Maar dergelijke discussies gaan nergens meer over. ZFS is gewoon hot: het biedt je serieuze bescherming voor je bestanden, terwijl je geen UNIX kennis hoeft te bezitten, en het is volkomen gratis en eenvoudig in gebruik mits je de specifieke ZFS platforms benut.

Het enige valide argument om voor NTFS te gaan dat ik me kan bedenken is performance. Lokaal met Hardware RAID kun je prima 600MB/s halen terwijl dat met gigabit tot ~100MB/s beperkt wordt. Want 10G is weer peperduur. Dat is wel een valide argument. Maar voor de rest, is ZFS gewoon superieur.

  • rookie no. 1
  • Registratie: Juni 2004
  • Laatst online: 07-01 17:11
Dat komt misschien omdat ik het zo had moeten vragen:

"Is het dan zelfs beter om NTFS nog te gebruiken i.p.v. ReFS als het om een volledige Windows omgeving gaat waar je alleen tussen deze twee opties mag kiezen vanwege bedrijfsbeleid?"

Misschien steel ik hierbij een klein beetje het topic, al heeft de TS er waarschijnlijk ook wat aan ;)

Verwijderd

Als je het zo vraagt wel, maar dat is dan kiezen uit twee kwaden. Want bij NTFS heb je geen enkele zekerheid. NTFS heeft geen enkele vorm van bescherming, behalve het verlies van recente writes door DRAM write-back in hardeschijven en SSDs - dus vanaf Windows NT 4.0.

ReFS is weer een poging van Microsoft om een klein beetje up-to-date te worden en de 21e eeuw te betreden qua storage. Maar van alle 3e generatie filesystems is dit het minst sexy, met de minste features, met de slechtste beschikbaarheid en vooral: nog totaal niet volwassen en bruikbaar genoeg om daadwerkelijk te overwegen. Het is alpha-kwaliteit op dit moment. Nog lang niet op het niveau van ZFS versie 1, en de vraag is of dat snel gaat veranderen. Dan zie ik veel meer heil in Btrfs en zelfs HammerFS.

Maar NTFS is prima bruikbaar en mature, het biedt alleen geen bescherming voor je bestanden wat eigenlijk niet meer kan in dit tijdperk.

  • rookie no. 1
  • Registratie: Juni 2004
  • Laatst online: 07-01 17:11
Duidelijk, gewoon nog ver weg blijven van ReFS en dan maar NTFS met de nadelen daarvan voor lief nemen. Als ZFS kan (mag), dan dat :-)

Verwijderd

Om maar even een analogie te maken: Ext4 - een miniscule update van Ext3 Linux filesystem wat weer op Ext2 gebouwd is en dus uit de jaren 80 komt, werd geïntroduceerd in Ubuntu 10.04 ofzoiets. Gelijk bijna alle Linux systemen met vrij ernstige corruptie. En dat voor een kleine update...

En wat voegde Ext4 toe? Wat performance tweaks. Haah! Daarvoor donder je dan je data in de prullenbak... Nou lekker.

Nee, een beetje conservatief met je data mag je wel zijn. Als je data je wat waard is dan.

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21:00
Ter info, wellicht off topic maar wel handig voor de ts om te weten als alternatief wellicht..

Storage spaces werkt wel maar.

1) Parity is langzaam vergeleken bij HW raid en ZFS
Getest met 10x 1TB HDD en 2 x 240 GB SSD in tiered mode en 100GB write back cache onder server 2012r2 (max write rate 250 MB/sec)
getest met 6 x 3 TB HDD en 2 x 240 GB SSD onder windows 10, kon tiered mode niet werkend krijgen met zelfde commandos als 2012 r2, max snelheden rond 50 MB/sec
Relatief dure oplossing zelfs al werkt tiering, omdat je 2 x SSD nodig hebt per column, en als je meerdere columns gaat doen, per extra column weer 2 x SSD (of ik moet iets complete verkeerd begrepen hebben)

2) mirror werkt goed alleen inefficient door de 100% overhead in disk ruimte. Verder had ik erg varierende overdracht snelheid: tijdje snel (350 MB/sec dan weer bijna geen doorvoer, weer 350 MB/sec etc.)
Dit getest met 6 x 3 TB HDD met 3 columns ingesteld.

ReFS leek 10% langzamer te zijn dan NTFS in het algemeen.
ReFS werkt op de mirror, niet op de parity volume (in de gui)

[ Voor 3% gewijzigd door jacovn op 10-09-2015 08:09 ]

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase


Verwijderd

Storage spaces is dan nog een waardig alternatief voor plain NTFS. Maar ook weinig meer dan een laag erover - net als Synology Hybrid RAID (SHR) een laag is over het ouderwetse Ext4 filesystem.

  • jacovn
  • Registratie: Augustus 2001
  • Laatst online: 21:00
Storage spaces lijkt leuk, maar is het net niet (althans voor mij)
Parity mode werkt gewoon niet snel genoeg. Als de opslag de download al niet bij kan houden is het niet geschikt..
ReFS zou wellicht iets zijn, maar lijkt storage spaces nodig te hebben, en op een enkele hdd weer zinloos te zijn. Blijkbaar een copy uit een mirror nodig om data te valideren.

Of de windows 10 gui laat niet alles toe, en moet dat allemaal nog komen. De powershell commando's die je online in voorbeelden vindt werken ook niet allemaal. Wellicht ook een Windows 10 issue dat opgelost gaat worden, maar erg frusterend als je iets wilt testen (ook totaal geen voorbeelden op de MS website te vinden voor windows 10, alles nog voor server 2012 en windows 8)

8x330 NO12.5°, 8x330 ZW12.5°, 8x350 ZW60°, 8x325 NO10°, SE8K, P500. 6x410 ZW10° Enphase

Pagina: 1