Ext4-partitie op Amahi/Fedora NAS corrupt?

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • Grrrrrene
  • Registratie: Mei 2000
  • Niet online
Laat ik voorop stellen dat ik heel weinig verstand van non-Windows OS'en heb (wordt steeds beter natuurlijk :P).

Sinds ruim een maand draai ik (tot nu toe) naar volle tevredenheid een NAS met Amahi Home Server (gebaseerd op Fedora 12). Het OS e.d. draait op een 250GB pata-disk en de data (films, muziek, foto's...) staan op een raid5-partitie van 4 1,5TB Samsung EcoGreen F2 (HD154UI)-schijven die aangesloten zijn op een Dell Perc 5/i raid controller op een Core 2 Duo E6600-systeempje.

Vanmiddag om 12:03 ging het mis. De terminal gaf tijdens het kopiëren van een 100GB aan data een foutmelding "block allocation failed for inode blabla" en een aantal mappen waren ineens niet meer bereikbaar. Ze werden weergegeven als file met 0kB grootte. Achteraf stom, maar ik heb de partitie ge-unmount omdat fsck aangaf dat de check anders fout zou kunnen gaan (met (nog meer) data corruptie als gevolg). Vervolgens wilde fsck er niks mee, omdat het de partitie niet herkende.

QTParted zag het raid-volume wel, maar de partitie niet (voorspelt weinig goeds :X). Testdisk heeft een half uur lopen scannen (deeper search), maar geeft net zoveel read errors als gelezen sectors en beweert vervolgens dat alles OK is: niks gevonden :(

Ondertussen zou ik wel graag duidelijkheid hebben waarom dit is gebeurd en (belangrijker eigenlijk) hoe ik m'n data terugkrijg. De partitie mag toch niet zomaar verdwenen zijn? De boel is niet overschreven, dus de data zou toch te recoveren moeten zijn (ik heb nog niet gereboot)? De oorzaak _zou_ warm weer kunnen zijn, hoewel er een bak herrie van een set fans uit de NAS komt (staat niet voor niets op de 1e etage ipv in de woonkamer). Qua koeling heb ik er alles aan gedaan om de disks, het mobo en de CPU koel te houden, zou dat toch nog onvoldoende kunnen zijn?

Hoe dan ook: hoe krijg ik m'n partitie weer werkend? Ik heb al zitten googlen en ik kom veel van dit soort problemen tegen met Google, dus ik denk dat ik toch maar teruggrijp naar ext3 (is volgens velen beter bestand tegen crashes?). Voor het zover is, moet de data natuurlijk wel terug. Bah, wat baal ik :/ :(

Edit: dumpe2fs /dev/sdb geeft "Couldn't find valid filesystem superblock"

Imitation is the sincerest form of flattery
Stressed is desserts spelled backwards


Acties:
  • 0 Henk 'm!

  • Grrrrrene
  • Registratie: Mei 2000
  • Niet online
Niemand? Ik zou m'n data graag terug hebben :'(

Imitation is the sincerest form of flattery
Stressed is desserts spelled backwards


Acties:
  • 0 Henk 'm!

  • Onno
  • Registratie: Juni 1999
  • Niet online
Dat QTParted geen partitie ziet is niet zo vreemd als je een bestandssysteem op /dev/sdb (de hele disk dus) hebt gemaakt, en aan je dumpe2fs commando te zien is dat zo.

Omdat je read errors krijgt klinkt het meer als iets met je PERC dan als corruptie van alleen het bestandssysteem; zijn alle fysieke disks nog wel heel? Kun je iets aan logging uit de controller halen? (Dell tools als OpenManage werken waarschijnlijk niet op niet-Dell hardware, maar de tools van LSI zouden wel moeten werken)

Acties:
  • 0 Henk 'm!

  • Wolfboy
  • Registratie: Januari 2001
  • Niet online

Wolfboy

ubi dubium ibi libertas

Ik heb dergelijke problemen ook weleens gehad na een stroomstoring... en ik moet zeggen dat het terughalen van data vrij lastig was. Je kan de losse data zelf wel terugkrijgen. Maar je journal ben je kwijt dus totaal geen indeling meer.

Als je dus heel veel moeite wil doen kan je de bestanden wel terug krijgen, maar ik zou er niet teveel van verwachten.

Je kan deze tutorial even proberen, misschien werkt het: http://linuxexpresso.word...xt4-superblock-in-ubuntu/

Blog [Stackoverflow] [LinkedIn]


Acties:
  • 0 Henk 'm!

  • Grrrrrene
  • Registratie: Mei 2000
  • Niet online
Onno schreef op dinsdag 15 juni 2010 @ 19:53:
Dat QTParted geen partitie ziet is niet zo vreemd als je een bestandssysteem op /dev/sdb (de hele disk dus) hebt gemaakt, en aan je dumpe2fs commando te zien is dat zo.

Omdat je read errors krijgt klinkt het meer als iets met je PERC dan als corruptie van alleen het bestandssysteem; zijn alle fysieke disks nog wel heel?
Als ik de status leds moet geloven wel, maar al zou er een kapot zijn: ik draai raid5, dus dat mag niet zulke fouten geven. Als er iets mis is met de Perc, zou dat kunnen komen door de temperatuur. Ik woon in een jaren '20 woning met slechte isolatie en de NAS staat welliswaar dicht bij een open raam, maar het wordt gewoon warm in die kamer (niks aan te doen). Misschien moet ik het koelblok verwijderen, nieuwe pasta aanbrengen en er een grotere fan opzetten ofzo.
Kun je iets aan logging uit de controller halen? (Dell tools als OpenManage werken waarschijnlijk niet op niet-Dell hardware, maar de tools van LSI zouden wel moeten werken)
Ga ik morgen eens proberen (met de LSI-tools), dan kijk ik direct naar eventuele foutmeldingen.
Wolfboy schreef op dinsdag 15 juni 2010 @ 22:30:
Ik heb dergelijke problemen ook weleens gehad na een stroomstoring... en ik moet zeggen dat het terughalen van data vrij lastig was. Je kan de losse data zelf wel terugkrijgen. Maar je journal ben je kwijt dus totaal geen indeling meer.
Maar waarom zou ik straks weer voor ext4 kiezen als m'n journal zo eenvoudig corrupt/foetsie raakt bij een stroomstoring? Ik kan er wel een UPS achter zetten, maar erg robuust komt deze FS niet over op mij :o
Als je dus heel veel moeite wil doen kan je de bestanden wel terug krijgen, maar ik zou er niet teveel van verwachten.

Je kan deze tutorial even proberen, misschien werkt het: http://linuxexpresso.word...xt4-superblock-in-ubuntu/
Ik verwacht op dit moment niks, ik heb me er al een beetje bij neergelegd dat ik de boel opnieuw moet indelen met ext3 of iets anders geschikt voor een 4TB partitie.

Edit: Zoals het een echte nerd betaamt heb ik meteen maar gedaan wat ik morgen zou doen. Na een reboot meldde de raid controller dat er 0 drives aangesloten waren. In de bios zag hij er 3 en 1 was er "failed". Ik heb de disk uit en weer aangezet en hij werd weer herkend, maar de raid set was foreign. Een nieuwe raid5 set aangemaakt en alles draait weer *O* *O* *O*

Je wil niet weten hoe blij ik ben nu \o/ Ik was echt doodsbang dat ik alles kwijt was. Die disk2 uit de array ga ik van 't weekend wel even loskoppelen en op fouten testen op een andere computer. Bedankt voor de hulp :*

Ik snap alleen nog niet waarom de array faalt als er 1 disk uit de lucht is. Raid5 zou er tegen moeten kunnen dat er een disk uitvalt, daarvan moeten partities niet corrupt raken, toch?

[ Voor 14% gewijzigd door Grrrrrene op 16-06-2010 08:25 ]

Imitation is the sincerest form of flattery
Stressed is desserts spelled backwards


Acties:
  • 0 Henk 'm!

  • Wolfboy
  • Registratie: Januari 2001
  • Niet online

Wolfboy

ubi dubium ibi libertas

Blij dat het weer werkt iig :)

Maarja... die PERC/5i kaartjes hebben mij ook al weleens wat gezeur opgeleverd. Meestal werken ze prima maar soms willen ze de weg weleens kwijt raken. Niet heel veel aan te veranderen afaik.

Blog [Stackoverflow] [LinkedIn]

Pagina: 1