Gisteren mijn Ubuntu Server 16.04 die ik jaren terug in elkaar stak een reboot gegeven daar ik plots geen bestanden op mijn RAID5 kon benaderen. Na de reboot wou de Server enkel nog in recovery mode opstarten.
Mijn googlfu bracht me bij m'n RAID die een fail gaf bij de boot, ik heb deze uit fstab gehaald server opnieuw opgestart en alles werkt netjes wat moet netjes werken. Buiten m'n RAID5 ! Deze doet het dus niet meer.
Mijn RAID 5 bestaat uit 6 x 3 TB schijven. Deze werkt al jaren zonder problemen.
Wat lopen googlen en gelijkaardige problemen tegengekomen op het net. Echter lukt het mij niet om m'n raid te herstellen.
Stap 1 proberen de raid manueel te mounten. Geen geluk.
Daarna schijf per schijf afgegaan en in detail bekeken.
5 van de 6 schijven geven bij Events hetzelfde aan buiten 1 (De sdc1)
Via google wat lopen zoeken en deze zou vermoedelijk niet meer in sync zijn en dus zou ik deze evenuteel als failed kunnen plaatsen, verwijderen en opnieuw invoegen om alles opnieuw aan te maken.
Dat lukt dus niet... Krijg volgende foutmelding.
ik wil geen discussie starten waarom ik nog op 16.04 zit en waarom ik geen RAID5 meer zou mogen gebruiken enzo... Dit systeem werkte jaren zonder problemen en daar was ik best trots op. En iets dat goed werkt verknoeit m'n niet...
Iedere duw in de juiste richting is zeker welkom!
Mijn googlfu bracht me bij m'n RAID die een fail gaf bij de boot, ik heb deze uit fstab gehaald server opnieuw opgestart en alles werkt netjes wat moet netjes werken. Buiten m'n RAID5 ! Deze doet het dus niet meer.
Mijn RAID 5 bestaat uit 6 x 3 TB schijven. Deze werkt al jaren zonder problemen.
Wat lopen googlen en gelijkaardige problemen tegengekomen op het net. Echter lukt het mij niet om m'n raid te herstellen.
Stap 1 proberen de raid manueel te mounten. Geen geluk.
Wat details opgevraagd van de raidx@x:~$ sudo mount -t ext4 /dev/md0 /storage
mount: wrong fs type, bad option, bad superblock on /dev/md0,
missing codepage or helper program, or other error
In some cases useful info is found in syslog - try
dmesg | tail or so.
Daar zie ik nu staan dat Raid level op 0 staat? Moet dat niet 5 zijn?x@x:~$ sudo mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Raid Level : raid0
Total Devices : 6
Persistence : Superblock is persistent
State : inactive
Name : Server:0
UUID : 61d15719:62f3814a:e5712e01:994bec15
Events : 948306
Number Major Minor RaidDevice
- 8 97 - /dev/sdg1
- 8 81 - /dev/sdf1
- 8 65 - /dev/sde1
- 8 49 - /dev/sdd1
- 8 33 - /dev/sdc1
- 8 17 - /dev/sdb1
Daarna schijf per schijf afgegaan en in detail bekeken.
5 van de 6 schijven geven bij Events hetzelfde aan buiten 1 (De sdc1)
Via google wat lopen zoeken en deze zou vermoedelijk niet meer in sync zijn en dus zou ik deze evenuteel als failed kunnen plaatsen, verwijderen en opnieuw invoegen om alles opnieuw aan te maken.
Dat lukt dus niet... Krijg volgende foutmelding.
En dat terwijl de raid er wel isx@x:~$ sudo mdadm --manage /dev/md0 --fail /dev/sdc
mdadm: Cannot get array info for /dev/md0
Nu heb ik getracht de config file te verwijderen en dan volgende command uitgevoerdx@x:~$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sdg1[6](S) sdd1[2](S) sdc1[1](S) sdf1[4](S) sdb1[5](S) sde1[3](S)
17580819456 blocks super 1.2
unused devices: <none>
Niets dus... Wetende dat ik een leek ben betreffende Linux en alles heb werkende gekregen via google & tutrorials had ik graag wat hulp gehad van jullie indien mogelijk.x@x:~$ sudo rm /etc/mdadm/mdadm.conf
x@x:~$ sudo mdadm --assemble --scan --verbose
mdadm: looking for devices for further assembly
mdadm: no recogniseable superblock on /dev/dm-1
mdadm: no recogniseable superblock on /dev/dm-0
mdadm: no RAID superblock on /dev/sdg
mdadm: no RAID superblock on /dev/sdf
mdadm: no RAID superblock on /dev/sde
mdadm: no RAID superblock on /dev/sdd
mdadm: no RAID superblock on /dev/sdc
mdadm: no RAID superblock on /dev/sdb
mdadm: no RAID superblock on /dev/sda3
mdadm: no RAID superblock on /dev/sda2
mdadm: no RAID superblock on /dev/sda1
mdadm: no RAID superblock on /dev/sda
mdadm: /dev/sdg1 is identified as a member of /dev/md/0, slot 5.
mdadm: /dev/sdf1 is identified as a member of /dev/md/0, slot 3.
mdadm: /dev/sde1 is identified as a member of /dev/md/0, slot 0.
mdadm: /dev/sdd1 is identified as a member of /dev/md/0, slot 2.
mdadm: /dev/sdc1 is identified as a member of /dev/md/0, slot 1.
mdadm: /dev/sdb1 is identified as a member of /dev/md/0, slot 4.
mdadm: added /dev/sde1 to /dev/md/0 as 0 (possibly out of date)
mdadm: added /dev/sdc1 to /dev/md/0 as 1 (possibly out of date)
mdadm: added /dev/sdf1 to /dev/md/0 as 3
mdadm: added /dev/sdb1 to /dev/md/0 as 4
mdadm: added /dev/sdg1 to /dev/md/0 as 5
mdadm: added /dev/sdd1 to /dev/md/0 as 2
mdadm: /dev/md/0 assembled from 4 drives - not enough to start the array.
mdadm: looking for devices for further assembly
mdadm: No arrays found in config file or automatically
x@x:~$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
unused devices: <none>
ik wil geen discussie starten waarom ik nog op 16.04 zit en waarom ik geen RAID5 meer zou mogen gebruiken enzo... Dit systeem werkte jaren zonder problemen en daar was ik best trots op. En iets dat goed werkt verknoeit m'n niet...
Iedere duw in de juiste richting is zeker welkom!