Hopelijk op de correcte plaats. Excuses als dit niet het geval is.
Om een lang verhaal kort te maken: Mijn Software RAID 5 was vol en ik wou een nieuwe schijf bijsteken. De schijf werd gisteren geleverd. Fier als een gieter zet ik mijn server uit (Nog geen hot swap) en steek ik de schijf in. Na de opstart wordt de schijf in de BIOS niet gevonden. Wat testen uitgevoerd. Werkt niet. In een andere PC gestoken, werkt niet. Terug in de server willen steken, wat kabeltjes verstoken en de server terug aangezet, onmiddellijk een rookwolk
Onmiddellijk de stekker er uit!! En op onderzoek. Vlug gevonden, 1 van de RAID5 schijven had plots een zwarte vlek... VERDORIE!! Nog geen paniek, het is een RAID5, 1 disk mag Failen. Onmiddellijk 2 nieuwe schijven laten leveren. Getest, beide werken. 1 in de server gestoken om zo de RAID5 te kunnen herstellen.
En daar loopt het mis...
Bij opstart van de server krijg ik onmiddellijk:
Ok, ik druk op S om door te gaan, de server start vlotjes op. Echter geen RAID5 te zien.
Googlen hoe ik een failed schijf moet vervangen, ik vind daar genoeg info over.
Ik moet blijkbaar eerst de schijf "failen" en dan "removen". Ok, daar gaan we, ik vermoed dat het schijf sdd was die down is. Echter krijg ik volgende foutmelding:
Zo wordt het moeilijk iets te doen natuurlijk... Ik zie dat de nieuwe schijf ook sdd noemt nu.
Ik heb deze klaar gemaakt om te includen in de Array, mss bouwt hij zo alles weer op.
Dan maar volgende gedaan:
Ok, na nog wat googlen deed ik dan maar het volgende:
Nu zit ik volledig met m'n handen in het haar. Ik weet het niet, google kan me niet redden, dus hoop ik opnieuw dat jullie me uit de nood kunnen helpen.
Nog wat info:
Nog wat info:
Ik ben een leek op gebied van RAID en Linux enzo, alles wat ik voor elkaar kreeg was door jullie hulp of door de hulp van Google. Dus hopelijk kan ik op jullie geduld rekenen.
Alvast bedankt voor ENIGE hulp,
Groeten,
Luke.
Om een lang verhaal kort te maken: Mijn Software RAID 5 was vol en ik wou een nieuwe schijf bijsteken. De schijf werd gisteren geleverd. Fier als een gieter zet ik mijn server uit (Nog geen hot swap) en steek ik de schijf in. Na de opstart wordt de schijf in de BIOS niet gevonden. Wat testen uitgevoerd. Werkt niet. In een andere PC gestoken, werkt niet. Terug in de server willen steken, wat kabeltjes verstoken en de server terug aangezet, onmiddellijk een rookwolk
En daar loopt het mis...
Bij opstart van de server krijg ik onmiddellijk:
The disk drive for /storage is not ready yer or not present. Keys: Continue to wait or Press S to skip mounting or M for manual recovery
Ok, ik druk op S om door te gaan, de server start vlotjes op. Echter geen RAID5 te zien.
cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : inactive sdb1[1](S) sdc1[2](S)
5860268032 blocks super 1.2
unused devices: <none>Googlen hoe ik een failed schijf moet vervangen, ik vind daar genoeg info over.
Ik moet blijkbaar eerst de schijf "failen" en dan "removen". Ok, daar gaan we, ik vermoed dat het schijf sdd was die down is. Echter krijg ik volgende foutmelding:
mdadm --manage /dev/md0 --fail /dev/sdd1 mdadm: cannot get array info for /dev/md0
Zo wordt het moeilijk iets te doen natuurlijk... Ik zie dat de nieuwe schijf ook sdd noemt nu.
Ik heb deze klaar gemaakt om te includen in de Array, mss bouwt hij zo alles weer op.
parted -a optimal /dev/sdd GNU Parted 2.3 Using /dev/sdd Welcome to GNU Parted! Type 'help' to view a list of commands. (parted) mklabel gpt (parted) mkpart primary 1 -1 (parted) set 1 raid on (parted) print Model: ATA WDC WD30EFRX-68E (scsi) Disk /dev/sdd: 3001GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Number Start End Size File system Name Flags 1 1049kB 3001GB 3001GB primary raid (parted) quit Information: You may need to update /etc/fstab.
Dan maar volgende gedaan:
mdadm --manage /dev/md0 --add /dev/sdd1 mdadm: cannot get array info for /dev/md0
Ok, na nog wat googlen deed ik dan maar het volgende:
mdadm --assemble --scan -v mdadm: Devices UUID-61d15719:62f3814a:e5712e01:994bec15 and UUID-61d15719:62f3814a:e5712e01:994bec15 have the same name: /dev/md/0 mdadm: Duplicate MD device names in conf file were found.
Nu zit ik volledig met m'n handen in het haar. Ik weet het niet, google kan me niet redden, dus hoop ik opnieuw dat jullie me uit de nood kunnen helpen.
Nog wat info:
lsblk -o NAME,FSTYPE,SIZE,MOUNTPOINT,LABEL NAME FSTYPE SIZE MOUNTPOINT LABEL sda 238.5G ├─sda1 vfat 94M /boot/efi ├─sda2 ext4 206.7G / └─sda3 swap 31.7G [SWAP] sdb 2.7T └─sdb1 linux_raid_member 2.7T Server:0 sdc 2.7T └─sdc1 linux_raid_member 2.7T Server:0 sdd 2.7T └─sdd1 2.7T
Nog wat info:
cat /etc/mdadm/mdadm.conf # mdadm.conf # # Please refer to mdadm.conf(5) for information about this file. # # by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to scan, using # wildcards if desired. #DEVICE partitions containers # auto-create devices with Debian standard permissions CREATE owner=root group=disk mode=0660 auto=yes # automatically tag new arrays as belonging to the local system HOMEHOST <system> # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays ARRAY /dev/md/0 metadata=1.2 UUID=61d15719:62f3814a:e5712e01:994bec15 name=Server:0 # This file was auto-generated on Wed, 03 Apr 2013 19:34:13 +0200 # by mkconf $Id$ ARRAY /dev/md/0 metadata=1.2 UUID=61d15719:62f3814a:e5712e01:994bec15 name=Server:0
Ik ben een leek op gebied van RAID en Linux enzo, alles wat ik voor elkaar kreeg was door jullie hulp of door de hulp van Google. Dus hopelijk kan ik op jullie geduld rekenen.
Alvast bedankt voor ENIGE hulp,
Groeten,
Luke.
[ Voor 2% gewijzigd door Amarog op 25-03-2017 17:52 . Reden: Extra dingen trachten te doen. ]