Toon posts:

Software Raid 1, is de reconstuctie goed gegaan?

Pagina: 1
Acties:

Verwijderd

Topicstarter
Ik heb drie IDE schijven in een thuis servertje hangen. 1 schijf waarvan Linux boot. 2 twee schijven in een Raid 1 mirror op
een IDE promise controller.

Maandag is 1 van die schijven eruitgeklapt. Ik heb toen een koude herstart gedaan. En de hardeschijf functioneerde weer. Ik heb toen linux opgestart in Runlevel 1 en de Software Raid howto erbij gepakt om te verivieren wat ik nu ook al weer precies moet doen. Ik heb het gedaan zoals in het reconstruction gedeelt staat.

raidhotadd /dev/md0 /dev/hdg

ik heb de recovery afgewacht en toen deze op 100 procent was heb ik het systeem gereboot.

Tijdens het opstarten krijg ik het volgende.
Apr 8 08:12:07 debianserver kernel: [events: 000000a2]
Apr 8 08:12:07 debianserver kernel: [events: 000000a2]
Apr 8 08:12:07 debianserver kernel: md: autorun ...
Apr 8 08:12:07 debianserver kernel: md: considering hdg ...
Apr 8 08:12:07 debianserver kernel: md: adding hdg ...
Apr 8 08:12:07 debianserver kernel: md: adding hde1 ...
Apr 8 08:12:07 debianserver kernel: md: created md0
Apr 8 08:12:07 debianserver kernel: md: bind<hde1,1>
Apr 8 08:12:07 debianserver kernel: md: bind<hdg,2>
Apr 8 08:12:07 debianserver kernel: md: running: <hdg><hde1>
Apr 8 08:12:07 debianserver kernel: md: hdg's event counter: 000000a2
Apr 8 08:12:07 debianserver kernel: md: hde1's event counter: 000000a2
Apr 8 08:12:07 debianserver kernel: md: RAID level 1 does not need chunksize! Continuing anyway.
Apr 8 08:12:07 debianserver kernel: md0: max total readahead window set to 124k
Apr 8 08:12:07 debianserver kernel: md0: 1 data-disks, max readahead per data-disk: 124k
Apr 8 08:12:07 debianserver kernel: raid1: device hdg operational as mirror 1
Apr 8 08:12:07 debianserver kernel: raid1: device hde1 operational as mirror 0
Apr 8 08:12:07 debianserver kernel: raid1: raid set md0 active with 2 out of 2 mirrors
Apr 8 08:12:07 debianserver kernel: md: updating md0 RAID superblock on device
Apr 8 08:12:07 debianserver kernel: md: hdg [events: 000000a3]<6>(write) hdg's sb offset: 78150656
Apr 8 08:12:07 debianserver kernel: md: hde1 [events: 000000a3]<6>(write) hde1's sb offset: 78150592
en cat /proc/mdstat geeft het volgende
Personalities : [raid1]
read_ahead 1024 sectors
md0 : active raid1 hdg[1] hde1[0]
78150592 blocks [2/2] [UU]
Maar nu heb ik het akkelige gevoel dat dit toch niet helemaal is goed gegaan. Ik ben toen weer in runlevel 1 opgestart heb alle partitie's behalve het root filesystem geumount en heb raidstop /dev/md0 uitgevoerdt. Ik heb de schijf /dev/hde eruitgehaald en /dev/hde1 via partimage gecloont naar een onstream media. Ik heb de hardeschijf er weer ingehangen en ben opgestart in runlevel 1. Ik heb raid nog niet weer gestart. Ik heb cfdisk /dev/hde gedaan en krijg netjes de XFS partitie die daarop staat in beeld. Als ik cfdisk /dev/hdg doe krijg ik de bekende melding in beeld die je ook krijgt als je een nieuwe hardeschijf met cfdisk probeert te partitioneren.

Ik heb nu het gevoel dat ik niet raidhotadd /dev/md0 /dev/hdg had moeten doen maar raidhotadd /dev/md0 /dev/hdg1. Ik weet niet meer hoe dit was toen ik raid heb geinstalleerd. Het heeft zolang uitstekend gewerkt dat ik dat vergeten ben :)

Dit is mijn /etc/raidtab
# raid-1 configuration
raiddev /dev/md0
raid-level 1
nr-raid-disks 2
nr-spare-disks 0

device /dev/hde1
raid-disk 0

device /dev/hdg1
raid-disk 1
Kan iemand me uitsluitsel geven. Is dit verkeerd? Heb ik reconstructie verkeerd uitgevoerd?

  • Wilke
  • Registratie: December 2000
  • Laatst online: 22:03
Ik ben geen ervaringsdeskundige op dit gebied, maar ik zie niets dat verkeerd is? Beide harddisks zijn 'up' volgens /proc/mdstat, en ook zie ik bij het booten geen foutmeldingen?

Ja, dat je geen chunksize hoeft op te geven..die setting kun je dus evt. uit je /etc/raidtab weghalen omdat het bij RAID-1 niet hoeft. Tja, dat kan verder geen kwaad ofzo.

Verwijderd

Topicstarter
Ik had eerst wel chunksize in mijn /etc/raidtab staan. Toen ik die melding kreeg heb ik het verwijderd. Maar hij blijft het geven. Maar om chunksize maak ik me verder niet zoveel zorgen.

Waar ik me wel zorgen om maak is dat de ene wordt weegeven als hde1 en de andere als hdg. Zou hij niet gewoon of hde1 en hdg1 moeten weergeven? Of hde en hdg. Deze combinatie komt een beetje raar op mij over.

Ik heb namelijk in mijn fstab home gemount op /dev/hde1.

  • nike
  • Registratie: November 2000
  • Niet online
lastig ja,
ik draai een software raid 5 onder linux en als er een schijf uitvalt en ik add hem weer doet ie vanzelf een recovery automatisch omdat ie weet welke was uitgevallen.
als je verder geen last heb zou ik er niet meer wakker van liggen.

je logs zien er verders Oke uit en je commando om je schijf weer toe te voegen ook.

Of het nou de goede was of niet, ze zijn na de recovery dan toch weer hetzelfde

[ Voor 26% gewijzigd door nike op 08-04-2003 21:38 ]

-edit-


Verwijderd

Topicstarter
Ik denk dat ik Zondag even rustig een Drive fault simuleer. Dan weet ik het zeker. Ik laat de uitkomst daarvan dan nog wel weten.

  • _Squatt_
  • Registratie: Oktober 2000
  • Niet online
In je RAID setup heb je nu de eerste partitie van de ene schijf (hde1) en de hele 2e schijf (hdg). Op de 2e schijf heb je dus geen partitie gemaakt, nu wordt de hele schijf gebruikt.

Ik heb geen idee of dat een probleem is, maar je /etc/raidtab is niet in overeenstemming met de werkelijke situatie. ( /dev/hdg <-> /dev/hdg1 ).
Verwijderd schreef op 08 April 2003 @ 21:13:
Ik heb namelijk in mijn fstab home gemount op /dev/hde1.
Dit snap ik niet helemaal. Als je /home op de RAID array staat zou je toch /dev/md0 mounten?

"He took a duck in the face at two hundred and fifty knots."


Verwijderd

Voor zover ik bekend met met de materie moet je zelf met de hand de nieuwe partitie aanmaken op de schijf die je hebt vervangen die even groot is als de partitie op de goede schijf, mijn software raid thuis staat op 2 verschillende 20 GB schijven die niet even groot zijn, maar wel dezelfde partitie size hebben. De grootste schijf heeft dus gewoon wat ruimte 'omgebruikt'.

Ik zou gewoon een partitie aanmaken op de nieuwe schijf die precies! even groot is als op de goede schijf, en dan je raid weer starten...

  • Wilke
  • Registratie: December 2000
  • Laatst online: 22:03
Alleen heeft hij geen nieuwe schijf, maar gewoon dezelfde als eerst...
Pagina: 1