"I disagree with what you are saying, but I will defend to the death your right to say it." -- not clear who
maar als je disk 2 pakt vult hij disk 2 met de gegevens van 1 en heb je 2 lege schijven...
Dit staat er een beetje raar, net of je met disk 2 niet kan recoveren daarom een korte uitleg erbij:
als disk 1 kapot is en je wilt recoveren met disk 2, zal je disk2 als disk1 in moeten stellen (bijv door de volgorde van je disks moeten veranderen in je raidtab)
Als je een schijf uit een raid 1 partitie haalt, een lege erbij zet moet je op die lege even partities aanmaken (dit weet ik niet 100% zeker maar lijkt me erg logisch)
en daarna even
1
| mkraid --really-force /dev/mdx |
uitvoeren waar x het nummertje is van je raid setje,
met
1
| cat /proc/mdstat |
kan je dan kijken hoever hij is met synchroniseren
[ Voor 0% gewijzigd door No13 op 08-11-2002 13:40 . Reden: aanvullinkje ]
Personalities : [raid1]
read_ahead 1024 sectors
md2 : active raid1 hda3[0] hdc3[1]
57536704 blocks [2/2] [UU]
md1 : active raid1 hda2[0] hdc2[1]
1044160 blocks [2/2] [UU]
md0 : active raid1 hda1[0] hdc1[1]
48064 blocks [2/2] [UU]
unused devices: <none>
klopt dat wel, ik zie 3 devices?
"I disagree with what you are saying, but I will defend to the death your right to say it." -- not clear who
Gewoon ff de data op die 2 nieuwe schijven zetten, dan zijn ze hetzelfde en moet het meteen werken.
ghost kost wel geld enzo dus moet je ff een ghostflop regelen
Impedance, a measure of opposition to time-varying electric current in an electric circuit.
Not to be confused with impotence.
kweenie, vint een beetje eng
"I disagree with what you are saying, but I will defend to the death your right to say it." -- not clear who
Heeft mij ook enorm geholpen.
Ik draai nu Redhat 8 met 2 x 60GB RAID 1.
Ik heb zelf in het begin getest of dat "reconstructen" wel zou werken, dus ik een andere lege schijf op mijn sec. master gezet, partities toegevoegd (net als op oude schijf), /etc/raidtab bijgewerkt, raidhotadd /dev/mdX uitgevoerd en voila, reconstruction began...
Via cat /proc/mdstat kun je zien hoe ver hij is.
20 GB aan data duurde nog geen 10 minuten bij mij. (maxtor ata 66)
Let bij RAID1 wel op dat je 1 schijf op je primaire IDE hebt en de andere op de secundaire. (ivm performance en redundancy)
Als je ook de /boot partitie wilt mirroren, moet je raid-support in kernel meebakken.
Alleen nieuwere versies van lilo en grub kunnen booten van mdX-device.
HTH
Kan ik niet zeggen, doe eens:GiLuX schreef op 08 november 2002 @ 15:52:
mdstat ziet er op het moment zo uit,
Personalities : [raid1]
read_ahead 1024 sectors
md2 : active raid1 hda3[0] hdc3[1]
57536704 blocks [2/2] [UU]
md1 : active raid1 hda2[0] hdc2[1]
1044160 blocks [2/2] [UU]
md0 : active raid1 hda1[0] hdc1[1]
48064 blocks [2/2] [UU]
unused devices: <none>
klopt dat wel, ik zie 3 devices?
# fdisk -l
ik heb net een redhat 7.3 bakje in elkaar geschroefd met software raid1.
na de instal en reboot begintie automatisch de 2e schijf te mirrorren.
ik keek ff in de mdstat en zag dat de mirror actie iets van 3 uur zou gaan duren!
dus draai ik hdparm en krijg een gemiddelde van 5mb/s
dit is bedroevend laag.
op een andere bak die het zelfde is qua hardware, os en raid1 setup krijg haal ik met gemak 40MB/s
waar kan dat aan liggen?
"I disagree with what you are saying, but I will defend to the death your right to say it." -- not clear who
dit voorbeeldje zet dma aan op hda:
1
| hdparm -d1 /dev/hda |
edit: owja even ter informatie
ik was gister mijn raid1 config aant testen...dus terwijl de pc stond te idle'en 1 hd fisiek uitgeschakeld
niet helemaal volgens verwachting kon ik niet meer inloggen...
ik kreeg de error:
1
2
| EXT3 error, rmounting readonly EXT3-fs error (device md(9,0)) in start_transaction: journal has aborted |
en die laatste error bleef zich herhalen iedere keer als ik iets deed op die pc
Dat was dus zogezegt niet prettig
gelukkig kwam ik een tijdje later in tune2fs de optie -e tegen (error-behavior)
ik had deze optie dus zonder dat ik het wist op remount-ro (Remount filesystem read-only) staan....
de oplossing is dus vrij simpel
1
| tune2fs -e continue /dev/md0 |
sorry als iedereen dit al wist maar je zal het maar niet weten en hij hangt ergens @ colo ofzow
[ Voor 0% gewijzigd door No13 op 15-11-2002 21:45 . Reden: toevoeging ]
ehrm...No13 schreef op 15 november 2002 @ 21:37:
dma aanstaan?
dit voorbeeldje zet dma aan op hda:
code:
1 hdparm -d1 /dev/hda
dat kan toch alleen met ide schijven?
nou zijn het ook ide schijven maar een raid array wordt toch gezien als scsi?
verder,
volgensmij is het niet echt lekker voor je systeem om er een schijf uitte trekken terwijl de boel draait,
kan erg slecht zijn voor je bus.
tenzij je zo'n fasttrack kaartje gebruikt met 1 schijf op iedere kanaal,
dan is het wel safe hotpluggable.
"I disagree with what you are saying, but I will defend to the death your right to say it." -- not clear who
als ik doe hdparm -d1 /dev/hda
krijg ik:
HDIO_SET_DMA failed, operation not permitted
maar als ik kijk naar die andere bak, die ook dezelfde software raid instellingen heeft dan zegt hdparm dat dma weldegelijk enabled is:
using_dma = 1 (on)
kan het nu wel of niet?
ik snap het niet meer...
"I disagree with what you are saying, but I will defend to the death your right to say it." -- not clear who