Toon posts:

RAID in Linux met SiS 180 onboard raid

Pagina: 1
Acties:

Verwijderd

Topicstarter
Hallo,
Ik heb Gentoo Linux geinstalleerd op mijn computer en ik heb ook Windows XP. Linux staat op een ATA schijf, me primary master en Windows staat op 2 S-ATA schijven in RAID-0.
Ik heb al veel gezocht, maar ik kan nergens vinden hoe ik in Linux duidelijk maak dat die 2 schijven in raid0 staan. Ik heb al dmraid geprobeerd, maar die herkent het niet.
Weet iemand nog een manier?

  • irondog
  • Registratie: Januari 2001
  • Laatst online: 11-05-2025

irondog

alle dingen moeten onzin zijn

Je kunt dmsetup gebruiken. Ik heb geen idee hoe zo'n SIS raid eruit ziet, dus je zult zelf moeten gaan plaren. Ik geef je wel een hele goede kans dat het lukt met de device-mapper en dmsetup.

Ten eerste moet je een striped mapping maken. Als deze goed is, moet je op deze mapping vervolgens partities mappen. De eerste partitie heeft een offset van 63 blokken op de stripe. Als je deze weet te vinden, is het vinden van andere partities slechts een kwestie van rekenen.

Hier nog wat tips:
* Zie de stripe size te bepalen (=wat je zelf ooit ingesteld hebt in het bios)
* Vaak begint de 0e stripe ook gewoon op het 0e blok van de eerste schijf. De tweede helft van de 0e stripe begint vervolgens op het 0e blok van de andere. Vaak kun je in linux al zien wat de eerste schijf is uit de stipe. Deze krijgt (geheel onterecht natuurlijk) partities toegewezen door de kernel.
* Maak de mapping van de eerste partitie groot: indien je een superblock (of FAT tabel o.i.d.) vindt, zit je in de goede richting. Het mounten wil vaak wel lukken als de partitiegrootte te groot is, maar niet als deze te klein is.
* Tenslotte iets waar je bij je succes rekening mee moet houden: Metadata (dat is informatie die het bios en de software raid driver gebruiken om informatie uit te wisselen) staat in 99% van de gevallen geheel op het einde van de schijven uit de raid set. Neem deze nooit mee in de mapping, zodra je ook gaat schrijven naar de RAID set, is het vernielen van je metadata door verkeerde mappings snel gebeurd en natuurlijk fataal.

[P5B deluxe] [Core2Duo 6300] [2 X 1GB DDR2] [GF FX7300] [320 GB WD] [Gentoo] [VISTA]


Verwijderd

Topicstarter
Kan je misschien wat meer uileg geven, ik ben nog maar net begonnen met linux. En van die dingen als device-mapper en superblock snap ik ook nog maar weinig.
En de stripe size, is dat hoe groot de raid is? Ik hoefde dat nooit in te stellen, ik heb in me bios voor raid 0 gekozen en daarna 2 harde schijven aangewezen en dat was alles.

  • irondog
  • Registratie: Januari 2001
  • Laatst online: 11-05-2025

irondog

alle dingen moeten onzin zijn

Verwijderd schreef op donderdag 17 november 2005 @ 19:55:
Kan je misschien wat meer uileg geven, ik ben nog maar net begonnen met linux. En van die dingen als device-mapper en superblock snap ik ook nog maar weinig.
Een superblock behoort bij een filesystem en is het eerste block, hierin staat essentiele info voor het filesystem. Het eerste block op een ext2/3 partitie bevat dus het superblock. De device-mapper is een kernel "library" (beter: subsysteem) die mappings kan maken van devices. Bijv: maak een device van 10blokken beginnend op blok 80 van hda en eindigend op het 90e block van hda. De device-mapper ondersteunt ook Striped en mirrored mappings.
En de stripe size, is dat hoe groot de raid is? Ik hoefde dat nooit in te stellen, ik heb in me bios voor raid 0 gekozen en daarna 2 harde schijven aangewezen en dat was alles.
Zoeken op internet. Stripesize zou ik niet hoeven uit te leggen, maar is wel zo handig om te weten wil ik je kunnen helpen.

Tis helemaal geen makkelijk probleem, ook niet voor mensen met redelijke basiskennis op het gebied van Linux. Ik ga hier ook zeker niet beweren dat het mij 100% zeker lukt. Als je even een tweetal images maakt van de eerste 2MB van beide schijven, dan probeer ik dit weekend er wel even naar te kijken. Mail ze gerust, ik kan grote attachments ontvangen.

[P5B deluxe] [Core2Duo 6300] [2 X 1GB DDR2] [GF FX7300] [320 GB WD] [Gentoo] [VISTA]


Verwijderd

Topicstarter
irondog schreef op vrijdag 18 november 2005 @ 12:28:Als je even een tweetal images maakt van de eerste 2MB van beide schijven, dan probeer ik dit weekend er wel even naar te kijken. Mail ze gerust, ik kan grote attachments ontvangen.
Is goed, maar welk prog/command gebruik ik daarvoor? :?

  • smokalot
  • Registratie: Juni 2001
  • Laatst online: 15-01 22:00

smokalot

titel onder

dd if=/dev/harde_schijf_waar_t_om_gaat of=~/image.schijf bs=1M count=2

en om te mailen raad ik kmail aan ;)

[ Voor 23% gewijzigd door smokalot op 20-11-2005 17:38 ]

It sounds like it could be either bad hardware or software


Verwijderd

Topicstarter
smokalot schreef op zondag 20 november 2005 @ 17:37:
en om te mailen raad ik kmail aan ;)
Ik heb net al Mozilla Thunderbird geinstalleerd (en gtk-qt-engine om alles er een beetje normaal uit te laten zien :P )

  • irondog
  • Registratie: Januari 2001
  • Laatst online: 11-05-2025

irondog

alle dingen moeten onzin zijn

Okee dan. Ik heb het even bekeken. Je raid begint op sda. Ik vind daar een MBR en een partitietabel. Het meest verveldende is, dat ik je stripe size niet weet.

Hier is een stukje pseudo bash. Dat betekent, niet uitvoeren maar begrijpen!
code:
1
2
3
4
5
6
CHUNKSIZE = 64 # 64K dat is een aanname probeer dit te achterhalen in windows ofzo
CHUNKSIZE_IN_BLOCKS = $[ $CHUNKSIZE*2 ]
RESULT = $[2 * ` blockdev --getsize /dev/sda`]

echo '0 $RESULT striped 2 $CHUNKSIZE_IN_BLOCKS 1:0 0 1:1 0'| dmsetup create test
echo '0 $RESULT-63 linear /dev/mapper/test 63' | dmsetup create test1


Stel je stripesize is 64k, dan is dat 128 blokken (van 512 bytes).
Stel, je sda en sdb zijn beide 16384 blokken (dat is samen 16384*2 = 32768). Dit is te vinden met /sbin/blockdev.

Dan maak je zo je raid:
code:
1
echo '0 32768 striped 2 128 /dev/sda 0 /dev/sdb 0' | dmsetup create test


/dev/mapper/test bevat nu de Striped RAID. Precies zo groot als /dev/sda en /dev/sdb samen, want we beginnen op blok 0 van beide schijven.

De eerste partitie is op 63 blokken offset tot 32705 (32768-63). (Waarschijnlijk ietsje teveel vanwege de metadata, maar maakt ff niet uit)

Zo maak je de eerste partitie:
code:
1
echo '0 32705 linear /dev/mapper/test 63' | dmsetup create test1


En mounten maar op /dev/mapper/test1

Er zitten addertjes onder het gras. Plaar dus lekker met dmsetup create en dmsetup remove.

[ Voor 8% gewijzigd door irondog op 21-11-2005 01:23 ]

[P5B deluxe] [Core2Duo 6300] [2 X 1GB DDR2] [GF FX7300] [320 GB WD] [Gentoo] [VISTA]


Verwijderd

Topicstarter
Dus:
code:
1
2
P4S800D-X ~ # blockdev --getsize /dev/sda
156301488

2*156301488 = 312602976
En dan krijg ik dit...
code:
1
2
3
P4S800D-X ~ # echo '0 312602976 striped 2 128 1:0 0 1:1 0'| dmsetup create test
device-mapper ioctl cmd 3 failed: Device or resource busy
Command failed

[ Voor 13% gewijzigd door Verwijderd op 21-11-2005 20:14 ]


  • irondog
  • Registratie: Januari 2001
  • Laatst online: 11-05-2025

irondog

alle dingen moeten onzin zijn

code:
1
2
3
P4S800D-X ~ # echo '0 312602976 striped 2 128 1:0 0 1:1 0'| dmsetup create test
device-mapper ioctl cmd 3 failed: Device or resource busy
Command failed


1:0 1:1 moet natuurlijk /dev/sda respectievelijk /dev/sdb zijn. Overigens maak ik in mijn vorige post geen onderscheid tussen chunksize en stripesize, kweet eigenlijk niet of dat 100% correct is, maar het gaat slechts om een naampje.

[P5B deluxe] [Core2Duo 6300] [2 X 1GB DDR2] [GF FX7300] [320 GB WD] [Gentoo] [VISTA]


Verwijderd

Topicstarter
Stomme fout van me, dat had ik vanuit je vorige bericht ook al kunnen zien...
Ik begin het al een beetje te snappen, maar ik doe toch nog iets fout denk ik:
code:
1
2
3
4
P4S800D-X ~ # echo '0 312602976 striped 2 128 /dev/sda 0 /dev/sdb 0' | dmsetup create test
P4S800D-X ~ # echo '0 312602976 linear /dev/mapper/test 63' | dmsetup create test1
device-mapper ioctl cmd 9 failed: Invalid argument
Command failed

[ Voor 4% gewijzigd door Verwijderd op 22-11-2005 14:09 ]


  • irondog
  • Registratie: Januari 2001
  • Laatst online: 11-05-2025

irondog

alle dingen moeten onzin zijn

63 van het totaal aftrekken in de laatste regel.

[P5B deluxe] [Core2Duo 6300] [2 X 1GB DDR2] [GF FX7300] [320 GB WD] [Gentoo] [VISTA]


  • lvh
  • Registratie: Juli 2001
  • Laatst online: 02-11-2022

lvh

De reden waarom dit zo moeilijk is is omdat dat ding op je moederbord absoluut geen RAID controller is. Het is een chipje wat in software probeert RAID 0 na te bootsen. Daarom kan je eigenlijk veel beter md gebruiken :-)

Verwijderd

Topicstarter
irondog schreef op dinsdag 22 november 2005 @ 21:32:
63 van het totaal aftrekken in de laatste regel.
Dan krijg ik nog dezelfde error... :'(

[ Voor 12% gewijzigd door Verwijderd op 23-11-2005 18:27 ]


Verwijderd

Topicstarter
racoontje schreef op dinsdag 22 november 2005 @ 21:56:
De reden waarom dit zo moeilijk is is omdat dat ding op je moederbord absoluut geen RAID controller is. Het is een chipje wat in software probeert RAID 0 na te bootsen. Daarom kan je eigenlijk veel beter md gebruiken :-)
Ik weet dat het geen echte raid is, maar dat betekent toch niet dat het niet werkt in Linux? Ik gebruik raid0 omdat er altijd 1 van de 2 helemaal vol staat als ik ze als aparte schijven gebruik.
(en wat is md? :? )

  • smokalot
  • Registratie: Juni 2001
  • Laatst online: 15-01 22:00

smokalot

titel onder

md is ook pseudo-raid, maar dan op een generieke manier, zodat je je schijven gewoon over kunt zetten in een ander systeem en gewoon bij je data kunt. Performance is meestal vergelijkbaar met de pseudo-BIOS-raid, maar is een stuk makkelijker op te zetten.

Als je trouwens alleen maar raid0 wilt omdat je dan meer ruimte hebt zou ik een LVM aanmaken, dat is wel langzamer dan RAID0, maar je bent niet al je data kwijt als 1 van je schijven het begeeft.

It sounds like it could be either bad hardware or software


  • irondog
  • Registratie: Januari 2001
  • Laatst online: 11-05-2025

irondog

alle dingen moeten onzin zijn

smokalot schreef op donderdag 24 november 2005 @ 14:59:
md is ook pseudo-raid, maar dan op een generieke manier,
Ja.
zodat je je schijven gewoon over kunt zetten in een ander systeem en gewoon bij je data kunt.
Dat kan ook met device-mapper Raid. Stel, ik verpruts mijn fake-raid controller (hij overlijdt, maar mijn schijven niet). Ik hang de schijven in een andere linux bak. Maak de juiste mapping, et voila. Ik kan bij de data.... In linux althans.
Performance is meestal vergelijkbaar met de pseudo-BIOS-raid, maar is een stuk makkelijker op te zetten.
Jep. Het presteert vaak zelfs beter, omdat je partities RAIDt en niet hele schijven. Omdat partities vaak op een verkeerd aantal sectoren kunnen beginnen (en dus misschien ergens midden in een chunk) is het vaak een nadeel om hele disks te RAIDen.
MD presteert vaak zeer OK, is goed getest, stabiel, maar biedt helaas dan weer geen transparantie tussen verschillende OSsen.
Als je trouwens alleen maar raid0 wilt omdat je dan meer ruimte hebt zou ik een LVM aanmaken, dat is wel langzamer dan RAID0, maar je bent niet al je data kwijt als 1 van je schijven het begeeft.
LVM en dmraid zijn equivalent. Je argument gaat trouwens ook maar gedeeltelijk op, Een groot filesystem op één groot LV resulteert bij uitval natuurlijk net zo goed in complete destructie.

[P5B deluxe] [Core2Duo 6300] [2 X 1GB DDR2] [GF FX7300] [320 GB WD] [Gentoo] [VISTA]


  • smokalot
  • Registratie: Juni 2001
  • Laatst online: 15-01 22:00

smokalot

titel onder

irondog schreef op donderdag 24 november 2005 @ 20:30:
[...]
Ja.

[...]
Dat kan ook met device-mapper Raid. Stel, ik verpruts mijn fake-raid controller (hij overlijdt, maar mijn schijven niet). Ik hang de schijven in een andere linux bak. Maak de juiste mapping, et voila. Ik kan bij de data.... In linux althans.
Maar het vinden van de juiste mapping is nu juist zo veel makkelijker bij de linux-raid manier.
[...]
Jep. Het presteert vaak zelfs beter, omdat je partities RAIDt en niet hele schijven. Omdat partities vaak op een verkeerd aantal sectoren kunnen beginnen (en dus misschien ergens midden in een chunk) is het vaak een nadeel om hele disks te RAIDen.
MD presteert vaak zeer OK, is goed getest, stabiel, maar biedt helaas dan weer geen transparantie tussen verschillende OSsen.

[...]
LVM en dmraid zijn equivalent. Je argument gaat trouwens ook maar gedeeltelijk op, Een groot filesystem op één groot LV resulteert bij uitval natuurlijk net zo goed in complete destructie.
Een filesysteem op meerdere devices is natuurlijk altijd feest als 1 van die devices het begeeft. Maar bij raid0 weet je zeker dat je dan de helft van elk bestand kwijt bent, terwijl je bij een LVM misschien de helft van je bestanden nog hebt. Zal heel veel moeite kosten om dat te fixen weliswaar, maar als t echt moet....

...had je natuurlijk gewoon goede backups moeten maken

It sounds like it could be either bad hardware or software

Pagina: 1