[software-raid] de vraagjes

Pagina: 1
Acties:

  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
de hardware

- kast met een 1ghz cpu en 512 mb ram erbij netwerk kaartje onboard (intel)
- 2x pci ide kaartjes met beide 2x ide controlers
- 128 MB flash module (ide)
- 12x IDE HD's (verschillende grotes :( )

het plan
Dus ik dacht, bouw een IDE software Raid oplossing enzv op de 128MB flash module
nu ben ik in google gestapt en de GOT search echter ik zie door de bomen het bos niet meer
ik was van plan om 5 IDE controlers met ieder 2 HD's te gebruiken en 1x op te offeren voor de flash module (en voor bv een hot spare ?)

Ik wil raid 5 gaan draaien het gaat me niet om de speed maar om de opslag ruimte
Ik kies voor software omdat raid 5 niet op me cheap kaartjes zit.

de vragen
- kan ik OCE (Online Capicaty Exspansion) met software raid ?
- mag/kan ik nu wel of niet 2 disk op 1 IDE controller ?
- wat is de toegevoegde waarde van een journaling file system ??

ps als iemand een linux distro weet die dit doet ???

Tja vanalles


  • frim
  • Registratie: Augustus 2001
  • Niet online
2 disks op 1 controller is geen probleem.
voordeel van een journaling FS is dat het repairen van een partitie sneller gaat, en dat je hopelijk minder corruptie krijgt.

  • DexterBelgium
  • Registratie: Oktober 2004
  • Laatst online: 03-02 15:15
OCE wordt aan gewerkt op software raid (zoek eens op "mdadm --grow"). Is wel NIET simpel, en NIET ongevaarlijk. Trouwens zou je dit, naar het schijnt, ook via de Enterprise Volume Management Service (EVMS) kunnen doen.

Ik blijf het een beetje aankijken, en zal het wsl in de toekomst wel eens proberen, maar NOOIT zonder volledige backup.

Geen reden waarom je bovenstaande setup niet zou werken. Twee disks op 1 kabel wordt afgeraden, om volgende redenen: 1. snelheid en 2. BELANGRIJK: als 1 controller/ IDE kabel het begeeft, kan dat leiden tot corruptie van 2 disks, waardoor je RAID 5 alsnog volledig onherstelbaar naar de maan is (je blijft kwetsbaar voor een fout in één component =! redundant)

T'all ya fine dandies, prancing about with yer head full of eyeballs, come and get me I say


  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
DexterBelgium schreef op donderdag 06 juli 2006 @ 12:41:
Geen reden waarom je bovenstaande setup niet zou werken. Twee disks op 1 kabel wordt afgeraden, om volgende redenen: 1. snelheid en 2. BELANGRIJK: als 1 controller/ IDE kabel het begeeft, kan dat leiden tot corruptie van 2 disks, waardoor je RAID 5 alsnog volledig onherstelbaar naar de maan is (je blijft kwetsbaar voor een fout in één component =! redundant)
Dit kwam ik ook tegen echter bij evms wordt er niet over dit onderwerp gerept(of hardware), daarnaast is de documentatie die ik vond waar dit in staat verouderd ? als ik het goed herrinner van 2003

ach in het ergste geval kan ik in een pci 8 of 16 kanaals sata controler kopen (+/- 500,- en per HD 19,- uitgeven voor een IDE--> sata converter 8)7 echter eht zou mooi zijn als dat niet hoeft

Tja vanalles


  • DexterBelgium
  • Registratie: Oktober 2004
  • Laatst online: 03-02 15:15
Q. I have a RAID-0 or RAID-5 volume with a JFS or XFS filesystem. I would like to expand my RAID volume by adding another disk. EVMS says the RAID volume must be inactive in order to expand, but it also says that JFS and XFS must be mounted in order to expand. How can I expand my RAID volume?
A. This is definitely an unfortunate catch-22. Luckily there's a pretty simple workaround. All you need to do is fool EVMS into thinking there isn't an XFS or JFS filesystem on your RAID-0 or RAID-5 volume just during the time that you want to expand it. To do this, move the appropriate plugin library (XFS and/or JFS) out of /lib/evms/x.y.z/ to some temporary location. Then run the EVMS UI, and since the XFS/JFS plugin isn't loaded, it won't detect the filesystem. Then you'll be able to expand the RAID volume. After the RAID expand is complete, you'll just need to manually expand the XFS or JFS filesystem (after mounting it). For XFS, use the xfs_growfs command. For JFS, you simply remount the filesystem using the command mount -o remount,resize /mnt/point. After this, you can move the XFS/JFS plugins back to the /lib/evms/x.y.z/ directory.
Brond (EVMS FAQ)

Dit komt dus neer op OCE op een SoftRaid-5, denk ik...

Tryy at your own risk, of course.

T'all ya fine dandies, prancing about with yer head full of eyeballs, come and get me I say


  • Heidistein
  • Registratie: Februari 2002
  • Laatst online: 18-12-2025

Heidistein

Blah

[b][message=26086411,noline]
Ik blijf het een beetje aankijken, en zal het wsl in de toekomst wel eens proberen, maar NOOIT zonder volledige backup.
Bin there, failed there. Twice.
Geen reden waarom je bovenstaande setup niet zou werken. Twee disks op 1 kabel wordt afgeraden, om volgende redenen: 1. snelheid en 2. BELANGRIJK: als 1 controller/ IDE kabel het begeeft, kan dat leiden tot corruptie van 2 disks, waardoor je RAID 5 alsnog volledig onherstelbaar naar de maan is (je blijft kwetsbaar voor een fout in één component =! redundant)
Nou valt dat van die controller wel (een beetje) mee. Zodra een controller er mee kapt trekt die meestal je hele systeem neer waardoor er toch niks meer geschreven wordt; kast dat je raid demoon het niet eens merkt :)
Die kabel is anders, dat heb ik dus gehad (naaar!) de raiddaemon zag twee corupte hd's en vond dat de andere 5 toen ook maar het flaggetje 'array-stuk' moesten hebben. Ik heb ze toen (met minimale schade) weer hard in een array gestopt. Wat dat betreft is mdadm wel lief, je kan gewoon heel hard zeggen, joh, je mist een schijf (of 2) in deze raid5, maar bring it up!

On Topic: Jou config gaat gewoon werken, en het hoeft niet traag te zijn hoor, echt niet.

Maybee we are alone... After all.


  • vso
  • Registratie: Augustus 2001
  • Niet online

vso

tja...

Topicstarter
@DexterBelgium hmmm dat breng leuke idee-en met zich mee thx !
Heidistein schreef op vrijdag 07 juli 2006 @ 20:48:
[...]

Bin there, failed there. Twice.

[...]

Nou valt dat van die controller wel (een beetje) mee. Zodra een controller er mee kapt trekt die meestal je hele systeem neer waardoor er toch niks meer geschreven wordt; kast dat je raid demoon het niet eens merkt :)
Die kabel is anders, dat heb ik dus gehad (naaar!) de raiddaemon zag twee corupte hd's en vond dat de andere 5 toen ook maar het flaggetje 'array-stuk' moesten hebben. Ik heb ze toen (met minimale schade) weer hard in een array gestopt. Wat dat betreft is mdadm wel lief, je kan gewoon heel hard zeggen, joh, je mist een schijf (of 2) in deze raid5, maar bring it up!

On Topic: Jou config gaat gewoon werken, en het hoeft niet traag te zijn hoor, echt niet.
Ach speed is niet echt belangrijk, het gaat meer om de added redundancy met de hardware die ik reeds heb, en vergrote opslag cappaciteit.

nu heb ik zelf zitten rondsurfen ik zit te denken dat ik anders 2x of 3x een pci sata kaart controler koop zoals de HighPoint RocketRAID 1640 (4 aansluitingen) 109,- per stuk en dan wat ide --> sata converters (20 euro per stuk geloof ik) erbij als dat beter is dan vind ik dat wel een inverstering waard.
yikes die hd's die ik heb zijn wel klein 20 t/m 80 gb en een 80 gb kost minder als 50,-

ik vind het zelf niet zo erg als de arry traag is vanwege een rebuild of dat tie uit moet, ik zou alleen zeer balen als ik data kwijt raak doordat hardware faalt en de array of single disk niet meer te redden valt
als me huis afbrand ofzo ben ik toch alles kwijt daarom zit ik ook te denken aan de zeer belangrijke data online ergens te backuppen

Tja vanalles

Pagina: 1