"I don't always test my code, but when I do, I test on production."
RAID FAQ
Als ik jouw was zou ik het helemaal doorlezen, aangezien je vraag erg basic is.
En waar wil je eigenlijk deze 400 euro + adapter voor gebruiken? Ik vermoed een overkill.
[ Voor 24% gewijzigd door datkanveelbeter op 14-01-2008 01:07 ]
Nog een vraagje dan, wat is de naam voor zo'n plaatje voor in een slot in de pc waar je aan de binnenkant SATA kabels in stopt en aan de buitenkant eSata kabels? En bestaan die voor 4 ports in low profile versie?
Ik heb op het moment grofweg een TB aan verschillende schijven, en ik heb twee keer hele slechte ervaring gehad met fakeraid (de eerste keer ging het moederbord kapot, en nu doet hij ook raar) dus ik wil een controller die ik eventueel kan blijven verhuizen naar een nieuwe PC als ik een nieuwe PC koop. Overkill ja, maar als ik toch een raidkaart koop wil ik er ook een die een beetje goed is, en die nog veel ruimte biedt voor uitbreiding.datkanveelbeter schreef op maandag 14 januari 2008 @ 00:41:
En waar wil je eigenlijk deze 400 euro + adapter voor gebruiken? Ik vermoed een overkill.
[ Voor 54% gewijzigd door Jeroen op 14-01-2008 02:00 ]
"I don't always test my code, but when I do, I test on production."
Verwijderd
Ik heb even gekeken in de winkel vandaag en mijn oorspronkelijke plan gaat niet lukken, dus nu lijkt Software RAID een betere optie voor mij. Ik wil op de computer als OS Linux draaien, wat is dan de meest betrouwbare manier om een (aantal) RAID array(s) te maken? Als ik een raid5 array maak met 2x250 en 1x500 GB, kan ik dan de resterende 250GB ook nog gebruiken? En als ik dit allemaal instel, kan ik dan later alles verhuizen naar een andere pc en dan opnieuw instellen zonder dataverlies?Verwijderd schreef op maandag 14 januari 2008 @ 02:29:
Gebruik dan software RAID. Voor de prijs van die controller kun je een complete NAS met software RAID samenstellen. Maar het hangt van je situatie en wensen af wat de beste optie is. Niet alle software RAID5 ondersteunt expansion; voor Linux RAID5 of ZFS (Solaris/FreeBSD/Linux) heb je dan nog de beste ondersteuning voor online-capacity-expansion.
Als ik een linux software RAID maak, boot linux zelf dan ook van die array in tegenstelling tot bij windows, of moet de bootpartitie op een single disk staan?
Ik neem aan dat met software raid de snelheid bij een raid5 eerder omlaag gaat tov een single disk dan omhoog? Is het mogelijk om, net als bij een hardware raid, een deel van de RAM apart te zetten als cache, of is dat niet nuttig?
[ Voor 91% gewijzigd door Jeroen op 14-01-2008 10:44 ]
"I don't always test my code, but when I do, I test on production."
Verwijderd
MD-raid5, heeft ook capacity expansion zodat je een disk kunt toevoegen. Ga je FreeBSD draaien dan kun je ZFS overwegen, ook al is die mogelijk nog niet stabiel.Ge64 schreef op maandag 14 januari 2008 @ 09:01:
Ik wil op de computer als OS Linux draaien, wat is dan de meest betrouwbare manier om een (aantal) RAID array(s) te maken?
2x250GB wordt dan één 500GB disk (RAID0 of concatenation/JBOD) en dan met nog een 500GB disk kun je een 2-disk RAID5 array maken die dan 500GB groot is. Waardeloos dus, kun je misschien nog beter een mirror draaien.Als ik een raid5 array maak met 2x250 en 1x500 GB, kan ik dan de resterende 250GB ook nog gebruiken? En als ik dit allemaal instel, kan ik dan later alles verhuizen naar een andere pc en dan opnieuw instellen zonder dataverlies?
Wat je natuurlijk ook kunt doen is 2x250GB in RAID0 voor snelheid en 1x500GB voor backup, het hangt af van je wensen. Maar op basis van jouw drie schijven is een RAID5 array niet voor de hand liggend.
Je kunt niet booten van RAID, alhoewel een mirror voor het boot proces precies hetzelfde is als een losse schijf, waardoor booten wel mogelijk is. Je kunt wel een minimale boot sequence op USB zetten of misschien zelfs op CD en dan wel root mounten vanaf je software RAID device. Bij FreeBSD overigens ook.Als ik een linux software RAID maak, boot linux zelf dan ook van die array in tegenstelling tot bij windows, of moet de bootpartitie op een single disk staan?
De snelheid van RAID5 is afhankelijk van de implementatie (welke driver/software/hardware controller), het aantal schijven, de snelheid van de schijven en de beschikbare bandbreedte (PCI/PCI-X/PCIe/embedded). Voor jouw optie met 2-disks in RAID5 hoef je niet veel write-snelheid te verwachten, read kan wel sneller zijn omdat er van 2 schijven gelezen kan worden, ongeveer net zoals RAID0.Ik neem aan dat met software raid de snelheid bij een raid5 eerder omlaag gaat tov een single disk dan omhoog? Is het mogelijk om, net als bij een hardware raid, een deel van de RAM apart te zetten als cache, of is dat niet nuttig?
RAM wordt altijd al gebruikt als filecache. Als ik mijn FreeBSD pc met 4GB ram een 4GB file in laat lezen, heb ik aan het einde nog maar een paar MB aan RAM over. Bijna de hele file staat dan in RAM en kan supersnel gelezen worden als de file of delen ervan worden opgevraagd. Daarnaast hebben moderne RAID5 implementaties geheugenruimte nodig om I/O requests op te sparen en opnieuw in te delen. Zonder deze "request combining" zal de write-snelheid erg tegenvallen.
Wellicht te laat maar ik heb hier wat benchmarks van de Adaptec 3805:Ge64 schreef op maandag 14 januari 2008 @ 00:22:
Hallo,
Ik ben aan het overwegen een van deze controllers aan te schaffen en een RAID5 te maken, maar heb en paar vraagjes. Allereerst, als ik een RAID 5 array zou maken met 3x500GB, zou ik er dan later nog een 500GB bij kunnen zetten om de array uit te breiden tot 1500GB, zonder de data te verliezen?
http://femme.tweakblogs.n...raid-3805-benchmarks.html
De management software (iig onder Windows) van Adaptec is zeer degelijk maar de prestaties zijn helaas nogal matig. Een Areca ARC-1220 of HighPoint RocketRAID 3220 biedt meer waar voor zijn geld.
Voor een thuisserver zal de performance van software raid waarschijnlijk wel voldoende zijn.
Ik bedoelde een RAID5 van 250, 250 en 500 GB, waardoor er op de 500GB schijf 250GB aan slack overblijft, kan ik die slack dan ook als single disk gebruiken? En van booten? Ik dacht dat zoiets met software raid mogelijk was.Verwijderd schreef op maandag 14 januari 2008 @ 18:53:2x250GB wordt dan één 500GB disk (RAID0 of concatenation/JBOD) en dan met nog een 500GB disk kun je een 2-disk RAID5 array maken die dan 500GB groot is. Waardeloos dus, kun je misschien nog beter een mirror draaien.
Wat je natuurlijk ook kunt doen is 2x250GB in RAID0 voor snelheid en 1x500GB voor backup, het hangt af van je wensen. Maar op basis van jouw drie schijven is een RAID5 array niet voor de hand liggend.
Misschien stop ik dan wel een CF kaart in de IDE slot om van te booten.Je kunt niet booten van RAID, alhoewel een mirror voor het boot proces precies hetzelfde is als een losse schijf, waardoor booten wel mogelijk is. Je kunt wel een minimale boot sequence op USB zetten of misschien zelfs op CD en dan wel root mounten vanaf je software RAID device. Bij FreeBSD overigens ook.
Als ik een low end PCI SATA2 controller gebruik en een port multiplier om er 5 schijven aan te hangen, is de snelheid dan genoeg om alle schijven tegelijk aan te spreken of wordt het dan beperkt? Ik weet dat de port multiplier de snelheid niet zal beperken omdat 3Gbit ruim voldoende is voor 5 schijven, maar ik had er geen rekening mee gehouden dat het ook allemaal nog door de PCI moet. De schijven zullen iets van 60MB/s read kunnen, dus evt in RAID0 zou dat nog kunnen maar veel meer wordt het dus niet want PCI is maar 133MB/s, correct? Is het sowieso redelijk om 133MB/s te verwachten (read, max) van een software RAID5 van 3 of 4 schijven?De snelheid van RAID5 is afhankelijk van de implementatie (welke driver/software/hardware controller), het aantal schijven, de snelheid van de schijven en de beschikbare bandbreedte (PCI/PCI-X/PCIe/embedded). Voor jouw optie met 2-disks in RAID5 hoef je niet veel write-snelheid te verwachten, read kan wel sneller zijn omdat er van 2 schijven gelezen kan worden, ongeveer net zoals RAID0.
RAM wordt altijd al gebruikt als filecache. Als ik mijn FreeBSD pc met 4GB ram een 4GB file in laat lezen, heb ik aan het einde nog maar een paar MB aan RAM over. Bijna de hele file staat dan in RAM en kan supersnel gelezen worden als de file of delen ervan worden opgevraagd. Daarnaast hebben moderne RAID5 implementaties geheugenruimte nodig om I/O requests op te sparen en opnieuw in te delen. Zonder deze "request combining" zal de write-snelheid erg tegenvallen.
Ik zit met dit probleem omdat ik maar 1 vrije PCI slot heb, en ik een externe kast (met ingebouwde port multiplier) wil gebruiken voor de extra schijven. Dus dan zou er 1 eSATA kabel naar die externe kast kunnen gaan, kan geen kaart met 4 eSata poorten vinden en heb ook geen ruimte voor zo'n bracket dus. Maar de port multiplier zou geen probleem moeten opleveren, toch?
Aangezien ik dus ook toch geen PCIe slot heb denk ik dat software raid wat makkelijker is dan hardware raid, maar als ik toch een raidkaart koop zal ik beter naar de alternatieven kijken, bedankt Femme.
"I don't always test my code, but when I do, I test on production."
Verwijderd
Ah sorry, dat is inderdaad mogelijk, je hebt dan een 3-disk RAID5 array van 250GB disks. Van die 500GB schijf hou je dan 250GB over, die je voor opslag en OS kunt gebruiken en dus ook van kunt booten. In schema:Ge64 schreef op dinsdag 15 januari 2008 @ 01:22:
Ik bedoelde een RAID5 van 250, 250 en 500 GB, waardoor er op de 500GB schijf 250GB aan slack overblijft, kan ik die slack dan ook als single disk gebruiken? En van booten? Ik dacht dat zoiets met software raid mogelijk was.
500GB disk:
| OS 10GB | STORAGE 240GB | RAID5 disk1 250GB |
250GB disk:
| RAID5 disk2 250GB |
250GB disk:
| RAID5 disk2 250GB |
Je boot dan vanaf de OS partitie op de 500GB disk. De 500GB disk heeft dan drie partities, de 250GB disk helemaal geen of een enkele raw partition. Dit werkt in Linux en FreeBSD.
De snelheid wordt sterk beperkt door gebruik van PCI in combinatie met RAID. Het sleutelwoord bij RAID is parallellisatie, maar PCI is een ouderwetse shared en half-duplex bus die voor opstopping kan zorgen, zeker in jouw geval omdat je diverse extra PCI apparaten gebruikt. Alles wacht op elkaar en voor I/O is dat niet fijn. Als het even kan dus via PCI-express, zo niet dan zou ik zelf nog eerder een nieuw moederbord/systeem overwegen.Als ik een low end PCI SATA2 controller gebruik en een port multiplier om er 5 schijven aan te hangen, is de snelheid dan genoeg om alle schijven tegelijk aan te spreken of wordt het dan beperkt?
3 schijven met 60MB/s betekent een theoretisch maximum van 180MB/s read. Linux zal misschien 75% daarvan halen (ruwe schatting). Met PCI haal je bij een rustige bus misschien 110MB/s en met een drukke bus kan de snelheid ernstig inzakken.Is het sowieso redelijk om 133MB/s te verwachten (read, max) van een software RAID5 van 3 of 4 schijven?
De write-snelheid bij software RAID5 hangt af van je CPU en geheugen en natuurlijk de implementatie. FreeBSD heeft een snellere RAID5 driver dan Linux, geom_raid5. Daarbij is het mogelijk tot 90% van je maximale theoretische write te halen. Met 3 schijven is dat dan 108MB/s en met 4 schijven 162MB/s. Met mijn 250GB schijven (Maxtor MaxLine III) haal ik met FreeBSD7 + geom_raid5 + UFS zo'n 190MB/s raw write. De exacte scores:
geom_raid5 zonder journaling UFS2 - 4 disks
Block write: 185MB/s
Rewrite: 29MB/s
Block read: 168MB/s
geom_raid5 + geom_journal UFS2 - 4 disks
Block write: 45MB/s
Rewrite: 27MB/s
Block read: 170MB/s
geom_raid5 + geom_journal UFS2 - 4 disks + 5e disk waarop de journal staat
Block write: 46MB/s
Rewrite: 39MB/s
Block read: 161MB/s
ZFS RAID-Z (raid5 variant van ZFS) - 4 disks:
Block write: 98MB/s
Rewrite: 62MB/s
Block read: 149MB/s
Zoals je ziet drukt journaling zwaar op de write performance. Je moet alleen wel weten dat geom_journal een heel sterk journal is, en dus van betere kwaliteit dan iets als NTFS, Ext3 of ZFS. Maar met ZFS haal je wel zeer goede scores, genoeg voor gigabit.
Dit is natuurlijk wel op een leeg filesystem zodat de bestanden niet gefragmenteerd zijn en ze ook op de buitenste tracks van je platters staan (je hardeschijf dus). Naar mate je filesystem vol raakt komen bestanden steeds in het minder snelle gedeelte van je hardeschijf te staan, en raken ze iets gefragmenteerd. Dat doet de performance iets teruglopen en daarom zou meer performance dan 100MB/s wenselijk zijn om wat marge in te bouwen.
"I don't always test my code, but when I do, I test on production."
Het is niet zo dat ik veel PCI devices heb, maar ik heb maar 2 slots in totaal. Ik wil 2 NICs in de PC hebben waarvan er 1 onboard is, dus dan blijft er maar 1 PCI slot over voor s-ata.Verwijderd schreef op dinsdag 15 januari 2008 @ 03:47:De snelheid wordt sterk beperkt door gebruik van PCI in combinatie met RAID. Het sleutelwoord bij RAID is parallellisatie, maar PCI is een ouderwetse shared en half-duplex bus die voor opstopping kan zorgen, zeker in jouw geval omdat je diverse extra PCI apparaten gebruikt. Alles wacht op elkaar en voor I/O is dat niet fijn. Als het even kan dus via PCI-express, zo niet dan zou ik zelf nog eerder een nieuw moederbord/systeem overwegen.
[...]
3 schijven met 60MB/s betekent een theoretisch maximum van 180MB/s read. Linux zal misschien 75% daarvan halen (ruwe schatting). Met PCI haal je bij een rustige bus misschien 110MB/s en met een drukke bus kan de snelheid ernstig inzakken.
Ik heb nog wat vragen hierover. 1 van de NICs zou ik aansluiten op het interne netwerk, en de ander op het internet. Die voor het internet gebruikt natuurlijk veel minder bandbreedte, dus als ik de PCI NIC voor het internet zou gebruiken, blijft vrijwel de hele bus over voor de harddisks, toch? De onboard NIC, zit die niet ook aan de PCI bus?
En hoe zit het met USB. Als ik een schijf aan de USB koppel in plaats van eSata, wordt de snelheid dan veel beperkt of helemaal niet? USB2.0 is 480mbps, dus 60MB/s, dus in de praktijk zal het wel lager zijn dan dat... maar is er nog iets wat dat vertraagt? Zit onboard USB aan de PCI? Als ik twee schijven aan twee USB poorten koppel, is het dan 480mbps totaal of 480mbps per stuk?
Klopt het trouwens dat een moderne PCI bus 133MB/s is?
"I don't always test my code, but when I do, I test on production."
"I don't always test my code, but when I do, I test on production."
Verwijderd
Bij 66MHz PCI heb je dus 266MB/s en PCI-X biedt tot 1GB/s, maar dat vind je alleen op dure serverborden. Naast dat de bandbreedte van PCI erg beperkt is, heeft het ook een veel hogere latency dan bijvoorbeeld PCI-express. Daarnaast zit je met hogere CPU belasting. PCI dien je dus te vermijden tenzij dat onmogelijk is. De poorten op je moederbord afkomstig van je chipset hebben geen PCI beperking, die gebruiken een embedded interface met volle bandbreedte.
PCI-X hoeft je niet alleen op dure serverborden te vinden hoor. Ik heb zelf een Asus M2N32 WS Professional, dit bord is voorzien van 2x PCI-e 16x, 1x PCI-e 1x, 2x PCI en 2x PCI-X 133Mhz.Verwijderd schreef op zaterdag 19 januari 2008 @ 01:37:
PCI in normale consumenten-moederborden zijn altijd 133MB/s, berekening: 32-bit x 33MHz = 1066Mbps = 133MB/s.
Bij 66MHz PCI heb je dus 266MB/s en PCI-X biedt tot 1GB/s, maar dat vind je alleen op dure serverborden. Naast dat de bandbreedte van PCI erg beperkt is, heeft het ook een veel hogere latency dan bijvoorbeeld PCI-express. Daarnaast zit je met hogere CPU belasting. PCI dien je dus te vermijden tenzij dat onmogelijk is. De poorten op je moederbord afkomstig van je chipset hebben geen PCI beperking, die gebruiken een embedded interface met volle bandbreedte.
Daarnaast zit ik er nog aan te denken een DFI bordje te kopen waar een Pentium M op geprikt kan worden welke ook is voor zien van een PCI-X 133Mhx slot. Er zijn niet veel moederborden met PCI-X, maar als je even zoekt dan kom je ze wel tegen.
Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/