CM SL600M | MSI MPG Z390 PRO CARBON & RTX2080TI GAMING X TRIO | CORSAIR 115i PRO & CORSAIR RGB PRO 16GB 3200DDR4 & HX750V2 | INTEL I9 9900K & 660P 512GB & 1TB | LOGITECH G910 & G502 | RAZER NARI ULTIMATE | TEUFEL CONCEPT 2.1 | LG 27UK850
Verwijderd
2) het definen van een RAID array betekent dat de data op die schijven verloren gaat
3) dunno
Is een raid array in te delen in meerder paritie's? ik wil ze confurgeren in raid 0.
[ Voor 32% gewijzigd door the squaler1 op 27-05-2007 00:32 ]
CM SL600M | MSI MPG Z390 PRO CARBON & RTX2080TI GAMING X TRIO | CORSAIR 115i PRO & CORSAIR RGB PRO 16GB 3200DDR4 & HX750V2 | INTEL I9 9900K & 660P 512GB & 1TB | LOGITECH G910 & G502 | RAZER NARI ULTIMATE | TEUFEL CONCEPT 2.1 | LG 27UK850
CM SL600M | MSI MPG Z390 PRO CARBON & RTX2080TI GAMING X TRIO | CORSAIR 115i PRO & CORSAIR RGB PRO 16GB 3200DDR4 & HX750V2 | INTEL I9 9900K & 660P 512GB & 1TB | LOGITECH G910 & G502 | RAZER NARI ULTIMATE | TEUFEL CONCEPT 2.1 | LG 27UK850
Ps: gebruik de edit knop ;-)
Ik heb echt een hele goeie PC.
Verwijderd
Ook is het nut van partitioneren heden ten dagen twijfelachtig, maar daar is geloof ik al ergens een heel groot topic over dus dat hoeven we hier niet te behandelen. Mijn mening: Niet partitioneren
Overigens zijn zowel de onboard RAID als het kaartje softwarematig dus het snelheids verschil tussen die twee zal echt minimaal zijn. Daarnaast is de onboard bij de P5B omslachtig zoals je al zegt en als je moederbord kapot gaat dan krijg je problemen om de array over te zetten naar een nieuw (ander) moederbord.
En of het nu PCI-E, PCI-X of PCI is maakt ook allemaal niet zoveel uit, 2 van die standaard desktop hdd'jes zullen de bandbreedte van een normaal PCI slot niet eens voltrekken, theoretisch misschien wel maar in de praktijk echt niet.
Het gaat voornamelijk om het verschil hardware vs software, hardware is ongeveer 10x zo duur, dus dan weet je meteen waarom de ene kaart 30 euro is en de andere 300 euro.
[ Voor 20% gewijzigd door Verwijderd op 27-05-2007 19:23 ]
Ik had zelf juist het idee (maar ik weet er niet heel veel van af) dat je met Raid 0 juist eerder de bandbreedte vergroot (met een goeie controller bijna verdubbeld). Juist omdat je dus met 2 of meer schijven iets leest of schrijft lijkt het mij dat de bandbreedte verdubbeld. Ik zie het dan een beetje als een databus van 1 bit waar een 2e bit aan toe wordt gevoegd: bandbreedte verdubbeld! De seek times zouden naar mijn idee ongeveer t zelfde moeten zijn, iig zo snel als de langzaamste schijf uit de set. DIt omdat de Raid controller moet wachten op die langzaamste schijf voordat 'ie de data kan samen voegen.
edit:
Ik heb de proef op de som genomen en mn Raid0 array van 2 Samsung 2504C's op een DFI nforce4 getest met HDtune. Daarna heb ik een enkele schijf getest. Uit mijn resultaten blijkt dat ik gelijk heb. De gemiddelde bandbreedte is bij mn raid array grofweg 2 keer zo hoog. Ook de toegangstijden zijn iets beter bij de raid array.
| Gemiddelde bandbreedte | Max. bandbreedte | Min. bandbreedte | Toegangs tijd | CPU gebruik | |
| Raid 0 | 104,0 MB/s | 129,6 MB/s | 63,3 MB/s | 14,2 ms | 5,8% |
| Enkele | 58,2 MB/s | 71,8 MB/s | 36,7 MB/s | 15,0 ms | 4,8 % |
[ Voor 49% gewijzigd door brute51 op 27-05-2007 19:49 . Reden: HD test ]
Ik heb echt een hele goeie PC.
Verwijderd
Maar in de praktijk trekken 2 desktop schijfjes een PCI kanaal niet eens vol, dus heeft het verder geen winst om PCI-X of PCI-E te gebruiken. Dat bedoelde ik.
Qua snelheids winst zit het vooral in de lagere seektime, dat beetje bandbreedte winst zal zich in een desktop situatie niet zo snel vertalen naar een echte snelheidswinst. (Of je moet hele specifieke dingen aan het doen zijn, al zou ik zo niet precies weten wat je moet doen om in een desktop systeem tegen de bandbreedte top van je schijf aan te lopen).
Je ziet in jouw benchmarkjes al dat je op 130 MB/s als top zit (dat haal je dus in de praktijk nooit), een PCI kanaal doet 133 MB/s dus dat is geen enkel probleem.
[ Voor 13% gewijzigd door Verwijderd op 27-05-2007 19:53 ]
Verwijderd
1) een RAID0 verlaagt niet de seektimes; een groep van 4 leeuwen kunnen niet sneller rennen dan een enkele leeuwVerwijderd schreef op zondag 27 mei 2007 @ 19:20:
Overigens is het ook weer niet zo nuttig om partities te creeren op een RAID 0, een RAID 0 is namelijk voornamelijk handig om de seektijd te verlagen. Wanneer je dan gaat partitioneren gaat de seektime weer omhoog waarmee je de snelheidswinst voor een groot deel weer om zeep helpt.
2) waarom zou door partitioneren de seektime omhoog gaan? een mogelijke reden om niet te partitioneren zou zijn dat je dan een filesystem misalignment krijgt, maar bij Windows is dit haast niet te voorkomen. Alleen Linux en UNIX laten Dangerously Dedicated volumes toe.
Op Windows zul je toch minimaal 1 partitie moeten maken, maar jij bedoelt dat het er niet meer dan 1 moet zijn, denk ik?Ook is het nut van partitioneren heden ten dagen twijfelachtig, maar daar is geloof ik al ergens een heel groot topic over dus dat hoeven we hier niet te behandelen. Mijn mening: Niet partitioneren
Niet waar, onboard heeft namelijk een embedded bus, bij een los kaartje loopt alles over een PCI bus, die ook nog eens gedeeld wordt met bijna elk apparaat in het systeem (USB, PS/2, Parallel, Serieel, Audio, PCI kaarten en vaak ook onboard Ethernet). Dat probleem heb je met onboard aansluitingen niet, die direct op de southbridge (of single-chip chipset) zijn verbonden. Met uitzondering van extra chips die moederbordfabrikanten nog wel eens willen toevoegen, om bijvoorbeeld het aantal SATA-poorten van 4 naar 8 te brengen, die lopen bijna wel altijd via PCI.Overigens zijn zowel de onboard RAID als het kaartje softwarematig dus het snelheids verschil tussen die twee zal echt minimaal zijn.
Natuurlijk wel. De vraag is of dat erg is, merkbaar is en een reden om het niet te doen, maar 2x75MB/s is sowieso al 150MB/s dus je kunt gelijk al zeggen DAT het performanceverlies oplevert. Maar wat vaak vergeten wordt is dat de latency toeneemt, en dat is met name belangrijk bij niet-sequentiele toegang zoals het laden van applicaties. Dat laat zich niet zomaar testen met simpele utilities zoals ATTO of HDTach.En of het nu PCI-E, PCI-X of PCI is maakt ook allemaal niet zoveel uit, 2 van die standaard desktop hdd'jes zullen de bandbreedte van een normaal PCI slot niet eens voltrekken, theoretisch misschien wel maar in de praktijk echt niet.
op de asus p5b kun je alleen raid creeren door 1 sata buiten aan te sluiten op een esata en 1 binnen aan te sluiten. ik koop dan daarom ook geen pci-x kaartje. op de raid komt al windows vista te staan dat aardig hardeschijf ruimte in neemtbrute51 schreef op zondag 27 mei 2007 @ 19:15:
Wat bedoel je met 1 binnen en in buiten? En ja, een Raid 0 array wordt door je computer gezien en gebruikt als 1 harde schijf. Dus ja, je kunt gewoon partities maken.
Ps: gebruik de edit knop ;-)
[ Voor 12% gewijzigd door the squaler1 op 27-05-2007 19:55 ]
CM SL600M | MSI MPG Z390 PRO CARBON & RTX2080TI GAMING X TRIO | CORSAIR 115i PRO & CORSAIR RGB PRO 16GB 3200DDR4 & HX750V2 | INTEL I9 9900K & 660P 512GB & 1TB | LOGITECH G910 & G502 | RAZER NARI ULTIMATE | TEUFEL CONCEPT 2.1 | LG 27UK850
Verwijderd
De gemiddelde seektime in een standaard desktop omgeving zal ongeveer gehalveerd worden in een RAID 0 setup, dat is waar de snelheids winst ligt. Dit komt natuurlijk door de striping. (Hoewel dit erg afhankelijk is van je definitie van seektime, de kop zelf gaat niet sneller dus in de meest basic zin van het woord doet de RAID niets af aan de seek time).Verwijderd schreef op zondag 27 mei 2007 @ 19:52:
[...]
1) een RAID0 verlaagt niet de seektimes; een groep van 4 leeuwen kunnen niet sneller rennen dan een enkele leeuw
Omdat je de data fysiek verder uit elkaar legt, je hebt in een normale desktop omgeving om en om toegang nodig tot systeembestanden en databestanden, de kop moet dus verder gaan reizen wanneer deze data verder uit elkaar ligt.2) waarom zou door partitioneren de seektime omhoog gaan? een mogelijke reden om niet te partitioneren zou zijn dat je dan een filesystem misalignment krijgt, maar bij Windows is dit haast niet te voorkomen. Alleen Linux en UNIX laten Dangerously Dedicated volumes toe.
Tegenwoordig is het OS heel erg goed met defragementatie en het plaatsen van data die veel gebruikt wordt dicht bij elkaar op de schijf (zowel Windows als Linux).
Maar zoals gezegd, dat is offtopic en er is al een enorm topic over, dus laten we het daar hier niet over gaan hebben. (En er komt natuurlijk nog veel meer bij kijken als enkel performance)
Duh... smartassOp Windows zul je toch minimaal 1 partitie moeten maken, maar jij bedoelt dat het er niet meer dan 1 moet zijn, denk ik?
You wish, normaal wordt voor de onboard controller gewoon een PCI kanaal of een PCI-e kanaal gebruikt, die heeft geen deticated bus verder.Niet waar, onboard heeft namelijk een embedded bus, bij een los kaartje loopt alles over een PCI bus, die ook nog eens gedeeld wordt met bijna elk apparaat in het systeem (USB, PS/2, Parallel, Serieel, Audio, PCI kaarten en vaak ook onboard Ethernet). Dat probleem heb je met onboard aansluitingen niet, die direct op de southbridge (of single-chip chipset) zijn verbonden. Met uitzondering van extra chips die moederbordfabrikanten nog wel eens willen toevoegen, om bijvoorbeeld het aantal SATA-poorten van 4 naar 8 te brengen, die lopen bijna wel altijd via PCI.
Ook ligt daar niet de bottleneck, de bottleneck is normaal de CPU bij een softwarematige oplossing (en het transferren van de gegevens naar het systeem geheugen ed), bij een hardwarematige oplossing heb je dat niet.
Al zou je de softwarematige onboard kaart een deticated bus geven en directe toegang tot de geheugencontroller dan zal ie nog niet merkbaar sneller zijn als een Sweex kaartje van 30 euro.
Zeker op de P5B (een budget board) is de onboard RAID gewoon bagger (er zitten niet eens 2 interne connectoren op) en ben je dus al beter af met een kaartje van 30 euro.
Bandbreedte is geen probleem, zie daarvoor posts hierboven, 2 normale schijfjes trekken een normaal PCI kanaal in de praktijk nooit vol, je hebt dus zo goed als geen winst bij een PCI-E of PCI-X oplossing (die zijn dan ook helemaal niet bedoelt voor desktop toepassingen, hoewel wegens schaarste aan PCI kaarten PCI-E 1x kaartjes wel erg handig zijn).Natuurlijk wel. De vraag is of dat erg is, merkbaar is en een reden om het niet te doen, maar 2x75MB/s is sowieso al 150MB/s dus je kunt gelijk al zeggen DAT het performanceverlies oplevert. Maar wat vaak vergeten wordt is dat de latency toeneemt, en dat is met name belangrijk bij niet-sequentiele toegang zoals het laden van applicaties. Dat laat zich niet zomaar testen met simpele utilities zoals ATTO of HDTach.
[ Voor 3% gewijzigd door Verwijderd op 27-05-2007 20:06 ]
Ik ken eigenlijk maar 1 definitie van seektime; de gemiddelde tijd die het kost om de gevraagde data te vinden op de schijf. Jij gebruikt zo te zien een andere, welke?Verwijderd schreef op zondag 27 mei 2007 @ 20:02:
De gemiddelde seektime in een standaard desktop omgeving zal ongeveer gehalveerd worden in een RAID 0 setup, dat is waar de snelheids winst ligt. Dit komt natuurlijk door de striping. (Hoewel dit erg afhankelijk is van je definitie van seektime, de kop zelf gaat niet sneller dus in de meest basic zin van het woord doet de RAID niets af aan de seek time).
...
Om niet helemaal off-topic te gaan: TS, zo te horen kun je het beste gewoon een los kaartje kopen. Een hardeschijf buiten je kast aansluiten is verre van ideaal. Mijn advies: als je geld hebt koop iig het goedkoopste Raid kaartje dat je kunt vinden. Misschien is de XFX Revo64 een tip voor je. Niet zo duur (40 euro voor eentje met 3 aansluitingen) en ondersteunen Raid 0, 1 en 3 (3 is een soort van 5 maar dan op byte niveau ipv page(?) niveau). Verder zit er 64MB cache en een processortje op wat de prestaties natuurlijk ten goede komt. Ik heb de 3 ports versie al een tijd of wat draaien, gewoon zonder problemen onder Windows. Je hoeft geen drivers te installeren dus hij doet het ook gewoon goed onder Linux.
Helaas zijn er ook wat slechte puntjes aan. Hij wordt niet echt meer ondersteund. Het is ook al een wat ouder product maar SATA150 doet 'ie prima. Verder presteert 'ie bij mij, met 3x Samsung 2504C, in Raid 0 ongeveer 30MB/s en in raid 1 is dat zon 12MB/s. In Raid 3 doetie echter 65MB/s dus als je 'm idd koopt, draai dan in Raid 3 (daar zijn 3 voor schijven nodig). Het is trouwens gewoon een PCI kaartje... Stom van me, dit biedt natuurlijk niet de prestaties waar je naar zoekt. Ik heb dat kaartje ook alleen maar voor Raid 3 zodat mn data iig bewaard blijft bij een schijfcrash.
http://tweakers.net/price...riceMin=0&priceMax=&land=
[ Voor 4% gewijzigd door brute51 op 28-05-2007 08:52 ]
Ik heb echt een hele goeie PC.
Fout, de seektime wordt over het algemeen zelfs iets langer, doordat de koppen van beide disks gepositioneerd moeten worden ipv 1 disk. Hier ligt geen voordeel.Verwijderd schreef op zondag 27 mei 2007 @ 20:02:
[...]
De gemiddelde seektime in een standaard desktop omgeving zal ongeveer gehalveerd worden in een RAID 0 setup, dat is waar de snelheids winst ligt. Dit komt natuurlijk door de striping. (Hoewel dit erg afhankelijk is van je definitie van seektime, de kop zelf gaat niet sneller dus in de meest basic zin van het woord doet de RAID niets af aan de seek time).
Het voordeel van striping is dat de sequentiele datadoorvoer juist toeneemt en theoretisch verdubbeld.
Zelf heb ik 2 raptors van 73GB voor windows en voor mijn Lightroom library (striped) en 2x 300GB 7200RPM voor data (striped). Backups gaan via externe HDD'S van 500GB
Verwijderd
Kun je uitleggen waarom? Waarom zou een request om 32KB of 512 bytes te lezen sneller gaan?Verwijderd schreef op zondag 27 mei 2007 @ 20:02:
De gemiddelde seektime in een standaard desktop omgeving zal ongeveer gehalveerd worden in een RAID 0 setup, dat is waar de snelheids winst ligt. Dit komt natuurlijk door de striping.
Als de toegangstijd niet hetzelfde is als seektime volgens jou, wat bedoel je er dan wel mee?(Hoewel dit erg afhankelijk is van je definitie van seektime, de kop zelf gaat niet sneller dus in de meest basic zin van het woord doet de RAID niets af aan de seek time).
Daar heb je gelijk in ja. Om die reden kan het idd verstandig zijn geen 2e partitie te maken met gegevens waarvan je snelheid verlangt.Omdat je de data fysiek verder uit elkaar legt, je hebt in een normale desktop omgeving om en om toegang nodig tot systeembestanden en databestanden, de kop moet dus verder gaan reizen wanneer deze data verder uit elkaar ligt.
Jawel, kijk maar naar de chipset specs en design grafiek. Dit wordt een embedded bus genoemd. Anders zou het nooit morgen zijn om hoger dan 133MB/s te halen, iig niet op chipsets zonder PCI-express. En dat halen ze natuurlijk wel. Onboard SATA en PATA connectors (direct) verbonden met de chipset hebben dus hun eigen dedicated "embedded" bus die op volle snelheid loopt.You wish, normaal wordt voor de onboard controller gewoon een PCI kanaal of een PCI-e kanaal gebruikt, die heeft geen deticated bus verder.
Bij complexe RAID levels als RAID3, 4, 5 en 6 heb je daar gelijk in, maar bij RAID0 en RAID1 speelt dit niet. Daar valt immers weinig uit te rekenen en dus hoeft de CPU qua RAID vrijwel niets te doen (niets wat meer dan 1% CPU belasting zal geven iig, en waarschijnlijk vele malen minder).Ook ligt daar niet de bottleneck, de bottleneck is normaal de CPU bij een softwarematige oplossing (en het transferren van de gegevens naar het systeem geheugen ed), bij een hardwarematige oplossing heb je dat niet.
Niet merkbaar sneller kan goed kloppen. Immers het verschil tussen 100MB/s en 150MB/s is subjectief niet goed te 'merken'. Bovendien zul je bandbreedte verschil alleen merken in de outer tracks en met sequentiele toegang. De toegenomen latency die voor een langere laadtijd van b.v. applicateis kan zorgen, is ook zeker niet substantieel genoeg om subjectief echt te kunnen onderscheiden. Wil je subjectief echt een gevoel hebben dat iets sneller gaat moet er toch minimaal 75% verschil zitten. Het is meer ons verstand die zegt dat 150MB/s sneller is dan 125MB/s, niet ons gevoel.Al zou je de softwarematige onboard kaart een deticated bus geven en directe toegang tot de geheugencontroller dan zal ie nog niet merkbaar sneller zijn als een Sweex kaartje van 30 euro.
hoezo 'bagger'? Je kunt software RAID gebruiken daarmee ben je vrijer en flexibeler dan fake RAID. Je gebruikt de onboard controller dan gewoon als IDE controller en niet als RAID controller. Windows (of je OS naar keuze) doet dan de striping, wat anders toch wel door drivers gedaan wordt. Enig verschil is gebrek aan boot support maar dat is in dit geval geen eis. Dus ik vraag me af welk voordeel een 30 euro kostende kaart heeft als het zelfs potentieel trager is?Zeker op de P5B (een budget board) is de onboard RAID gewoon bagger (er zitten niet eens 2 interne connectoren op) en ben je dus al beter af met een kaartje van 30 euro.
Enig puntje is dan die externe kabel, maarja als het werkt?
Verwijderd
Ook niet helemaal juist. De seektime is de toegangstijd voor het vinden van een bepaalde sector, meestal een random sector. Hoeveel RAID de seektime niet verlaagt (en idd mogelijk verhoogt doordat er een kleine vertraging optreedt), kan het wel zijn dat RAID een hele stapel I/O requests sneller afhandelt. De toegangstijd is dus voor de eindgebruiker niet belangrijk, en verliest zijn waarde als hij vergeleken wordt met een RAID-setup.brute51 schreef op zondag 27 mei 2007 @ 20:54:
Ik ken eigenlijk maar 1 definitie van seektime; de gemiddelde tijd die het kost om de gevraagde data te vinden op de schijf. Jij gebruikt zo te zien een andere, welke?
In principe is het zo dat een enkele gequests door 1 schijf afgehandeld wordt. In sommige gevallen is er sprake van misalignment waardoor voor 1 requests twee schijven bezig zijn, dan verlies je inderdaad wel tijd.Fairy schreef op zondag 27 mei 2007 @ 20:58:
[...]
Fout, de seektime wordt over het algemeen zelfs iets langer, doordat de koppen van beide disks gepositioneerd moeten worden ipv 1 disk.
Hetzelfde geldt voor niet-sequentiele toegang zoals random I/O, alleen valt het daarvoor in de praktijk niet altijd goed te verzilveren, vooral niet met fake RAID en domme softwarematige implementaties.Het voordeel van striping is dat de sequentiele datadoorvoer juist toeneemt en theoretisch verdubbeld.
na wat verder zoeken klopt het dat de raid erg brak is. wat kan ik hier aan doen
[ Voor 32% gewijzigd door the squaler1 op 28-05-2007 00:13 ]
CM SL600M | MSI MPG Z390 PRO CARBON & RTX2080TI GAMING X TRIO | CORSAIR 115i PRO & CORSAIR RGB PRO 16GB 3200DDR4 & HX750V2 | INTEL I9 9900K & 660P 512GB & 1TB | LOGITECH G910 & G502 | RAZER NARI ULTIMATE | TEUFEL CONCEPT 2.1 | LG 27UK850
Verwijderd
Nee in principe is dat qua prestaties ook beter (aangenomen dat het de controller in de chipset is en geen losse chip). Maargoed zelfs al loopt het over PCI een ramp zal het niet worden.the squaler1 schreef op zondag 27 mei 2007 @ 22:06:
Oke nu raak ik de weg kwijt. Het gaat mij niet om de seek tijd maar mij om het lezen en het schrijven van de schijven. Het liefst behoud ik mijn onboard raid zo erg kan het toch niet zijn?[/b]
Wat heb je precies gevonden dan? Als de controller gewoon 'werkt' kun je software RAID gebruiken, wat in principe geen nadeel heeft over fake RAID / driver RAID / firmware RAID. Dan ben je voor 0 euro klaar, misschien een kabeltje.na wat verder zoeken klopt het dat de raid erg brak is. wat kan ik hier aan doen
Koop je een los kaartje, dan heb je het gemak dat je niet meer een kabel buitenom hoeft te gebruiken, maar biedt geen snelheidsvoordeel (eerder iets langzamer juist). Dat is een afweging die je zelf moet maken natuurlijk.
Asrock Z77Pro4-M, i7 3770K ; Corsair PC3-12800K CMV8GX3M1A1600C11 x2 ; Zotac GeForce GTX1050 Ti 4GB ; Crucial MX500 500GB; Toshiba DT01ACA300 ; HP M375mw ; Synology DS218j + WD60PURZ ; TP-Asus RT-AC68U asuswrt-merlin 386.10 ; Sony Xperia XZ2 P ; Mazda 323
Verwijderd
Hoe kom je daar nou bij? Geef eens een bron want dit is gewoon echt niet waar wat je zegt.Verwijderd schreef op maandag 28 mei 2007 @ 00:44:
[...]
Nee in principe is dat qua prestaties ook beter (aangenomen dat het de controller in de chipset is en geen losse chip). Maargoed zelfs al loopt het over PCI een ramp zal het niet worden.
Die goedkope RAID controllers zijn software, ze bieden geen betere performance als een volledige software RAID als bijvoorbeeld standaard in WIndows en Linux beschikbaar zijn. Voordeel van een Windows of Linux RAID is dat het niet uitmaakt in wat voor systeem je het stopt, als er 2 SATA connectoren op zitten dan gaat het werken.
Het boeit echt niets of het nu een losse chip is of in het chipset zit, of het nu via PCI, PCI-E, PCI-X of wat dan ook gaat, de bottleneck is namelijk gewoon de CPU, die moet alles regelen en daar is het op wachten (aangezien die meer dingen te doen heeft).
Zie bijvoorbeeld deze uitgebreide review op Tweakers: reviews: Windows software RAID opnieuw bekeken
Ook op andere sites en bladen is het al uitgebreid getest:
Het boeit echt helemaal niets of je nu 100% software RAID pakt, onboard software RAID of een el-cheapo software RAID kaartje.
Je gaat pas echt een verschil merken in performance als je naar de duurdere hardware RAID oplossingen gaat die ongeveer bij 300 euro beginnen en een eigen geheugen hebben.
Anders zoek je zelf even, de P5B RAID staat erom bekend enorm brak te zijn, de drivers werken niet, het is onstabiel, je hele PC kan minder ver overclocken en je moet moeilijk doen met een kabeltje buitenom.Wat heb je precies gevonden dan? Als de controller gewoon 'werkt' kun je software RAID gebruiken, wat in principe geen nadeel heeft over fake RAID / driver RAID / firmware RAID. Dan ben je voor 0 euro klaar, misschien een kabeltje.
FIY: De P5B heeft een JMicron 363 chipje onboard die zorgt voor de SATA en ATA en dus ook voor de RAID en zit via een PCI-E 1x verbinding verbonden met het chipset.
Het is een budget board, origineel hadden de makers waarschijnlijk niet eens RAID in gedachte, maar blijkbaar kwam er een half bezopen manager binnen bij Asus die riep dat er ook gerust RAID op kon en dus hebben ze het maar op zo'n enorme brakke manier opgelost.
De onboard RAID functie van de P5B dus absoluut niet gebruiken, maar ofwel 100% software RAID gebruiken (waarmee je het kabel probleem niet oplost), of even een paar tientjes betalen voor een mooi Sweex kaartje met een lekker standaard Silicon Image chipsetje.
Het biedt geen snelheidsvoordeel maar ook echt geen snelheidsnadeel, dus gewoon lekker een klein kaartje kopen...Koop je een los kaartje, dan heb je het gemak dat je niet meer een kabel buitenom hoeft te gebruiken, maar biedt geen snelheidsvoordeel (eerder iets langzamer juist). Dat is een afweging die je zelf moet maken natuurlijk.
[ Voor 3% gewijzigd door Verwijderd op 28-05-2007 01:12 ]
Verwijderd
Een controller met embedded bus kan sneller gaan dan een PCI controller, en met een RAID0 array kom je die limiet dus al tegen. Tweakers.net RAID-topic is een goede bron om je eigen uitspraken eens te verifieren (o.a. dat je zei dat onboard SATA ook via PCI loopt, dat zou betekenen dat je in het RAID topic geen scores hoger dan 133MB/s kunt vinden zonder PCI-X or PCIe hardware RAID).Verwijderd schreef op maandag 28 mei 2007 @ 01:07:
Hoe kom je daar nou bij? Geef eens een bron want dit is gewoon echt niet waar wat je zegt.
Ik claim ook niet anders.Die goedkope RAID controllers zijn software, ze bieden geen betere performance als een volledige software RAID als bijvoorbeeld standaard in WIndows en Linux beschikbaar zijn.
Maar doe je RAID via een PCI kaartje ipv onboard RAID (al dan niet via driver of software) dan heb je wel te maken met de limiterende factor van PCI. Hoe groot die limitatie is valt over te discussieren maar hij IS er wel, dus in elk geval is een PCI kaartje potentieel (iets) trager dan een onboard oplossing die via een embedded bus loopt.
Daar geef ik dus ook de voorkeur aan.Voordeel van een Windows of Linux RAID is dat het niet uitmaakt in wat voor systeem je het stopt, als er 2 SATA connectoren op zitten dan gaat het werken.
CPU bottleneck? Voor software RAID0?Het boeit echt niets of het nu een losse chip is of in het chipset zit, of het nu via PCI, PCI-E, PCI-X of wat dan ook gaat, de bottleneck is namelijk gewoon de CPU, die moet alles regelen en daar is het op wachten (aangezien die meer dingen te doen heeft).
Misschien als je een 486 draait.
Misschien moet je zelf nog iets beter kijken.Zie bijvoorbeeld deze uitgebreide review op Tweakers: reviews: Windows software RAID opnieuw bekeken
Op deze pagina staan namelijk de CPU usage statistieken, van een enkele schijf versus een 4-disk RAID0 schijf, en wat blijkt:
single disk: 1,14%
4-disk RAID0: 2,74%
Dat is toch echt iets lager dan 100%. Alleen software RAID5 kent een veel hoger gebruik, maar daar gaat het hier niet om, TS gaat RAID0 gebruiken.
Voor RAID0 is dat zeker waar, maar je vergeet dat de bus bandbreedte en latency ook zijn invloed heeft. Al kan je raid controller qua CPU kracht 4GB/s verzetten, een PCI bus houdt het bij 133MB/s voor gezien.Het boeit echt helemaal niets of je nu 100% software RAID pakt, onboard software RAID of een el-cheapo software RAID kaartje.
Je gaat pas echt een verschil merken in performance als je naar de duurdere hardware RAID oplossingen gaat die ongeveer bij 300 euro beginnen en een eigen geheugen hebben.
250MB/s full duplex dus, stukken beter dan PCI.Anders zoek je zelf even, de P5B RAID staat erom bekend enorm brak te zijn, de drivers werken niet, het is onstabiel, je hele PC kan minder ver overclocken en je moet moeilijk doen met een kabeltje buitenom.
FIY: De P5B heeft een JMicron 363 chipje onboard die zorgt voor de SATA en ATA en dus ook voor de RAID en zit via een PCI-E 1x verbinding verbonden met het chipset.
Maar je zegt instabiel; geldt dat voor de RAID-drivers of de IDE-drivers? Als je software RAID gebruikt is alleen het laatste van toepassing natuurlijk. RAID doe je dan niet onboard maar softwarematig.
1: Beide opties gebruiken ze de processor om de data van je hardeschijven te combineren. Ik zou daarom zeggen dat tussen beide opties eigenlijk geen verschil zit kwa processorgebruik. Bij mij gaat het gebruik van de processor met 1% omhoog (zie hierboven ergens een 'benchmark', ik heb een X2 4400+ en gebruik onboard RAID) dus dat valt best mee.the squaler1 schreef op zaterdag 26 mei 2007 @ 14:57:
Mij vragen:
- Draait het besturingssysteem langzamer op pci kaart met raid. of is op het mobo sneller?
- moet voor de raid confrugratie alles van de 160 gb af die ik al in bezit het?
- En is dit een goed pci kaartje
Het verschil is dat het PCI kaartje over de PCI bus gaat maar de onboard oplossing zit op een snellere manier verbonden met de chips op je moederboord. Het verschil is dus dat de PCI oplossing minder snel reageert (latency) dan de onboard oplossing en dat je tegen de bandbreedte limiet van PCI zou kunnen oplopen (theorestisch max. 133MB/s, in de praktijk loop je er eerder tegenaan). De onboard oplossing is dus sneller!
2: Al behandeld geloof ik, maar ik zal 'm nogmaals beantwoorden: ja, alles moet eraf. Maar je bent van plan om een 320GB schijf te kopen. Dan kopieer je toch eerst alles naar die schijf voordat je je RAID opstelling bouwt?
3: Ik heb geen idee of dit een goede is. Zoek is met Google naar benchmarks en ervaringen van andere mensen met deze kaart. De specs zien er wel okee uit al zou ik er geen RAID 5 ofzo mee gaan draaien, kost veel meer processorkracht. Ik ken je moederboord verder niet dus ik weet niet of er een PCIe connector op zit, dat moet je zelf maar nagaan. Verder is dit geen PCI kaartje maar een PCIe kaartje en dat veranderd de zaak bij antwoord op je eerste vraag. De latency gaat namelijk omlaag en de max. bandbreedte gaat een stuk omhoog en dat is dus in het voordeel van het losse kaartje!
Maar volgens mij heb je nog niet het antwoord op de vraag welke van de 2 opties je moet kiezen. Mijn advies: het losse kaartje! Zo te lezen in de posts hierboven is de RAID op je moederboord niet van al te beste kwaliteit en moet je emt draadjes buiten om gaan prutsen. Verre van ideaal, ik zou er niet aan beginnen. Dus koop dat kaartje (als je een PCIe connector hebt)! en negeer mijn tip over die Revo64, was beetje dom...
Als er verder nog vragen zijn horen we dat wel. Succes!
Ik heb echt een hele goeie PC.

Ik heb me ook verkeken op de kaart het moet een pci of pci-x ik dacht dat ik dat had gedaan maar nee. dus ik eens gekeken en kwam uit op een goed koop sweex controlleer met 150 mb maar de vraag is belemmert dit niet de snelheid van de schijven want de schijven die raid komen kunnen namelijk 300MB/S. en zou de controller willen werken met vista ?
Of kan beter kijken naar een controller want ik hoor wel slechte verhalen over sweex
[ Voor 14% gewijzigd door the squaler1 op 28-05-2007 13:01 ]
CM SL600M | MSI MPG Z390 PRO CARBON & RTX2080TI GAMING X TRIO | CORSAIR 115i PRO & CORSAIR RGB PRO 16GB 3200DDR4 & HX750V2 | INTEL I9 9900K & 660P 512GB & 1TB | LOGITECH G910 & G502 | RAZER NARI ULTIMATE | TEUFEL CONCEPT 2.1 | LG 27UK850
Verwijderd
En je kunt inderdaad beter kijken naar het chipje wat erop zit.
Sweex is budget en bij sommige dingen wil je liever geen budget spul, maar in dit geval valt dat echt reuze mee. De chipsets die erop zitten zijn standaard, het ontwerp van de PCB komt ook van de chipset fabrikant en Sweex heeft het laten maken in een noname fabriek in Hong Kong.
Geen reden dus om geen Sweex te pakken (alle andere budget merken doen namelijk precies hetzelfde).
En die standaard chipsets werken ook prima onder Vista inderdaad.
(Normaal gezien zit er een Silicon Image SiI 3x12 chipsetje op)
[ Voor 74% gewijzigd door Verwijderd op 28-05-2007 13:21 ]
Squaler: ik raad je aan om de RAID FAQ rustig en aandachtig te doornemen om jezelf op de hoogte te brengen met betrekking tot het fenomeen "RAID". Daarna kun je in de OM FAQ / Beleid » Welke moet ik nemen? teruglezen hoe je het een en ander kunt uitkiezen.
[ Voor 17% gewijzigd door BalusC op 29-05-2007 06:28 ]
Dit topic is gesloten.
![]()