Madrox schreef op zondag 08 juli 2007 @ 02:54:
Raid 0 of 0+1 is altijd sneller dan RAID 5. Je hebt er dan waarschijnlijk wel meer harddisks voor nodig :-)
De write-snelheid presteert ook behoorlijk beter naarmate er meer hdd's in je RAID-0 array zitten, dit is stukken minder met willekeurig welke RAID-5 array dan ook. Tom's heeft een aardige review over RAID 0 / 0+1 , vergelijk dan die write-snelheden eens voor de grap met de RAID-5 resultaten.
Schrijfsnelheden kunnen net zo goed meeschalen met een raid 5-array als met raid 0 of raid 10. Uiteraard ben je wel de capaciteit en dus lees- en schrijfsnelheid van één schijf kwijt aan parity. De grootste bottleneck voor de schaling van de schrijfsnelheid is de performance van de I/O processor. Dit is voor raid 0 net zo goed een probleem als voor raid 5.
Natuurlijk, RAID-5 heeft ook sterke kanten. Maar op pure performance verliest het ten alle tijden van RAID-0. Natuurlijk neem je voor zo'n setup een controller die goed met RAID-0 en 1 overweg kan. De Areca bijv. is meer gespits op RAID 5 /6 50/60. Ga je voor RAID 0 0+1/10, zijn er betere keuzes.
De Areca-controllers hebben een erg effectieve cache. Dit heeft positieve gevolgen voor de prestaties in alle raid-levels dus ook in raid 0. Een Areca is daardoor nagenoeg onverslaanbaar in raid 0. Een simpele hostbased controller kan niet tippen aan de prestaties van een Areca in raid 0 met een gelijk aantal schijven, tenzij je het over zeer grote arrays hebt van bijvoorbeeld meer dan twintig schijven. Tegen die tijd wint een hostbased controller het misschien eindelijk eens omdat de prestaties beter schalen (want een moderne cpu heeft een hogere bandbreedte dan de iop van een Areca).
Ter illustratie wat workstationbenchmarks van diverse sata raid-controllers met vier Raptor WD740ADFD's in raid 0. De HighPoint RocketRAID 2320 is de enige controller in de test zonder cache:

Madrox schreef op vrijdag 13 juli 2007 @ 01:17:
Prachtig, al die IOp's. Maar wat betekent dit nu in real life performance. Bijvoorbeeld; uit je statistiek maak ik op dat de Areca-setup +/- 3x sneller IOp'ed dan de Highpoint setup. Betekent dit dan dat de Defragmentatie tijd 3x korter is ? Want dat is wat telt, de pure, netto winst (in secs) voor de gebruiker.
Het maakt niet uit of je I/O's per seconde, megabyte per seconde of gemiddelde responstijd als eenheid gebruikt om prestaties uit te drukken, zolang je hebt over exact dezelfde workload (zelfde I/O's op hetzelfde moment in dezelfde volgorde uitgevoerd) zijn de verhoudingen gelijk. In de serverwereld gebruikt men meestal iops als eenheid omdat die beter begrijpbaar maken wat een server aan parallelle handelingen kan verrichten.
Een raid-opstelling die dubbele prestaties levert als een andere raid-opstelling zal niet per definitie twee keer zo snel aanvoelen. Het verwerken van de data door de processor of andere onderdelen van het systeem kost immers ook tijd en zal in veel gevallen de bottleneck zijn voor de prestaties. Defragmentatie is typisch een taak waar de prestaties bijna volledig door de storage wordt bepaald.
Persoonlijk vind ik het nuttiger om een vergelijking van prestaties van een harde schijf of raid-controller te beperken tot dat deel waar de harde schijf of de raid-controller de bottleneck vormt. Dat maakt namelijk het makkelijkst duidelijk wel product het meeste waar voor je geld biedt. In bijvoorbeeld benchmarks van gamelevellaadtijden zie je vaak minimale tijdsverschillen omdat de harde schijf in deze benchmarks weinig invloed heeft op de laadtijden. Het gebruik van dit soort benchmarks voor harde schijven veroorzaakt onnodige verwarring.
Ik vind het nuttiger om pure hardeschijfperformance te benchen zodat zichtbaar is wat de prestatieverhoudingen zijn tussen producten. Vervolgens moet de lezer zelf maar bepalen of de performance van de harde schijf voor hem een bottleneck is. Dat merk je namelijk snel genoeg en als je het niet merkt heb je geen snellere harde schijf of een dure raid-opstelling nodig.
Zulke tests hebben we veel meer aan, neem een handjevol harddisk, maak een test-array, draai daar een maandje mee, gewoon wat een gebruiker ook zou doen, maak een image en ga met telkens diezelfde image eens lekker defragmenteren ofzo. Zelfde omstandigheden, alleen andere controller. Dan krijg je eens cijfers die er echt toe doen.
Het zou ook een goed idee zijn, om die RAID reviews eens op te splitsen; een hoofstuk voor de specialisten; file/web/database servers en een hoodstuk gericht voor de gebruiker, office, games etc.
Want dat zijn twee verschillende takken van sport.
Het is een stevige pijn in het achterste om een groot aantal raid-levels te moeten benchen en voor elke test een image te moeten restoren en een defragmentatie te moeten timen. De data die je vervolgens hebt verzameld is zeer beperkt, want het geeft enkel aan hoe snel de harde schijven of raid-controllers zijn in defragmenteren (het is dan overigens nog maar de vraag hoe representatief een terruggezet image is voor de fragmentatie op een normale harde schijf, voor zover ik weet zetten veel imagebakkers een image op bestandsniveau terug en zou er dus geen fragmentatie moeten zijn, alleen de volgorde van bestanden kan suboptimaal zijn).
Gelukkig heeft Intel eind jaren negentig een applicatie (Intel IPEAK Storage Performance Toolkit) ontwikkeld waarmee het mogelijk is om I/O activiteit op een Windows-systeem in een trace vast te leggen en later weer op een willekeurige andere fysieke schijf af te spelen. Daarmee is het mogelijk om harde schijven en raid-controllers te testen in realistische workloads die ook nog eens exact gelijk zijn. Een ander belangrijk voordeel van deze testmethode is dat je verschillende traces automatisch achter elkaar kunt benchen zodat er weinig bemoeienis nodig is van degene die de test uitvoert.
De meeste gerenommeerde reviewsites gebruiken inmiddels deze tool. De verschillen zitten hem in de traces, die hebben de sites zelf gemaakt. Ik heb er zelf voor gekozen om een zeer groot aantal traces te maken van uiteenlopende diskactiviteit om zodoende een eerlijk beeld te krijgen van de prestaties van een harde schijf of raid-controller. Zie de
Tweakers.net Benchmarks voor informatie.
In jouw behoefte voor opsplitsing van de testuitslagen voor verschillende gebruiksdoeleinden heb ik ook voorzien. Er zijn indices (gewogen en geïndexeerde gemiddelde van de testresultaten in de traces behorend bij een bepaald soort gebruik) voorzien voor desktop-, workstation-, graphics workstation-, audio/video workstation-, gaming-, algemene server-, databaseserver- en fileserverprestaties. In de reviews van raid-controllers wordt meestal alleen de data van de workstation-, fileserver- en databaserverindices gepresenteerd om de gebruiker te behouden voor een informatie overload.
2) Mezelf nog wat verdiept in I/O's kom ik dit tegen:
Zo "slim" is die Areca dan ook niet; prop er genoeg cache op en ondersteun "write-back"; dat alleen al zorgt voor het belangrijkste snelheids-verschil (I/Ops wise dan). Maar goed, daar moet je dan ook diep voor in de buidel grijpen. Wil niet zeggen dat er geen "slimme" truukjes gebruikt worden op die Areca, ze maken alleen niet het grote verschil.
Vooralsnog presteren de controllers van Areca in de eerder genoemde benchmarks van Tweakers.net beter dan vergelijkbare raid-controllers, dus kennelijk doet Areca iets beter dan de rest. Ook met een identiek type I/O processor en sata-controller is Areca bijna altijd sneller dan de concurrentie.
Ik moet overigens zeggen dat de prestaties van de HighPoint RocketRAID 3220 (Intel IOP333 vergelijkbaar met de eerste generatie Areca ARC-12xx-serie) mij postief verbaasd heeft. De RocketRAID 3220 is de eerste IOP-gebaseerde raid-controller van HighPoint en hij presteert meteen erg goed, duidelijk beter dan de LSI Logic MegaRAID SATA 300-8X (die nogal gehandicapped is door z'n trage processor op 250 ipv 500MH zoals bij de concurrentie) en de Promise SuperTrak EX8350 (zelfde IOP als de RR3220).
Verwijderd schreef op woensdag 18 juli 2007 @ 12:50:
Na wat ervaring zul je merken dat het misschien toch niet zo handig is om een partitie aan te maken voor elk soort bestand dat je hebt. Maar dat mapjes daarvoor veel flexibeler zijn. Meer dan twee partities (systeem + data) zou je in mijn ogen niet nodig hoeven hebben.
Op een Windows-systeem kan het handig zijn om de meuk uit de Documents and Settings-directory (onder andere temp) zoveel mogelijk naar een aparte partitie te verplaatsen zodat fragmentatie op de partitie met het besturingssysteem zoveel mogelijk voorkomen wordt. Het telkens schrijven en verwijderen van tempbestanden is een uitstekend recept om schijffragmentatie te kweken.
Ik zou verder ook gewoon de data op één partitie houden uit praktische overwegingen.
[
Voor 24% gewijzigd door
Femme op 18-07-2007 18:42
]