Ik weet het nu echt niet meer. Ik heb de volgende configuratie:
http://www.tweakers.net/gallery/sys/1484
Echter presteerd de 3Ware kaart maar matig. 4 Schrijven zitten in 1 Raid 5 array. De nieuwste firmware versie, Kernel 2.4.25-gentoo-sources-r2 (daar zit de nieuwste 3ware driver in). Alle hdds zitten op een ATA133 round-afgeschermde kabel met aarde.
Nu leek mij dit alles bij elkaar een aardige garantie voor een goede HD performance (zeker met mijn Maxline Plus II)
Echter krijg ik met iozone de volgende meting:
Ook volgend hdparm is mijn raid niet echt snel:
Terwijl als ik de schrijven individueel test kom ik op minimaal 65 MB/s uit.
Eerdere configuraties die even goed werkte:
* HPT374 (HighPoint RocketRaid 454) had vergelijkende prestaties. De HPT gebruikt ik puur alleen als IDE controller en liet linux de softwareraid afhandelen (de HPT is namelijk een software driver raid kaart.) Ik had de 3ware gekocht omdat deze hardwarematige raid heeft, linux goed ondersteund en ik dacht dat de raid teveel eiste van de processor en dat de bottleneck was. Dit was btw met 3 schrijven ipv 4
* Nog eerder heb ik geprobeert om de standaard VIA IDE controller te gebruiken op het moederbord. met software raid. Met 2 schrijven op 1 poort en 1 schijf op 1 poort
Ook dit was met 3 schijven.
Het enige wat ik me nog kan bedenken wat de bottle neck kan zijn is de 32Bits/33Mhz bus van mijn Epia CL 10000. Deze zou dan volgens mij ook onder de norm presteren. Ik heb nu de laatste bios update erop staan. Maar dingen zoals PCI latency kan ik nergens instellen
Zou het dan toch mijn moederbord zijn? Wie heeft er verder nog ideen?
http://www.tweakers.net/gallery/sys/1484
Echter presteerd de 3Ware kaart maar matig. 4 Schrijven zitten in 1 Raid 5 array. De nieuwste firmware versie, Kernel 2.4.25-gentoo-sources-r2 (daar zit de nieuwste 3ware driver in). Alle hdds zitten op een ATA133 round-afgeschermde kabel met aarde.
Nu leek mij dit alles bij elkaar een aardige garantie voor een goede HD performance (zeker met mijn Maxline Plus II)
Echter krijg ik met iozone de volgende meting:
code:
1
2
3
4
5
6
7
8
9
10
11
12
| File size set to 4096 KB
Command line used: iozone -s 4096
Output is in Kbytes/sec
Time Resolution = 0.000001 seconds.
Processor cache size set to 1024 Kbytes.
Processor cache line size set to 32 bytes.
File stride size set to 17 * record size.
random random bkwd record stride
KB reclen write rewrite read reread read write read rewrite read fwrite frewrite fread freread
4096 4 111162 159457 179483 182653 174283 156139 176468 502518 173192 100532 135683 174766 137666
iozone test complete. |
Ook volgend hdparm is mijn raid niet echt snel:
code:
1
2
3
| /dev/sda: Timing buffer-cache reads: 572 MB in 2.00 seconds = 286.00 MB/sec Timing buffered disk reads: 160 MB in 3.00 seconds = 53.33 MB/sec |
Terwijl als ik de schrijven individueel test kom ik op minimaal 65 MB/s uit.
Eerdere configuraties die even goed werkte:
* HPT374 (HighPoint RocketRaid 454) had vergelijkende prestaties. De HPT gebruikt ik puur alleen als IDE controller en liet linux de softwareraid afhandelen (de HPT is namelijk een software driver raid kaart.) Ik had de 3ware gekocht omdat deze hardwarematige raid heeft, linux goed ondersteund en ik dacht dat de raid teveel eiste van de processor en dat de bottleneck was. Dit was btw met 3 schrijven ipv 4
* Nog eerder heb ik geprobeert om de standaard VIA IDE controller te gebruiken op het moederbord. met software raid. Met 2 schrijven op 1 poort en 1 schijf op 1 poort
Ook dit was met 3 schijven.
Het enige wat ik me nog kan bedenken wat de bottle neck kan zijn is de 32Bits/33Mhz bus van mijn Epia CL 10000. Deze zou dan volgens mij ook onder de norm presteren. Ik heb nu de laatste bios update erop staan. Maar dingen zoals PCI latency kan ik nergens instellen
Zou het dan toch mijn moederbord zijn? Wie heeft er verder nog ideen?