Ik heb sinds kort een rocketraid 2320 controller met daaraan aangesloten 6 Seagate Barracudas 7200.10 320GB SATA disks.
Met het benchen met HD Tach krijg ik vreemde resultaten. Het is een 4 speed pci-e kaart, dus deze heb ik in mijn 4 speed pci-e slot geplaatst.
De rest van mijn specs:
ASUS a8n-e moederbord
3 gb geheugen
athlon x2 3800+
oud pci videokaartje (het is toch maar een server)
Nog wat overige hardware (oude pci scsi controller, pci NIC en pci-e 1 speed nic)
Ik heb eerst alle schijven allemaal apart getest, en krijg daar allemaal goede resultaten mee (80mb/s aflopend naar 40mb aan het eind van de test)
Eerst heb ik een raid0 stripe gemaakt met 2 disks, deze gaf als resultaat 160mb/s aan het begin en 80 mb/s aan het eind. Kwam dus redelijk overheen met de single disk performance. Echter wanneer ik meer disks aan de stripe set toevoeg (of de stripeset helemaal opnieuw aanmaak) blijft de maximum snelheid 160mb/s alleen steeds meer over de hele array (geen afloop meer dus)
Dit kan niet goed zijn dacht ik. ik zag dat de kaart zijn irq deelde met de videokaart, dit geeft normaal geen problemen, maar toch voor de zekerheid alle overige hardware ontkoppeld, echter gaf dit hetzelfde resultaat.
Vervolgens heb ik als test de kaart in het enige 16 speed pci-e slot geplaatst (wat normaal niet zou werken op kaarten anders dan een videokaart) en dit werkte gewoon
De resultaten zijn wel een stuk beter (schommelen tussen de 200 en 300mb/s in) maar ook nu weer een bijna rechte lijn en de average reads zijn 250mb/s, dus ik vermoed dat het slot is teruggeschakeld naar 1 speed pci-e.
Heeft iemand enig idee waarom ik waardeloze resultaten krijg op de 4 speed interface en betere op de 16 speed maar deze schakeld blijkbaar wel terug naar 1 speed?
Ik heb ook al contact met de leverancier, maar in deze dagen kan het wel even duren voordat ik antwoord terugkrijg gok ik zo
en wellicht is er een tweaker met dezelfde kaart die soortgelijke dingen heeft gezien.
Met het benchen met HD Tach krijg ik vreemde resultaten. Het is een 4 speed pci-e kaart, dus deze heb ik in mijn 4 speed pci-e slot geplaatst.
De rest van mijn specs:
ASUS a8n-e moederbord
3 gb geheugen
athlon x2 3800+
oud pci videokaartje (het is toch maar een server)
Nog wat overige hardware (oude pci scsi controller, pci NIC en pci-e 1 speed nic)
Ik heb eerst alle schijven allemaal apart getest, en krijg daar allemaal goede resultaten mee (80mb/s aflopend naar 40mb aan het eind van de test)
Eerst heb ik een raid0 stripe gemaakt met 2 disks, deze gaf als resultaat 160mb/s aan het begin en 80 mb/s aan het eind. Kwam dus redelijk overheen met de single disk performance. Echter wanneer ik meer disks aan de stripe set toevoeg (of de stripeset helemaal opnieuw aanmaak) blijft de maximum snelheid 160mb/s alleen steeds meer over de hele array (geen afloop meer dus)
Dit kan niet goed zijn dacht ik. ik zag dat de kaart zijn irq deelde met de videokaart, dit geeft normaal geen problemen, maar toch voor de zekerheid alle overige hardware ontkoppeld, echter gaf dit hetzelfde resultaat.
Vervolgens heb ik als test de kaart in het enige 16 speed pci-e slot geplaatst (wat normaal niet zou werken op kaarten anders dan een videokaart) en dit werkte gewoon
De resultaten zijn wel een stuk beter (schommelen tussen de 200 en 300mb/s in) maar ook nu weer een bijna rechte lijn en de average reads zijn 250mb/s, dus ik vermoed dat het slot is teruggeschakeld naar 1 speed pci-e.
Heeft iemand enig idee waarom ik waardeloze resultaten krijg op de 4 speed interface en betere op de 16 speed maar deze schakeld blijkbaar wel terug naar 1 speed?
Ik heb ook al contact met de leverancier, maar in deze dagen kan het wel even duren voordat ik antwoord terugkrijg gok ik zo