Ik ben bezig met setups met FreeBSD en haar iscsi implementaties.
Hiervoor gebruik ik uit de ports op 1 server 'istgt' als target en iscontrol voor initiator. Allebei op 9.2-RC4.
Als ik een setup met standaard opties maak ( grofweg zoals hier omschreven http://people.freebsd.org/~rse/iscsi/iscsi.txt , maar dan zonder authenticatie), dan krijg ik 'matige' performance op m'n initiator. Bij 600mbit aan bandbreedte blijft deze steken.
De test hiervoor gebruik is het aanmaken van een filesystem op de iscsi drive, deze mounten en dan mbv dd if=/dev/zero of=test.null bs=1024k count=4k . Er zijn wel betere testmethodes, maar deze groffe test moet op z'n minst het netwerk vol kunnen trekken.
Bij een 2de test heb ik op de target ook de initiator gezet om alle netwerk en hardware factoren buitenspel te zetten. Hier trek ik met dezelfde test de complete snelheid die mijn harde schijven kunnen hebben (Bijna 3gbit).
Deze test sluit uit dat de implementatie van iscsi onder freebsd brak is, dus blijven hardware/netwerk over. Testen die ik verder gedaan heb:
- iPerf: Deze trekt probleemloos de gbit verbinding vol
- MTU naar 9000: Dit geeft geen enkel verschil.
- Andere NIC op de initator. De ene is een 82571EB (dedicated dual port op PCI-e) en de andere een 82573E (onboard)
Waar kunnen er zich nog meer bottlenecks vormen?
Hiervoor gebruik ik uit de ports op 1 server 'istgt' als target en iscontrol voor initiator. Allebei op 9.2-RC4.
Als ik een setup met standaard opties maak ( grofweg zoals hier omschreven http://people.freebsd.org/~rse/iscsi/iscsi.txt , maar dan zonder authenticatie), dan krijg ik 'matige' performance op m'n initiator. Bij 600mbit aan bandbreedte blijft deze steken.
De test hiervoor gebruik is het aanmaken van een filesystem op de iscsi drive, deze mounten en dan mbv dd if=/dev/zero of=test.null bs=1024k count=4k . Er zijn wel betere testmethodes, maar deze groffe test moet op z'n minst het netwerk vol kunnen trekken.
Bij een 2de test heb ik op de target ook de initiator gezet om alle netwerk en hardware factoren buitenspel te zetten. Hier trek ik met dezelfde test de complete snelheid die mijn harde schijven kunnen hebben (Bijna 3gbit).
Deze test sluit uit dat de implementatie van iscsi onder freebsd brak is, dus blijven hardware/netwerk over. Testen die ik verder gedaan heb:
- iPerf: Deze trekt probleemloos de gbit verbinding vol
- MTU naar 9000: Dit geeft geen enkel verschil.
- Andere NIC op de initator. De ene is een 82571EB (dedicated dual port op PCI-e) en de andere een 82573E (onboard)
Waar kunnen er zich nog meer bottlenecks vormen?
Solar @ Dongen: http://solar.searchy.net/ - Penpal International: http://ppi.searchy.net/