Asus Prime x399-A, AMD Threadripper 1950X, MSI 1080 TI
PS: Het is trouwens 40Gb/s
[ Voor 12% gewijzigd door Tha Render_2 op 05-03-2020 15:33 ]
Wat doet iPerf?
QnJhaGlld2FoaWV3YQ==
en de client?Sideburnn schreef op donderdag 5 maart 2020 @ 15:26:
De server heeft een raid 10 en leest en schrijft rond de 1200 GB/s weg.
You definitely rate about a 9.0 on my weird-shit-o-meter
Chuck Norris doesn't dial the wrong number. You answer the wrong phone.
- iPerf blijft 0,1 seconde open
- Costumer service heb je alleen als je volgens de juiste kanalen je spul hebt aangeschaft.
En deze kaartjes zijn al wat ouder
- Client heeft een Samsung 970 aan boord.
En wil moet direct vanuit mijn archief kunnen monteren wat met de 40 Gb/s moet kunnen.
Asus Prime x399-A, AMD Threadripper 1950X, MSI 1080 TI
Please leave a message after the beep.
*beeeeep*
Asus Prime x399-A, AMD Threadripper 1950X, MSI 1080 TI
Wauw!Sideburnn schreef op donderdag 5 maart 2020 @ 15:26:
De server heeft een raid 10 en leest en schrijft rond de 1200 GB/s weg.
Eerst het probleem, dan de oplossing
write speed van 1200 GB/s, hmmm ..... wat voor beest van een setup heb je? 1 PCI-e 4.0 lane doet ongeveer 2GB/s, dus je hebt 600 PCI-e 4.0 lanes nodig om die 1200GB/s te halen. AMD's epyc heeft 128 lanes per CPU, dus je zou een systeem met minstens 5 sockets nodig hebben. Volgens mij bestaat niet.Sideburnn schreef op donderdag 5 maart 2020 @ 15:26:
Ik loop al een tijd te stoeien met een Mellanox netwerkje.
Het is een setje cx324A kaartjes met bijbehorende gekwalificeerde kabels.
Ik draait op windows server 2019 en windows 10.
Firmware zijn hetzelfde van de kaartjes en de driver idem.
Windows ziet de kaartjes ook netjes als 40 GB/s kaartjes maar tijdens de communicatie van de 2 machines kom ik niet boven de 10 GB/s
De server heeft een raid 10 en leest en schrijft rond de 1200 GB/s weg.
Wat zie ik over het hoofd?
1200 Gb/s zou kunnen, maar als je een dergelijk setup hebt laat je neem ik aan gewoon je leverancier komen bij problemen.
Dus ik neem aan dat je 1200 MB/s bedoeld. Absoluut maximale theoretische snelheid van 10Gbit is 1250MB/s. Zou het dus kunnen dat je gewoon aanloopt tegen de maximum snelheid van je storage?
Hoe bepaal je dat je gelimiteerd bent tot 10Gbit? Meet je puur netwerk snelheid of inclusief storage?
edit:
Ik zie net:
Dan gebruik je de verkeerde iPerf settings. Voor een betrouwbare meting moet je veel langer meten dan 0,1 seconde.Sideburnn schreef op donderdag 5 maart 2020 @ 16:19:
- iPerf blijft 0,1 seconde open
[ Voor 9% gewijzigd door XiMMiX op 05-03-2020 17:21 ]
Eventuele iPerf3 opties, wel even zorgen dat je exact dezelfde versie op beide hebt staan!
# Server
iperf3 --server
# Client
iperf3 --client [IP.of.Server] --bandwidth 40G --udp --port 5201 --parallel 4 --time 30
As you may already have guessed, following the instructions may break your system and you are on your own to fix it again.
Ik test met Blackmagic speedtest en heb op mijn editbak zelf een write van 1970 en een read van 3000 MB/s
Via de Mellanox kaarten kom ik op de 500 a 600 MB/s.
Als ik dan bij taakbeheer kijk kom ik op een ethernet toevoer van 500 a 600 met rechtboven in 10 Gbps doorvoer...en denk dat deze hoger zou moeten zijn namelijk 40 Gbps
Asus Prime x399-A, AMD Threadripper 1950X, MSI 1080 TI
Even tussendoor, wat bedoel je hier precies mee? W19 en 10gbps problemen?Sideburnn schreef op donderdag 5 maart 2020 @ 16:53:
dat kun je uitzetten...is gedaan
AMD Ryzen 7 5900x | Custom WC | ASUS ROG Strix X570-E Gaming | 32GB Corsair DDR4-3600MHz | Samsung 970 nvme 1TB | Samsung 860 EVO 2TB | AMD RX 6900XT 16GB | 1x Asus RoG XG27AQDMG | 1x LG UltraGear 27GL850
Ook een 40gb kaart, alleen met een actieve kabel (dus glasvezel)
Mijn bottlenek is nu dat ik niet meer data naar de server kan stuuren.
Heb je je kaart getuned met de tuning tool van mellanox ?
Heb je hem in eth of in infiniband modus staan ?
Staan je PCIE lanes goed afgesteld in de bios ?
Gebruik je RDMA of niet( zonder kan CPU bottlenek zijn)
heb je voldoende pcie lanes op je slot van de kaart ?
Ben niet slim, maar wel dom