Toon posts:

Netwerk > 1 gbit/s ervaringen topic

Pagina: 1
Acties:

Acties:
  • 0Henk 'm!

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 10:51
Omdat er in de Storage topics steeds meer wordt gepraat over netwerken boven de 1gbit/s wil ik hier een eigen topic voor maken.
Om het overzichtelijk te maken en ervaringen uit te delen.

Waarvoor heb je thuis een verbinding nodig boven de 1gbit/s?

Nodig is een groot woord maar het kan zeer handig zijn tussen 2 servers of een werkstation en een server.
Er zijn genoeg voorbeelden te vinden hier op GOT die een gbit lijn vol trekken.
Zelf zou ik een snelle verbinding willen hebben tussen me werkstation en NAS.

Welke verbindingen zijn er mogelijk:
- 10G Ethernet
- Fibre channel
- Infiniband
- Thunderbolt 10 Gigabit/s

Voor en nadelen:

10G Ethernet is flexibel omdat je makkelijk de rest van je netwerk kan aankoppelen, nadelen zijn de prijs van alle hardware die je nodig hebt ( netwerk kaarten, switch )

Fibre channel ?

Infiniband is wat onbekend bij mij maar heb al aardig wat ingelezen. Er is een snelle verbinding mee te maken met een lage latency. Het moet goedkoop mogelijk zijn een setje van 2 kaarten + kabels te kopen. Het is nadeel is wel dat de kabel niet al te lang kan zijn en je het niet kan koppelen aan een rj45 switch.

Thunderbolt is opkomend en is al op de nieuwe Apple's. Nadeel is dat er maximaal een kabel aan kan van 3meter.

Links
Thunderbolt : http://louwrentius.com/bl...ed-storage-interconnect-/

Infiniband : http://davidhunt.ie/wp/?p=232 http://www.linuxjournal.com/article/8009

Zijn er mensen die willen meehelpen met de OP en vooral de opmaak?

Acties:
  • 0Henk 'm!

  • aval0ne
  • Registratie: Maart 2004
  • Laatst online: 22-05 17:56
Andere optie: link aggregation/ network teaming

Acties:
  • 0Henk 'm!

  • SanderH_
  • Registratie: Juni 2010
  • Laatst online: 01-06 20:45
Misschien een kleine aanpassing:
Thunderbolt is opkomend en gaat op de nieuwe Apple's komen.
Die interface is al aanwezig op de laatste nieuwe iMac's, en blijkbaar ook op de Macbook Pro's.

[Voor 17% gewijzigd door SanderH_ op 17-05-2011 11:17]


Acties:
  • 0Henk 'm!

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10
Zodra de kaartjes binnen zijn, zal ik hier mijn bevindingen posten.

Acties:
  • 0Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

aval0ne schreef op dinsdag 17 mei 2011 @ 11:08:
Andere optie: link aggregation/ network teaming
Dat is lastig goed te krijgen met maar 2 hosts.

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0Henk 'm!

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 10:51
ruitech schreef op dinsdag 17 mei 2011 @ 12:02:
Zodra de kaartjes binnen zijn, zal ik hier mijn bevindingen posten.
Mooie bestelling heb je gedaan zie ik in een ander topic _/-\o_ .
Waar komen ze in? OS?

Acties:
  • 0Henk 'm!

  • TrailBlazer
  • Registratie: Oktober 2000
  • Nu online

TrailBlazer

Karnemelk FTW

Fibrechannel is een methode om SAN netwerken mee te maken. Heel simpel gezegd het is een protocol om een soort SCSI LAN te maken. Alle hardware is flink aan de prijs en eigenlijk niet te betalen voor consumenten. Snelheden voor clients zijn 2 4 of 8 gbit dus je kan wel een stuk hogere performance halen. Laatst een offerte voor een heel klein Fibre channel storage doosje opgevraagd en dat was ongeveer 1000 euro per TB

Acties:
  • 0Henk 'm!

  • analog_
  • Registratie: Januari 2004
  • Niet online
2Gbit/4Gbit FC is tweedehands te betalen. Haal enkele kaartjes en zet wat p2p links op. Anders kan je ook wel 4gbit switchen/fabrics(?) kopen.

Acties:
  • 0Henk 'm!

  • TrailBlazer
  • Registratie: Oktober 2000
  • Nu online

TrailBlazer

Karnemelk FTW

Ik zat net even te kijken en 2 gbit is wel te doen inderdaad. Switches nog niet naar gekeken alleen.
Je maakt een fabric met fibrechannel switches BTW. Het nadeel van fibrechannel is dat het allemaal block based storage is. Dus geen NFS/CIFS

Acties:
  • 0Henk 'm!

  • Anoniem: 16225
  • Registratie: November 2000
  • Niet online
Infiniband lijkt me wel wat, van wat ik in een ander topic heb gelezen, schijnt ook al aardig betaalbaar te zijn. Het lijkt me vooral wat tussen mijn server en mijn main PC waarmee ik videobewerkingen uitvoer, het voordeel is dat dat ik dat direct op de server kan doen i.p.v. eerst alle files naar mijn pc te kopieren (via 1G verbinding) dan de video's te bewerken en dan weer terug naar mijn server te kopieren, dmv een snelle low latency verbinding bespaar je een hoop "gedoe". Ik heb ook zitten denken aan het teamen van meerdere trunks maar als ik dat allemaal zo lees is dat nogal lastig, of denkt iemand dat dat helemaal niet zo moeilijk is als ik mijn server en PC beide met een dualnic Intel kaartje uitrust?

Acties:
  • 0Henk 'm!

  • TrailBlazer
  • Registratie: Oktober 2000
  • Nu online

TrailBlazer

Karnemelk FTW

Teaming is eigenlijk alleen leuk als je meer dan een sessie hebt tussen je PC en de fileserver. Een kopieer actie is gelijk aan 1 TCP stream en een TCP stream zal nooit over 2 links heen gaan.

Acties:
  • 0Henk 'm!

  • Anoniem: 16225
  • Registratie: November 2000
  • Niet online
TrailBlazer schreef op dinsdag 17 mei 2011 @ 14:51:
Teaming is eigenlijk alleen leuk als je meer dan een sessie hebt tussen je PC en de fileserver. Een kopieer actie is gelijk aan 1 TCP stream en een TCP stream zal nooit over 2 links heen gaan.
Ok thanks voor de toelichting, dat heeft dus geen nut.

Acties:
  • 0Henk 'm!

  • KDVken
  • Registratie: Januari 2009
  • Laatst online: 03-06 22:57
Infiniband is voor mij geen optie. Ik ga binnenkort eens testen met 10Gbase-cx4 verbinding.
De module voor in mijn dell switch is besteld. Nu nog eens zoeken naar een deftige, betaalbare pci-e insteekkaart.

Acties:
  • 0Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 03-06 16:42

Q

Au Contraire Mon Capitan!

TrailBlazer schreef op dinsdag 17 mei 2011 @ 14:51:
Teaming is eigenlijk alleen leuk als je meer dan een sessie hebt tussen je PC en de fileserver. Een kopieer actie is gelijk aan 1 TCP stream en een TCP stream zal nooit over 2 links heen gaan.
Dat kan wel, ik haal 170+ MB/s via een enkele NFS copy. Via Round robin ethernet bonding onder Linux.

Acties:
  • 0Henk 'm!

  • TrailBlazer
  • Registratie: Oktober 2000
  • Nu online

TrailBlazer

Karnemelk FTW

hmm apart. Het wordt op high end apparatuur in ieder geval nooit gedaan omdat je kans hebt of out of sequence pakketten aan de andere kant. Heb je nog een speciale config op je switch of heeft die geen idee van je config.

Acties:
  • 0Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 03-06 16:42

Q

Au Contraire Mon Capitan!

Het werkt momenteel alleen onder hele vage omstandigheden en alleen in een richting.

Mijn grote storage NAS staat in dynamic trunc mode bonding via een switch die dit support. De andere kleine server doet gewoon round robin bonding onder linux.

Van kleine server naar grote server gaat 160+ mb/s. Maar andersom niet.

Kleine server:

alias bond0 bonding
options bonding mode=0

Grote server:

alias bond0 bonding
options bonding mode=4 lacp_rate=0 xmit_hash_policy=layer3+4

Ruwe snelheid gemeten met iPerf is 200+ Megabytes per seconde. In de praktijk haal ik dus ongeveer 170/180 over NFS.

[Voor 10% gewijzigd door Q op 17-05-2011 19:16]


Acties:
  • 0Henk 'm!

  • TrailBlazer
  • Registratie: Oktober 2000
  • Nu online

TrailBlazer

Karnemelk FTW

Ben wel benieuwd hoe een packet capture van zo'n transfer eruit ziet. Kan je die een keer maken met iets als tcpdump

Acties:
  • 0Henk 'm!

  • Q
  • Registratie: November 1999
  • Laatst online: 03-06 16:42

Q

Au Contraire Mon Capitan!

Linux mode=0 round robin bonding is geen gebruikelijke toepassing.

In de praktijk moet je als systeem heel veel clients bedienen en gebruik je 802.1ad dynamic trunking. Per interface haal je dan niet meer dan 1GB/s maar totaal over alle clients haal je wel 2 GB/s en dat zie ik ook in tests.

Tussen twee linux hosts kun je dus van round robin gebruik maken, waarbij net als met RAID 0 de pakketten over de interfaces worden gestriped.

Pakket 1 gaat over interface eth0, pakket 2 gaat over interface eth1, pakket 3 gaat over eth0, pakket 4 gaat over eth1, enzovoorts.

Onder linux stop je eth0 en eth1 in de virtuele interface bond0. Je werkt dus met de geaggregeerde en virtuele interface bond0.

Er wordt wel een trucje uitgehaald, want beide 'echte' netwerk kaarten hebben het zelfde MAC address. Zo wordt dus de bron van ieder pakketje gespoofed en bepaalt de Bonding driver via welke interface het pakketje wordt verstuurd.

Netwerk apparatuur merkt hier niets van.

code:
1
2
3
4
5
6
7
8
9
10
  bwm-ng v0.6 (probing every 0.500s), press 'h' for help
  input: /proc/net/dev type: rate
  -         iface                   Rx                   Tx                Total
  ==============================================================================
               lo:           0.00 KB/s            0.00 KB/s            0.00 KB/s
             eth0:       54561.14 KB/s         5236.52 KB/s        59797.66 KB/s
             eth1:      113335.68 KB/s         5231.57 KB/s       118567.24 KB/s
            bond0:      167896.81 KB/s        10468.09 KB/s       178364.90 KB/s
  ------------------------------------------------------------------------------
            total:      335793.63 KB/s        20936.18 KB/s       356729.81 KB/s


Helemaal super werkt het niet maar het gaat al sneller dan 1 gigabit lijn.

[Voor 46% gewijzigd door Q op 17-05-2011 22:50]


  • TrailBlazer
  • Registratie: Oktober 2000
  • Nu online

TrailBlazer

Karnemelk FTW

Hoe zie je arp entries er dan uit? Heb je voor een ip adres dan ook twee mac entries?

  • webfreakz.nl
  • Registratie: November 2003
  • Laatst online: 28-08-2022

webfreakz.nl

el-nul-zet-é-er

"You smell that, son? What sir? Napalm, I love the smell of napalm in the mornin!" || Children of Bodom fan!


  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 10:51
Q schreef op dinsdag 17 mei 2011 @ 22:41:
Linux mode=0 round robin bonding is geen gebruikelijke toepassing.

In de praktijk moet je als systeem heel veel clients bedienen en gebruik je 802.1ad dynamic trunking. Per interface haal je dan niet meer dan 1GB/s maar totaal over alle clients haal je wel 2 GB/s en dat zie ik ook in tests.

Tussen twee linux hosts kun je dus van round robin gebruik maken, waarbij net als met RAID 0 de pakketten over de interfaces worden gestriped.
Ik heb in een VM met Debian 2 ethernet adapters geconfigureerd met round robin.
Een client kan netjes connecten maar echt snelheid meten kan ik niet met een VM.

Hoe sluit je dit aan op een switch / client? Kun je gewoon beide netwerk kabels in een switch gooien? Is het mogelijk in me client ook 2 nic's te plaatsen en die recht streeks aan de NAS?

Als je hiermee een leuke snelheid kan halen is dat ook een goedkope oplossing. Heb voornamelijk 1 client en dat is een Ubuntu desktop.

Edit: Heb je blog eens rustig gelezen en het is dus mogelijk p2p naar me client met 2 kabels of anders een switch met trunk support. Ga eens kijken of ik het op me Ubuntu desktop ook aan de praat krijg. Dan ga ik eens 2 nic's bestellen en ze p2p aansluiten.

[Voor 11% gewijzigd door DJ-Promo op 19-05-2011 15:10]


Acties:
  • 0Henk 'm!

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10
Als het mee zit: Woensdag alles in huis:
-Nieuwe NAS onderdelen (ITX & 6x2TB :-))
-Infiniband kabels uit Hongkong
-2x Infiniband pci-e adapters uit USA
Zeer nieuwschierig wat dat gaat doen qua snelheden.

Zijn er accurate tests beschikbaar? Zat zelf te denken aan de Intel NAS test, maar die is volgens mij ook redelijk outdated?

Acties:
  • 0Henk 'm!

  • Anoniem: 187449
  • Registratie: Augustus 2006
  • Niet online
..
Zeer nieuwschierig wat dat gaat doen qua snelheden.
idd 8)

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 10:51
Als je NFS gaat gebruiken een dd testje ?

Acties:
  • 0Henk 'm!

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10
De eerste spullen zijn binnen!
infiniband 10m kabel


17 mei besteld, 25 mei in huis (van Hongkong naar Utrecht)

[Voor 4% gewijzigd door ruitech op 24-05-2011 09:56]


Acties:
  • 0Henk 'm!

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 03-06 21:44

DJ-Visto

Aye aye, sir!

Nice.. Nu nog de kaarten :p

Acties:
  • 0Henk 'm!

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10
Liggen op dit moment bij de douane. Verwachting is eind deze week binnen :-) (komt goed uit, want de spullen voor mijn nieuwe DIY NAS zijn ook binnen, kaartje der in & gaan met die banaan.

Acties:
  • 0Henk 'm!

  • KDVken
  • Registratie: Januari 2009
  • Laatst online: 03-06 22:57
Zou je eens kunnen vermelden waar je die kabel juist hebt gekocht?

Ik ben nog op zoek naar een CX4/infiniband kabel voor mijn netwerk.
Dacht er 1 bij mijn dell module te krijgen, maar dat gaat dus niet door :(

never mind, kabel besteld.

[Voor 6% gewijzigd door KDVken op 24-05-2011 19:09]


Acties:
  • 0Henk 'm!

  • Hennie-M
  • Registratie: December 2000
  • Laatst online: 08:51
Anoniem: 16225 schreef op dinsdag 17 mei 2011 @ 14:39:
Infiniband lijkt me wel wat, van wat ik in een ander topic heb gelezen, schijnt ook al aardig betaalbaar te zijn. Het lijkt me vooral wat tussen mijn server en mijn main PC waarmee ik videobewerkingen uitvoer, het voordeel is dat dat ik dat direct op de server kan doen i.p.v. eerst alle files naar mijn pc te kopieren (via 1G verbinding) dan de video's te bewerken en dan weer terug naar mijn server te kopieren, dmv een snelle low latency verbinding bespaar je een hoop "gedoe". Ik heb ook zitten denken aan het teamen van meerdere trunks maar als ik dat allemaal zo lees is dat nogal lastig, of denkt iemand dat dat helemaal niet zo moeilijk is als ik mijn server en PC beide met een dualnic Intel kaartje uitrust?
Is het dan niet makkelijker/goedkoper om vanaf je kantoor met remote desktop naar je ultra snelle renderbak te werken? Dan heb je aan gigabit meer dan genoeg.

Acties:
  • 0Henk 'm!

  • Anoniem: 187449
  • Registratie: Augustus 2006
  • Niet online
ruitech schreef op dinsdag 24 mei 2011 @ 09:56:
De eerste spullen zijn binnen!
infiniband 10m kabel
[afbeelding]

17 mei besteld, 25 mei in huis (van Hongkong naar Utrecht)
hou het spannend :9

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10
YES! dat doen we :o
Heb in iedergeval twee snelle bakjes klaar staan welke beide +- 500mb/s read/write zouden moeten kunnen doen. Kijken of ze dat ook van en naar elkaar kunnen kopiëren.

Acties:
  • 0Henk 'm!

  • Anoniem: 187449
  • Registratie: Augustus 2006
  • Niet online
.. nog steeds geen witte rook :)

Acties:
  • 0Henk 'm!

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10
Alle spullen zijn keurig binnen gekomen en heb de eerste tests kunnen uitvoeren;
Test situatie:
Systeem 1:
Intel i7, 920
Vertex 2 60GB in raid 0 als OS disk
6GB tripplechannel
Infiniband adapter in pci-e 16x slot @ 8x

Systeem 2:
Intel i3, 2100T
OCZ Agility 3, sata 600 SSD (120GB)
4x 2TB op onboard controller (raid 5)
Infiniband adapter in pci-e 16x slot @ 8x

Ik helaas geen screenshots gemaakt van de transfers maar het volgende:
van de ene pc naar de andere (windows file transfer) +- 250MB/s

Waar ik tegen aan liep is dat het niet een kwestie is van: kaartjes in je pc's steken en gaan met die banaan. Je moet een subnet manager draaien om de kaarten uit te leggen dat ze verbinding hebben met elkaar. Daarnaast is het ook nodig de juiste drivers te gebruiken. De standaard drivers van Mellanox boden mij geen easy install. Ik heb uit eindelijk de drivers bij openfabrics.org gedownload.

Zal proberen dit weekend nog een paar screenshotjes te maken met uitleg.
Ik heb zelf alleen windows ervaringen, mijn poging freenas te installeren en de infiniband kaart actief te krijgen zijn tot op heden mislukt. Mocht iemand nog een leuke windows test hebben hoor ik het natuurlijk graag :-)

Acties:
  • 0Henk 'm!

  • The Eagle
  • Registratie: Januari 2002
  • Laatst online: 12:08

The Eagle

I wear my sunglasses at night

Leuke windows test is vrij simpel op te zetten: FTP servertje draaien en een 1000mb.bin bestand van de ene naar de andere lepelen.

Al is het nieuws nog zo slecht, het wordt leuker als je het op zijn Brabants zegt :)


Acties:
  • 0Henk 'm!

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10
Zal ik ook even doen. Thanks voor de tip

Acties:
  • 0Henk 'm!

  • Anoniem: 187449
  • Registratie: Augustus 2006
  • Niet online
ruitech schreef op maandag 06 juni 2011 @ 12:26:
Alle spullen zijn keurig binnen gekomen en heb de eerste tests kunnen uitvoeren;
Test situatie:
Systeem 1:
Intel i7, 920
Vertex 2 60GB in raid 0 als OS disk
6GB tripplechannel
Infiniband adapter in pci-e 16x slot @ 8x

Systeem 2:
Intel i3, 2100T
OCZ Agility 3, sata 600 SSD (120GB)
4x 2TB op onboard controller (raid 5)
Infiniband adapter in pci-e 16x slot @ 8x

Ik helaas geen screenshots gemaakt van de transfers maar het volgende:
van de ene pc naar de andere (windows file transfer) +- 250MB/s

Waar ik tegen aan liep is dat het niet een kwestie is van: kaartjes in je pc's steken en gaan met die banaan. Je moet een subnet manager draaien om de kaarten uit te leggen dat ze verbinding hebben met elkaar. Daarnaast is het ook nodig de juiste drivers te gebruiken. De standaard drivers van Mellanox boden mij geen easy install. Ik heb uit eindelijk de drivers bij openfabrics.org gedownload.

Zal proberen dit weekend nog een paar screenshotjes te maken met uitleg.
Ik heb zelf alleen windows ervaringen, mijn poging freenas te installeren en de infiniband kaart actief te krijgen zijn tot op heden mislukt. Mocht iemand nog een leuke windows test hebben hoor ik het natuurlijk graag :-)
is al een hele behoorlijke snelheid .. maar dat kan sneller .. toch ? 8)

Acties:
  • 0Henk 'm!

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10
yep. Net al even een 2e systeem terug in elkaar gezet. Heb iets gelezen dat een firmware update ook wil helpen om de snelheid omhoog te krikken. Mogelijk is ook de kabel (10m) de oorzaak en zou een kortere helpen.
Kortom, voldoende om te testen.

Eerste indruk: VET! heerlijk snel. zeer lage vertraging :-) beter dan porttrunking/bonding (in mijn eigen ervaring)

Acties:
  • 0Henk 'm!

  • Anoniem: 187449
  • Registratie: Augustus 2006
  • Niet online
ruitech schreef op maandag 06 juni 2011 @ 23:26:
yep. Net al even een 2e systeem terug in elkaar gezet. Heb iets gelezen dat een firmware update ook wil helpen om de snelheid omhoog te krikken. Mogelijk is ook de kabel (10m) de oorzaak en zou een kortere helpen.
Kortom, voldoende om te testen.

Eerste indruk: VET! heerlijk snel. zeer lage vertraging :-) beter dan porttrunking/bonding (in mijn eigen ervaring)
en ineens wordt een 'gewone' disk de bottleneck :)

  • laurensxeon
  • Registratie: September 2004
  • Laatst online: 02-06 18:12
ik werd ook in eens wel erg nieuwschierig naar infiniband dus heb ook 2 Mellanox MHEA28 kaartjes besteld en een 10m kabel. met 10m kan je dan misschien wel niet volle 700mb/sec mee pakken maar met +200mb/sec moet het toch al wel aardig snel gaan om data over te lepelen. tot nu liep ik altijd met een ext drive heen en weer te zeulen.
het is reletief goed koop dus ik ben benieuwd.

linkje van borroz legt ook wel het een en ander uit

klik

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 24-05 20:44
ruitech schreef op maandag 06 juni 2011 @ 23:26:
yep. Net al even een 2e systeem terug in elkaar gezet. Heb iets gelezen dat een firmware update ook wil helpen om de snelheid omhoog te krikken. Mogelijk is ook de kabel (10m) de oorzaak en zou een kortere helpen.
Kortom, voldoende om te testen.

Eerste indruk: VET! heerlijk snel. zeer lage vertraging :-) beter dan porttrunking/bonding (in mijn eigen ervaring)
Van welk systeem naar welk systeem heb je data heen en weer gepompt? Het kan zijn dat de software raid-5 sneller is met lezen dan schrijven, dus misschien dat je het beste van de i3 naar de i7 kan kopieren.

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10
Dit weekend weer een uitgebreid aantal tests gedaan maar vermoed dat ik nog een firmware upgrade op de kaarten moet uitvoeren (of een andere kabel proberen).
Haal nu 255mb/s via een windows file transfer (ook via ftp).
Bottleneck is dan niet meer de disk. Ik heb namelijk op beide pc's een ramdrive aangemaakt welke +- 2500-3500mb/s kan doen :-)
(dit uiteraard puur voor de test).

Donderdag ga ik weer verder stoeien.

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10
brederodekater schreef op donderdag 09 juni 2011 @ 19:11:
[...]


Van welk systeem naar welk systeem heb je data heen en weer gepompt? Het kan zijn dat de software raid-5 sneller is met lezen dan schrijven, dus misschien dat je het beste van de i3 naar de i7 kan kopieren.
Beide kanten op geprobeerd. Snelheid was gelijk

  • DJ-Visto
  • Registratie: Maart 2009
  • Laatst online: 03-06 21:44

DJ-Visto

Aye aye, sir!

@ruitech en geiperft? :p

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10
not yet, zal ik ook eens doen :-)

Acties:
  • 0Henk 'm!

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10
hierbij meer resultaten met infiniband:

Ik heb zoals verzocht getest met iperf. Dit geeft echter geen "echte" resultaten. Als ik namelijk mijn interne gbit netwerk test, geeft iperf me een Transfer rate van: 385 MBytes / 323 Mbits/sec.
Doe ik dit zelfde, echter dan via de infiniband verbinding dan krijg ik: 1.38GBytes / 1.19 Gbits/sec
Echter, wanneer ik over het het 1Gbit netwerk een bestand van 4GB slinger, dan haal ik +- 100MB/s ipv de aangegeven 38MB/s.
Dit zelfde geldt voor een test bestand van 4GB over het infiniband netwerk. Hierbij haal ik: 370MB/s ipv de aangegeven 138MB/s.
iperf server:

iperf client:


Mijn conclusie: Iperf is niet geheel betrouwbaar onder windows 7 (beide clients).


Het is me inmiddel gelukt om de kaarten te updaten naar de nieuwste firmware. Dit levert al een behoorlijke snelheidswinst op van +- 150MB/s winst.
TEST 1

&
TEST 2

Ik vermoed dat mijn relatief lange infiniband kabel (10m) mogelijk een probleem veroorzaakt in hogere transfer speeds.
Mocht iemand nog een kabel "over" hebben en deze willen uitlenen dan hoor ik het natuurlijk graag :-)

Voor nu; dolgelukkig met een verbinding tussen mijn game bakkie & fileserver van +- 370MB/s

[Voor 13% gewijzigd door ruitech op 26-06-2011 18:06]


Acties:
  • 0Henk 'm!

  • DJ-Promo
  • Registratie: Juli 2006
  • Laatst online: 10:51
Nette resultaten! Werken die kaarten ook in een pci-e x16 poort? Heb alleen een x16 poort voor de vga en een x1 poort.

Acties:
  • 0Henk 'm!

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10
Yep! Draait bij mij op een mini-itx bordje (Asus) welke enkel een pci-e x16 slot heeft...

Edit: nog een paar screenshotjes :o

Intel Nas Preformance Test:



Op dit moment loop ik dus tegen een limiet van +- 400MB/s aan (1/3 van de in theorie te behalen snelheid)

[Voor 65% gewijzigd door ruitech op 26-06-2011 18:26]


Acties:
  • 0Henk 'm!

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

ruitech schreef op zondag 26 juni 2011 @ 17:45:
Ik heb zoals verzocht getest met iperf. Dit geeft echter geen "echte" resultaten. Als ik namelijk mijn interne gbit netwerk test, geeft iperf me een Transfer rate van: 385 MBytes / 323 Mbits/sec.
Doe ik dit zelfde, echter dan via de infiniband verbinding dan krijg ik: 1.38GBytes / 1.19 Gbits/sec
Echter, wanneer ik over het het 1Gbit netwerk een bestand van 4GB slinger, dan haal ik +- 100MB/s ipv de aangegeven 38MB/s.
Dit zelfde geldt voor een test bestand van 4GB over het infiniband netwerk. Hierbij haal ik: 370MB/s ipv de aangegeven 138MB/s.
iperf server:
[afbeelding]
iperf client:
[afbeelding]

Mijn conclusie: Iperf is niet geheel betrouwbaar onder windows 7 (beide clients).
Mis. iperf is erg betrouwbaar, maar jij weet niet hoe je het moet gebruiken ;) Met een window size van 8KB ga je nooit erg hoge transferrates halen. Probeer eens -w 10M op te geven en dan zul je zien dat 't al een stuk harder gaat.

All my posts are provided as-is. They come with NO WARRANTY at all.


Acties:
  • 0Henk 'm!

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10
Ah! Gelukt! thanks! ik had enkel een guide op internet gevolgd... maar idd niet in de opties gekeken.
Met 100M gaat het vergelijkbaar als met hierboven. (net iets sneller)

  • Anoniem: 187449
  • Registratie: Augustus 2006
  • Niet online
zoefffffffffff :)

Acties:
  • 0Henk 'm!

  • Hulkiedulkie
  • Registratie: Juni 2009
  • Laatst online: 25-05 22:24
Ik heb vandaag 2 van onderstaande 10GBASE-SR PCIe kaarten via eBay besteld voor € 199 per stuk voor tussen mijn PC en NAS.

http://cgi.ebay.nl/NETZWE...zwerk&hash=item2c5b6f74f7

Ik moet wel nog een raid array bouwen. Met 1 schijf zit je al over de 1 gigabit dus ik zag er eerder het nut niet van in om dit te doen.

[Voor 24% gewijzigd door Hulkiedulkie op 01-07-2011 01:05]


Acties:
  • 0Henk 'm!

  • daan08
  • Registratie: Augustus 2008
  • Laatst online: 18-04 16:04

daan08

PEBKAC

Iemand een idee of die mellanox infiniband kaarten ook gaan werken met drie pc's
In mijn geval nas -> werkstation & esxi server. Twee kabels aan 1 kaart?

Acties:
  • 0Henk 'm!

  • laurensxeon
  • Registratie: September 2004
  • Laatst online: 02-06 18:12
zou goed moeten willen, je ziet per mellanox kaart 2 network interfaces, dus je kan 1 adapter instellen als 10.0.0.1 en de andere adapter als 10.0.0.2, zit je in dezelfde range.
een ster topologie zodat alle pc met elkaar verbonden zijn zou ook moeten werken.

heb gister ook mijn eerste data over het netwerk gepompt. goeie resultaten 160Mb per seconde, zakte echter snel naar beneden maar dat is kwestie van raid config instellen en netwerk nog tweaken.

Acties:
  • 0Henk 'm!

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10
daan08 schreef op vrijdag 01 juli 2011 @ 01:06:
Iemand een idee of die mellanox infiniband kaarten ook gaan werken met drie pc's
In mijn geval nas -> werkstation & esxi server. Twee kabels aan 1 kaart?
Gaat zeker werken. En als je nog niet besteld hebt, dan mag je mijn set overnemen (indien geïnteresseerd uiteraard).
Komt later vandaag in de V&A.

  • ruitech
  • Registratie: September 2009
  • Laatst online: 28-04 14:10

  • Bierkameel
  • Registratie: December 2000
  • Niet online

Bierkameel

Alle proemn in n drek

ruitech schreef op zondag 26 juni 2011 @ 17:58:
Yep! Draait bij mij op een mini-itx bordje (Asus) welke enkel een pci-e x16 slot heeft...
Welk mobo heb je? Zeker veel van die mini-ixt bordjes hebben wel een X16 slot maar die draaien vaak maar op X4 of X8, misschien dat je daarom niet sneller kan.
Pagina: 1


Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee