opgelost, dank!
[ Voor 97% gewijzigd door Verwijderd op 04-09-2007 16:56 ]
[ Voor 5% gewijzigd door TrailBlazer op 28-08-2007 08:57 ]
QnJhaGlld2FoaWV3YQ==
Het is een laag 2 link in ieder geval zou die zich zo gedragen voor de TS tracerouter heeft dus nul effect denk ik zo.Brahiewahiewa schreef op dinsdag 28 augustus 2007 @ 09:11:
'k Zou niet zomaar in het wilde weg aan de TCP parameters gaan lopen sleutelen.
Windows is auto-tuning wat dat betreft en 't zou erg vreemd zijn als dat nou net in jouw geval vertragend werkt.
Eerste wat je moet controleren is of de routering goed is.
Dus vanaf server1: TRACERT server2
en vanaf server2: TRACERT server1
Daarna moet je met een packet sniffer gaan kijken waarom de vertraging optreedt. 't Kan best zijn dat er in de routers een of andere vorm van spoofing is aangezet (Acks of keep-alives) die niet het bedoelde effect hebben, of dat er voortdurend re-transmits worden verzonden waardoor de throughput laaag blijft. Of wie weet heeft een of andere slimmerik QoS aangezet. Loopt er ook VOIP over die lijn? Dan zou het kunnen zijn dat iemand het achterlijke advies van Cisco heeft gevolgd om een MTU van 64 bytes in te stellen. Over MTU gesproken: je hebt toch niet perongeluk jumbo frames aangezet op je server(s)?
No production networks were harmed during this posting
[ Voor 8% gewijzigd door TrailBlazer op 28-08-2007 20:26 ]
Dat TCP oorspronkelijk niet gemaakt is om op gigabitsnelheden met hoge latencies (4ms kun je overigens niet echt als hoog beschouwen) goed te werken, wil niet zeggen dat TCP tegenwoordig daar ook niet mee om kan gaan. Middels window scaling is het prima mogelijk om zelfs 10GBit-pijpen met een paar honderd milliseconde latency te vullen.dit is dus puur het probleem met TCP windowsize. Het heeft (voor de verandering) een niet met windows te maken maar met de beperkingen van het TCP protocol. Toen TCP bedacht werd had geen mens het voor mogelijk gehouden dat je Gbit links had met een latency van 4 ms. Met wat tweaken wordt het wel wat beter. Je kan ook nog met sACK (selective ACK) gaan expirimenteren.
FTP'en zal dus ook niet sneller gaan of ieder geval niet schrikbarend.
Of ze kunnen er een stel Riverbed Steelhead dozen tussenzettenTrailBlazer schreef op dinsdag 28 augustus 2007 @ 20:25:
Je kan ook nog met sACK (selective ACK) gaan expirimenteren.
FTP'en zal dus ook niet sneller gaan of ieder geval niet schrikbarend.
Zo werkt het niet. TCPs melden aan elkaar het maximale window, dat wil zeggen: het maximaal aantal bytes wat een TCP ontvanger kan bufferen zonder dat het acknowledged is. Zo weet een TCP sender dus hoeveel data er maximaal uitgestuurd mag zijn naar de andere kant. TCPs varieren de windows tijdens het versturen van data als flow-control-methodiek. Wanneer je grote buffers hebt en dus grote maximale windows, wil dat niet zeggen dat de window tijdens datatransfers ook ingesteld zijn op dat maximum. Ook is er geen koppeling tussen het sturen van acknowledgements en het vol raken van deze buffers. Oorspronkelijk stuurden TCPs simpelweg voor elk ontvangen in-order pakket een acknowledgement; tegenwoordig worden middels 'delayed ack' een aantal acknowledgements opgespaard en in een klap een veel groter block geacknowledged (scheelt dataverkeer voor alle acks en scheelt veel werk voor de verwerking ervan aan beide kanten).Verwijderd schreef op dinsdag 28 augustus 2007 @ 21:39:
Wat ik me heb laten vertellen is dat we de window (misschien praat ik poep, maar werk al bijna 2 weken veels te lang en ben moe) veel groter kunnen zetten, maar dat er dan applicaties kunnen zijn die weinig data nodig hebben. Deze krijgen dan veel langere timeouts dan nodig.
Kan je dat bevestigen?
het leuke is, over 10g haal je met 1 sessie niks meer. (heb ik me laten vertellen)jvanhambelgium schreef op dinsdag 28 augustus 2007 @ 21:37:
[...]
Of ze kunnen er een stel Riverbed Steelhead dozen tussenzetten![]()
Leuk om te weten dat alles opgelost is, ik had eerlijk gezegd niet gedacht dat het effectief de delay ging zijn ...tja ... 4ms ... heb nooit echt de formule toegespast om de max throughput te bepalen.
En inderdaad als ik tussen 2 PC's met een cross-cable test is de delay vééééél minder als 4ms ... vandaar dat er niet echt een issue is op die manier.
OK...tijd voor 10G WAN linkjes ;-)
[ Voor 4% gewijzigd door Verwijderd op 28-08-2007 22:00 ]
[ Voor 13% gewijzigd door needless to say op 28-08-2007 22:15 ]
je kent mijn menig over die dingen hejvanhambelgium schreef op dinsdag 28 augustus 2007 @ 21:37:
[...]
Of ze kunnen er een stel Riverbed Steelhead dozen tussenzetten
hebben we alLeuk om te weten dat alles opgelost is, ik had eerlijk gezegd niet gedacht dat het effectief de delay ging zijn ...tja ... 4ms ... heb nooit echt de formule toegespast om de max throughput te bepalen.
En inderdaad als ik tussen 2 PC's met een cross-cable test is de delay vééééél minder als 4ms ... vandaar dat er niet echt een issue is op die manier.
OK...tijd voor 10G WAN linkjes ;-)
reken het #$#&#%*&%* dan even uit voordat je begint te blaten. De formule in de link in de TS klopt gewoon. 1 gbit maal een delay van 4 ms is 1E9*4E-3. Uit je hoofd kan je dan uitrekenen dat je bij deze link al een window van een 4mbit nodig hebt. Wil je dan een 10gbit link met een delay van 100ms volpompen heb je een buffer nodig van 1 gbit. Ga jij de server even aanwijzen die dat kan. Sowieso is het volkomen onzin om zo'n buffer te hebben want al raakt slechts een op de miljoen pakketten van 1000 bit kwijt dan kan je overnieuw beginnen.serkoon schreef op dinsdag 28 augustus 2007 @ 21:18:
[...]
Dat TCP oorspronkelijk niet gemaakt is om op gigabitsnelheden met hoge latencies (4ms kun je overigens niet echt als hoog beschouwen) goed te werken, wil niet zeggen dat TCP tegenwoordig daar ook niet mee om kan gaan. Middels window scaling is het prima mogelijk om zelfs 10GBit-pijpen met een paar honderd milliseconde latency te vullen.
Uitgaande van een relatief korte 1Gbit-link met niet al te veel (zwaar belaste) apparatuur tussen de beiden kanten, zal de latency toch echt niet boven de paar milliseconden (ruime schatting) uit moeten komen. Je hebt het dan over TCP-buffers van hooguit een paar honderd kilobyte, wat zover ik weet standaard gewoon moet werken onder moderne Windows-versies.
Het testen van verschillende applicatieprotocollen zal in ieder geval uitsluitsel moeten geven over of het aan TCP zelf of aan de applicatie ligt. Mijn guess is dat het meer aan de applicatie of disk I/O e.d. zal liggen dan aan de link; zo te horen is de TS daar ook al mee aan het tunen geslagen, dus het komt vast goed
[ Voor 17% gewijzigd door TrailBlazer op 28-08-2007 22:32 ]
Rustig aan man, wind je niet zo op. "Arrogantie mode" zou niet nodig moeten zijn lijkt me, ik neem aan dat je hier voor je lol zit?TrailBlazer schreef op dinsdag 28 augustus 2007 @ 22:23:
[...]
[arrogant mode on]
Als ik even arrogant over mag komen ik werk ondertussen 7 jaar met WAN netwerken 4 jaar bij een provider en nu bij een bedrijf wat een netwerk heeft met bandbreedtes en apparatuur waar de meeste van jullie alleen maar van kunnen dromen.
Ik ben zowel CCIP als CCSP en ben aan het leren voor mijn CCIE en heb dit verhaal al aan klanten kunnen uitleggen toen de gemiddelde tweaker nog een harde plasser kreeg van een 2mbit internteverbinding.
[arrogant mode off]
ja dat zit ik ook wel daar gaat het ook niet om.brederodekater schreef op woensdag 29 augustus 2007 @ 00:16:
[...]
Rustig aan man, wind je niet zo op. "Arrogantie mode" zou niet nodig moeten zijn lijkt me, ik neem aan dat je hier voor je lol zit?
TrailBlazer schreef op woensdag 29 augustus 2007 @ 06:39:
[...]
ja dat zit ik ook wel daar gaat het ook niet om.
Ik erger me er gewoon aan dat er mensen blijven die gewoon maar wat blijven roepen zonder dat ze de moeite lezen om de onafhankelijke bronnen te lezen en te begrrijpen.
*kuch*. Ik zeg dus letterlijk 'paar honderd kilobyte' voor 4ms op 1Gbit/s. 4mbit =~ 'paar honderd kilobyte'.TrailBlazer schreef op dinsdag 28 augustus 2007 @ 22:23:
reken het #$#&#%*&%* dan even uit voordat je begint te blaten. De formule in de link in de TS klopt gewoon. 1 gbit maal een delay van 4 ms is 1E9*4E-3. Uit je hoofd kan je dan uitrekenen dat je bij deze link al een window van een 4mbit nodig hebt. Wil je dan een 10gbit link met een delay van 100ms volpompen heb je een buffer nodig van 1 gbit. Ga jij de server even aanwijzen die dat kan.
1
2
| # sysctl net.inet.tcp.recvspace net.inet.tcp.recvspace: 67108864 |
Dat is inderdaad het nadeel van dat soort pijpen, waar ook onderhand een aantal redelijk werkende oplossingen voor zijn, zoals bijvoorbeeld SACK.Sowieso is het volkomen onzin om zo'n buffer te hebben want al raakt slechts een op de miljoen pakketten van 1000 bit kwijt dan kan je overnieuw beginnen.
[ Voor 3% gewijzigd door serkoon op 29-08-2007 23:39 ]
Dat is niet per definitie waar. Kopieren via de Windows Explorer kan wel degelijk traag verlopen zoals ik onlangs merkte bij het kopieren van een paar vmware images:jvanhambelgium schreef op dinsdag 28 augustus 2007 @ 07:24:
zelfs "out-of-the-box" zal elk Windows product meer als 50 megabits / sec neerzetten !!! Zonder enige tuning of tweaking.
Hmm, ok...met dat produkt KAN je blijkbaar per definitie soms zo'n dingen wel verwachtenkwiebus schreef op donderdag 30 augustus 2007 @ 00:24:
[...]
Dat is niet per definitie waar. Kopieren via de Windows Explorer kan wel degelijk traag verlopen zoals ik onlangs merkte bij het kopieren van een paar vmware images:
Slow network performance occurs if you copy files to a domain controller that is running Windows 2000 or Windows Server 2003
Apple iPhone 17 LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2026
•
Hosting door TrueFullstaq