Toon posts:

Van 2Gb fiber naar 1Gb fiber, kan dit?

Pagina: 1
Acties:

Verwijderd

Topicstarter
Ik heb de volgende vraag.
Op de coreswitch van de LanZoNe lanparty's zitten 1Gb GBIC's optisch.
Op een pas aangeschafte IBM server zit een 2Gb optische netwerk kaart ingebouwd.
Kunnen deze twee snelheden met elkaar praten, ik heb me laten vertellen dat 2Gb downwards compatible is met 1Gb.
Echter de 2Gb heeft een andere aansluiting dan de 1Gb, de 2Gb is veel kleiner, is hier een verloop kabel voor.

  • BHQ
  • Registratie: November 2003
  • Laatst online: 03-03 17:49

BHQ

Err..

Ga eerst eens na wat voor aansluiting het is (en wat voor kaart), het kan goed zijn dat er op die server gbit aanwezig is op een kaartje met LC aansluiting waar er op die coreswitch bijv. alleen SC aanwezig is. De kans is overigens groot dat je gewoon een gigabit aansluiting bedoelt (en dan wellicht verward raakt door het feit dat deze full duplex zijn, dat is inderdaad 2x 1 gigabit.. up en down).

Mocht dit het geval zijn dan voldoet een doodsimpele LC -> SC patchkabel :)

[ Voor 42% gewijzigd door BHQ op 24-03-2009 18:17 ]


Verwijderd

Topicstarter
Nee het is een 2Gb fiber optic kaart.
En idd ik moet een fiber hebben met een LC-ST connector hebben.
Maar of de 2Gb met 1Gb kan praten?

  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 21:21
Verwijderd schreef op dinsdag 24 maart 2009 @ 18:34:
Nee het is een 2Gb fiber optic kaart.
En idd ik moet een fiber hebben met een LC-ST connector hebben.
Maar of de 2Gb met 1Gb kan praten?
Is dat dan geen fibrechannel kaart in plaats van een ethernet kaart?

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 21:21
Oeps, hier ging iets fout

[ Voor 76% gewijzigd door FatalError op 24-03-2009 18:37 ]

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


Verwijderd

Alles hangt inderdaad af van het protocol. 1Gbps Gbics zijn hoogstwaarschijnlijk 1000BASE-SX kaartjes die voor multimode vezel perfect geschikt zijn. Dit is ethernet achtig.
Hierboven is het onmiddellijk : 10Gbps (10GBASE-SR) kaarten. Ook die hebben niet zomaar een fall-back modus naar 1 Gbps dacht ik. De link is er ... of helemaal niet. Dus niet zoals met koperverbindingen : 1000BASE-T > 100BASE-TX > 10BASE-T


2Gbps is typisch FC (Fiber Channel) en die zijn niet zomaar compatible met 1000BASE SX interfaces (voor zover ik weet zelfs helemaal niet).
FC gebruikt andere veelal andere snelheden dan ethernet. 2Gbps/4Gbps/8Gbps/16Gbps...(10 Gbps dacht ik ook)
Is een storage protocol dat (naar het schijnt) veel correcter omgaat met de data.

GBIC voor 1000BASE-SX is heel gebruikelijk
SFP (small formfactor pluggables) voor LC connectoren tegenwoordig standaard (XFP voor de 10Gbps versie)

Volgens mij gaat het niet werken. Kan het kwaad te proberen? Wellicht niet, tenzij je te maken hebt met een single mode module (onwaarschijnlijk) die met lasers werken (en die bedoeld zijn voor afstanden van meerdere km's).

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 10-06-2025
Dit gaat niet werken, want dit is geen ethernet standaard.

  • Kabouterplop01
  • Registratie: Maart 2002
  • Laatst online: 05-03 22:00

Kabouterplop01

chown -R me base:all

Wat voor Netwerk interfaces heeft het apparaatje nog meer?

  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 07-02 09:48

TrailBlazer

Karnemelk FTW

2Gbit is inderdaad een FC snelheid. Het lijkt me echter sterk dat TS even een server met een HBA koopt. Die dingen zijn nogal prijzig namelijk. Mischien noemen ze het 2 Gigabit omdat dat ding full duplex is. 10 gigabit is helemaal uitgesloten want die zijn minimaal 2000 denk ik zo zeker op glas.

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Dat soort dingen kom je 2ehands nog wel 's tegen. Ik acht de kans groter dat er een 2Gb fibrechannel kaart inzit dan dat er een GbE over glas kaart in zit die als 2gbit full-duplex omschreven wordt (da's toch vooral een marketingtruuk van lager geprijsde kaartjes). Alternatief is een oudere Infiniband of een Myrinet 2000 kaart.

All my posts are provided as-is. They come with NO WARRANTY at all.


Verwijderd

TrailBlazer schreef op dinsdag 24 maart 2009 @ 21:48:
10 gigabit is helemaal uitgesloten want die zijn minimaal 2000 denk ik zo zeker op glas.
Op alternate ontdekte ik er onlangs één van 1550euro (intel pci-e kaart)! (Maar je hebt gelijk hoor, nog altijd veel te duur).

  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 07-02 09:48

TrailBlazer

Karnemelk FTW

Dat is echt ubercheap als je het vergelijkt wat de 10Gbit blades op een cisco switch kosten. De optics alleen zijn daar al 800 dollar als je de max korting hebt.

  • brederodekater
  • Registratie: Maart 2006
  • Laatst online: 10-06-2025
Maar ja, dan zijn we nu natuurlijk wel appels en peren aan het vergelijken :) Volgens mij bestaat er zelf een FC standaard die 12Gbit/s ondersteund.

Tegenwoordig hoor je ook steeds meer over FC over Ethernet - een misschien wat duurdere oplossing, maar wel handig wanneer een bedrijf bepaalde standaarden wil hanteren.

  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 07-02 09:48

TrailBlazer

Karnemelk FTW

FC gaat max tot 10 gigabit de volgende stappen zullen 40 en 100 gbit gaan. FCoE is best een mooie techniek afgelopen week drie dagen training gehad van Cisco over de Nexus 5000 die dit gaat ondersteunen. Het grote probleem op dit moment lijkt me dat de storage wereld nogal behoudend is. Alles wat niet over hun SAN switches gaat is per definitie onbetrouwbaar.

  • jvanhambelgium
  • Registratie: April 2007
  • Laatst online: 23:42
TrailBlazer schreef op woensdag 25 maart 2009 @ 08:30:
FC gaat max tot 10 gigabit de volgende stappen zullen 40 en 100 gbit gaan. FCoE is best een mooie techniek afgelopen week drie dagen training gehad van Cisco over de Nexus 5000 die dit gaat ondersteunen. Het grote probleem op dit moment lijkt me dat de storage wereld nogal behoudend is. Alles wat niet over hun SAN switches gaat is per definitie onbetrouwbaar.
De concepten van de unified fabrics zijn niet iets waar je menig storage man warm voor krijgt ;-)
But guess what ... het komt er toch van hoor! Het is een kwestie van tijd.

  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 07-02 09:48

TrailBlazer

Karnemelk FTW

Uiteindelijk gaat er een manager van horen en die zal dan de prijskaartjes tegen elkaar gaan afwegen. Ik ben benieuwd of ze het dan nog tegen kunnen houden. Het scheelt op je bekabeling echt een hoop namelijk. In de toekomst zal je dan genoeg hebben aan 3 touwtjes naar je server toe. 2 FCoE en een management/out of band touwtje. Mischien is de innitiele aanschaf van de server niet goedkoper maar het scheelt wel een hoop in stroomkosten en bekabeling.

  • jvanhambelgium
  • Registratie: April 2007
  • Laatst online: 23:42
Nu vb Cisco recentelijk ook z'n Unified Computing verhaaltje opgelaten heeft is dit de "piek" in hun hele strategie waar ze reeds meer als 10j meer bezig waren. (en waar vb Nexus producten ook een deel van uitmaken)

Nu nog zien of ze het gevecht met HP's en Dell's overleven gaan kunnen trekken...

Verwijderd

Topicstarter
Hmm, Dan ga ik denk maar kijken of naar een 1Gb optische kaart voor de server of naar 1Gb koper GBIC's voor de switch.
Maar ik geloof dat de latency van glas beter is dan koper.
De server wordt voornamelijk gebruikt om een aantal games te hosten op een lan.
En dan misch. ook maar de DHCP/DDNS/Router/File server met 1Gb glas uitvoeren.

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Verwijderd schreef op woensdag 25 maart 2009 @ 16:34:
Hmm, Dan ga ik denk maar kijken of naar een 1Gb optische kaart voor de server of naar 1Gb koper GBIC's voor de switch.
Alternatief: prik gewoon een gbit UTP erin.
Maar ik geloof dat de latency van glas beter is dan koper.
Neuh.

All my posts are provided as-is. They come with NO WARRANTY at all.


  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 07-02 09:48

TrailBlazer

Karnemelk FTW

http://www.cisco.com/en/U...ata_sheet_c78-461802.html

SFP+ koper heeft toch wel een hogere latency hoor.

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Een koper SFP vergeleken bij een glasvezel SFP ja. Maar niet als je de vergelijking trekt tussen een nic met SFP en een directe koperen interface. (En kom nou, zelfs in jouw geval is 't verschil 0.1µs :P)

All my posts are provided as-is. They come with NO WARRANTY at all.


  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 07-02 09:48

TrailBlazer

Karnemelk FTW

ja dat had ik ook wel gezien ;)

Verwijderd

Topicstarter
De core switch van de lan is een 100Mb trunkable switch met twee 1Gb poorten waar GBICs in kunnen.
Ik heb nu in een poort twee optische GBICs en in de andere een optische GBIC.
Dus voor koper moet ik GBICs met koper aanschaffen en voor glas moet ik 1Gb optische kaartjes kopen.
Prijs verschil is niet erg groot, alleen zijn 1Gb optische kaartjes beter te verkrijgen dan koper GBICs.

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Koper GBIC's zijn idd wat lastig te vinden. SFP's kom je sneller aan maar die passen niet in je switch :P In dat geval is een fiber kaartje voor die servert idd het makkelijkste. Let er wel op dat je de goede soort gebruikt die overeenkomt met de GBICs die je in je switch hebt zitten he. 1000BASE-SX praat niet met 1000BASE-LX bijvoorbeeld.

All my posts are provided as-is. They come with NO WARRANTY at all.


  • ChaserBoZ_
  • Registratie: September 2005
  • Laatst online: 04-01 10:58
CyBeR schreef op donderdag 26 maart 2009 @ 01:19:
Koper GBIC's zijn idd wat lastig te vinden. SFP's kom je sneller aan maar die passen niet in je switch :P In dat geval is een fiber kaartje voor die servert idd het makkelijkste. Let er wel op dat je de goede soort gebruikt die overeenkomt met de GBICs die je in je switch hebt zitten he. 1000BASE-SX praat niet met 1000BASE-LX bijvoorbeeld.
Het praat niet goed met elkaar, laatst hier een koppeling gehad SX <-> ZX, het werkte wel.

Ok, de errors liepen net zo hard op als de kbps maar het werkte :+

'Maar het heeft altijd zo gewerkt . . . . . . '


  • BHQ
  • Registratie: November 2003
  • Laatst online: 03-03 17:49

BHQ

Maar, is die backbone echt van levensbelang? Je kan ook gewoon een gigabit koperswitch neergooien, die performt echt niet minder. Als je de eindswitches enkel met fiber kan pluggen is het natuurlijk een ander verhaal (media converter of een copper switch die alsnog plaats heeft voor een SFP (of meer), meestal heb je dan gelijk simpele managementmogelijkheden).

Verwijderd

ChaserBoZ_ schreef op donderdag 26 maart 2009 @ 09:29:
koppeling gehad SX <-> ZX, het werkte wel.

Ok, de errors liepen net zo hard op als de kbps maar het werkte :+
En je sloopt je SX GBIC want die ZX stuurt het signaal met 5dBm uit, terwijl die SX maximaal 0dBm mag ontvangen. Met 0,3dB verlies per kilometer moet er dus minimaal zo'n 16 kilometer fiber tussen zitten... (of een demper). En dat nog los van het feit dat ZX Single Mode is en SX Multimode en ze beiden op een verschillende golflengte werken.

Verwijderd

Topicstarter
Yapser schreef op donderdag 26 maart 2009 @ 11:29:
Maar, is die backbone echt van levensbelang? Je kan ook gewoon een gigabit koperswitch neergooien, die performt echt niet minder. Als je de eindswitches enkel met fiber kan pluggen is het natuurlijk een ander verhaal (media converter of een copper switch die alsnog plaats heeft voor een SFP (of meer), meestal heb je dan gelijk simpele managementmogelijkheden).
De backbone switch is een basic layer 3 switch geschikt voor jumboframes (IPv6 ivm Vista gebruikers) welke met vierlijns trunks in verbinding staat met een aantal veld switches.
Dit is allemaal 100Mb, om nu alles naar 1Gb om te gooien is een kostbare zaak.
Dit betekend een nieuwe backbone switch, welk idd management mogelijkheid moet hebben, en ook minimaal 3 nieuwe veld switches. Niet te spreken nieuwe bekabeling aanleggen in het buurthuis, cat5>cat6.
En de reden waarom ik een fiber tussen een van de servers wil leggen is dat ik op de nieuwe server (dual XEON 19" met 10k schijven) 3 tot 5 games als server wil laten draaien zodat ik minder servers mee te slepen heb en op te slaan thuis.

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Verwijderd schreef op zaterdag 28 maart 2009 @ 13:30:
[...]

De backbone switch is een basic layer 3 switch geschikt voor jumboframes (IPv6 ivm Vista gebruikers)
Dat heeft niets met elkaar te maken :P
welke met vierlijns trunks in verbinding staat met een aantal veld switches.
Dat veroorzaakt een loop. Ik zou link aggregation aanzetten ipv trunks. (Maar dat heb je al, je geeft 't alleen de verkeerde naam.)
En de reden waarom ik een fiber tussen een van de servers wil leggen is dat ik op de nieuwe server (dual XEON 19" met 10k schijven) 3 tot 5 games als server wil laten draaien zodat ik minder servers mee te slepen heb en op te slaan thuis.
Games? Dat ga je op 100mbit ook prima volhouden hoor.

All my posts are provided as-is. They come with NO WARRANTY at all.


  • BHQ
  • Registratie: November 2003
  • Laatst online: 03-03 17:49

BHQ

Ik ga maar even aanhalen wat CyBeR ook roept:
Verwijderd schreef op zaterdag 28 maart 2009 @ 13:30:
[...]
De backbone switch is een basic layer 3 switch geschikt voor jumboframes (IPv6 ivm Vista gebruikers)
Layer 3 switching, jumboframes en IPv6 zijn 3 losse dingen die niet zoveel (niets?) met elkaar van doen hebben in deze context. Of je moet daadwerkelijk tussen vlans gaan routen, jumbo frames aanhebben (de clients moeten het -ook- supporten, uit houden is beter in this case) en met IPv6 bezig zijn (het nut op een LAN?, behalve vooruitstrevend bezig zijn), maar dan nog hebben ze met elkaar bar weinig van doen.
Niet te spreken nieuwe bekabeling aanleggen in het buurthuis, cat5>cat6.
Cat6 is geen vereiste met gigabit, Met Cat5e krijg je een gigabit lijntje gewoon vol en zelfs over Cat5 krijg je een gigabit link (snelheid zal dan wel lager liggen heb ik het lichte vermoeden).
En de reden waarom ik een fiber tussen een van de servers wil leggen is dat ik op de nieuwe server (dual XEON 19" met 10k schijven) 3 tot 5 games als server wil laten draaien zodat ik minder servers mee te slepen heb en op te slaan thuis.
Dat kan prima met 100mbit of misschien zelfs 10mbit. Het gaat om de latency die je hebt en dat ligt niet persé in lijn met de bandbreedte die beschikbaar is. Als die server op games na niet zoveel te doen heeft (denk aan files serveren, als die netwerkkaart volzit is het een ander verhaal wellicht..) lukt het -prima- om lagvrij te spelen.

Verwijderd

Topicstarter
Layer 3 switching, jumboframes en IPv6 zijn 3 losse dingen die niet zoveel (niets?) met elkaar van doen hebben in deze context. Of je moet daadwerkelijk tussen vlans gaan routen, jumbo frames aanhebben (de clients moeten het -ook- supporten, uit houden is beter in this case) en met IPv6 bezig zijn (het nut op een LAN?, behalve vooruitstrevend bezig zijn), maar dan nog hebben ze met elkaar bar weinig van doen.
Je moet eens kijken hoeveel mensen met Vista komen en op een merk PC en waarbij de voor geinstaleerde programma zooi via IPv4 en IPv6 bagger lopen te versturen, het aantal dropped frames is enorm. |:(
En zeker als zo'n Vista bak ook nog eens arp pakketen rond stuurt in het begin, dit voordat de pc via DHCP aangemeld is.
En ik heb geen zin om bij een groot aantal noobs langs te komen om alles uit te zetten, en omdat het de familie PC is alles weer aan tezetten als zij weer weg gaan.
En ik had begrepen dat als een switch jumboframes aankan hij ook IPv6 aankan.
Een aatal switches doen een soort van trunking dmv vlans, ik weet niet het ideale maar voor ons werk het ,en deze moeten dan weer aan elkaar geknoopt worden in de backbone switch.
Cat6 is geen vereiste met gigabit, Met Cat5e krijg je een gigabit lijntje gewoon vol en zelfs over Cat5 krijg je een gigabit link (snelheid zal dan wel lager liggen heb ik het lichte vermoeden).
Krijg je dan niet meer overspraak wat dan weer meer dropped frames of lost packages geeft?
Dat kan prima met 100mbit of misschien zelfs 10mbit. Het gaat om de latency die je hebt en dat ligt niet persé in lijn met de bandbreedte die beschikbaar is. Als die server op games na niet zoveel te doen heeft (denk aan files serveren, als die netwerkkaart volzit is het een ander verhaal wellicht..) lukt het -prima- om lagvrij te spelen.
Het gaat ons ook meer om de latency, een game server geeft een heleboel kleine pakketje over een netwerk.
En ik vind het ook gewoon leuk om de glas verbinding te gebruiken van de switch

  • FatalError
  • Registratie: Juni 1999
  • Laatst online: 21:21
IPv6 heeft echt geen Jumbo Frames nodig.

If it ain't broken, tweak it! | gasloos sinds oktober 2025, hoekwoning 1978 | 10kWp PV, Panasonic K serie 7kW, Atlantic Explorer V5 270L | Tesla Model Y


  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Verwijderd schreef op zondag 29 maart 2009 @ 08:18:
[...]


Je moet eens kijken hoeveel mensen met Vista komen en op een merk PC en waarbij de voor geinstaleerde programma zooi via IPv4 en IPv6 bagger lopen te versturen, het aantal dropped frames is enorm. |:(
En zeker als zo'n Vista bak ook nog eens arp pakketen rond stuurt in het begin, dit voordat de pc via DHCP aangemeld is.
En ik heb geen zin om bij een groot aantal noobs langs te komen om alles uit te zetten, en omdat het de familie PC is alles weer aan tezetten als zij weer weg gaan.
En ik had begrepen dat als een switch jumboframes aankan hij ook IPv6 aankan.
En nog steeds hebben jumbo frames, IPv6, arp en broadcasts geen drol met elkaar te maken :P
Krijg je dan niet meer overspraak wat dan weer meer dropped frames of lost packages geeft?
Alleen als je bekabeling heel brak is.
Het gaat ons ook meer om de latency, een game server geeft een heleboel kleine pakketje over een netwerk.
De latency van gigabitverbindingen is, inderdaad, iets lager dan die van 100mbit. Maar tegen de tijd dat de packets door alle lagen van de TCP stack heen zijn ben je dat voordeel al weer kwijt.
En ik vind het ook gewoon leuk om de glas verbinding te gebruiken van de switch
Kijk, dat is iets anders :P

All my posts are provided as-is. They come with NO WARRANTY at all.


Verwijderd

Topicstarter
FatalError schreef op zondag 29 maart 2009 @ 12:20:
IPv6 heeft echt geen Jumbo Frames nodig.
Ik had begrepen dat als een switch jumboframes aankan hij ook IPv6 aankan.
Onze vorige switch welke wij als backbone gebruikte kom geen IPv6 aan, gaf enorm veel frame errors door IPv6.
De huidige switch kan wel IPv6 aan en jumboframes.
Er zijn trouwens nog een hoop switches die geen IPv6 kunnen routeren.

  • CyBeR
  • Registratie: September 2001
  • Niet online

CyBeR

💩

Verwijderd schreef op zondag 29 maart 2009 @ 13:29:
[...]

Ik had begrepen dat als een switch jumboframes aankan hij ook IPv6 aankan.
Onze vorige switch welke wij als backbone gebruikte kom geen IPv6 aan, gaf enorm veel frame errors door IPv6.
Onzin. Een switch heeft werkelijk waar niets met IPv6 te maken. Een router wil 't mischien kunnen routeren (een L3-switch gedraagt zich als zodanig.) Maar als 'ie dat niet kan doet 'ie er gewoon niets mee. Jumbo frames zijn gewoon frames op ethernetniveau langer dan 1500 bytes. IPv6 packets passen gewoon netjes in 1500 bytes.

All my posts are provided as-is. They come with NO WARRANTY at all.


Verwijderd

Topicstarter
Maar kan jij dan verklaren waarom de Vista pc's een hoop frame errors gaf met IPv6 en niet als IPv6 uitgeschakeld stond. :?
Dit probleem hebben we nu niet meer met de nieuwe switch die wel IPv6 kan routeren, nodig voor de vreemd soortige manier van trunking van een aantal veld switches. 8)7

  • BHQ
  • Registratie: November 2003
  • Laatst online: 03-03 17:49

BHQ

Wat is een 'vreemde manier van trunking'?

Patch je bijv. 4 kabels richting een switch en laat je die in apparte vlans uitkomen? As in, je zou dan 4 'fysieke' switches hebben met elk een eigen uplink. Of zijn die 4 kabels daadwerkelijk een link aggregation, maar doe je andere funky (overbodige?) dingen met vlans?

Anyway, ik heb het lichte idee dat je te moeilijk doet voor wat je wil bereiken. Van een doodsimpel L2 netwerk met zo min mogelijk aan configuratie is nog nooit een kleine lan minder geworden.

Overigens, deze telefoonkabeltjes zorgen voor meer rotte packets dan IPv6 gok ik zo..

[ Voor 13% gewijzigd door BHQ op 29-03-2009 16:20 ]


  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 07-02 09:48

TrailBlazer

Karnemelk FTW

Een L3 device die L2 pakketten binnen krijgt met een onbekende L3 Payload zal die hem mischien wel als frame errors zien. Niks om je zorgen over te maken als je geen pakketverlies hebt
Pagina: 1