Vervanging switches: overkill of niet?

Pagina: 1
Acties:

  • reconf
  • Registratie: December 2008
  • Laatst online: 12-10-2024
Ik zit een beetje rond te kijken op internet ivm de vervanging van onze netwerk infrastructuur. Nu zie ik een hoop mooie apparatuur van o.a. HP en Netgear maar vraag me af of het in onze situatie geen overkill is.

De huidige situatie:
- Netwerk van circa 300 computers (allemaal gigabit nics)
- 4 patchkasten met elk circa 6 x 24 poort switches (10/100mbit)
- 1 van deze patchkasten bevindt zich in de serverruimte, naar alle 3 de andere patchkasten ligt een 1gbit glas verbinding
- In iedere patchkast zijn alle switches verbonden aan een 1gbit switch.

Omdat we binnenkort een 2e serverruimte krijgen die in geval van nood de 1e serverruimte overneemt moeten er eigenlijk een aantal switches vervangen worden. We willen namelijk een snelle verbinding van de 1e naar de 2e serverruimte. Tussen deze 2 ruimtes komt een glasverbinding te liggen, het liefst zouden we hier dus gebruik maken van een 10gbit verbinding.

Mijn vragen zijn nu eigenlijk:
- Is het de moeite waard om vanaf de serverruimte ook 10gbit verbinding te leggen naar de andere patchkasten? Het probleem is dat we een beperkt budget hebben en 10gbit apparatuur nog steeds erg prijzig is. Kunnen we dit ook anders oplossen? is het bijvoorbeeld een idee om 2 x 1gbit glas te trunken?
- Netgear heeft best mooie apparatuur en is gunstig geprijsd. Wat zijn jullie ervaringen met Netgear en zou hun switching apparatuur in onze situatie toereikend zijn?
- Is het wat snelheid betreft beter om bij meer dan 4 switches per patckast voor de stackable variant te kiezen?
- Wat voor soort verbinding liggen er doorgaans tussen patchkasten van ongeveer 6 x 24 poort switches die circa 100meter uit elkaar liggen, zijn dit trunked glasverbindingen van 1 gigabit of wordt er al echt gebruik gemaakt van 10 gigabit?
- Hoe verbind ik de "hoofdswitch" van een patchkast met de andere switches in die kast?
Ik bedoel bijvoorbeeld een switch waar 6 kabels ingeprikt zitten van een esx server. Kun je die gewoon keihard doorlussen met een trunk van een stuk of 4 kabels?

  • BHQ
  • Registratie: November 2003
  • Laatst online: 03-03 17:49

BHQ

Kijk eerst eens.. Heb je die 10 gig naar de overige patchkasten wel nodig? Komt die 1 gig die er nu hangt ooit vol (of uberhaupt maar voor de helft)? Als je gewoon doodnormale gebruikers hebt is het nogal zware overkill, de enige reden om dan een trunk van bijv. 2 gig aan te leggen is redundancy.

Qua switches en stacken: Het komt ook vaak genoeg voor dat switches in een patchkast gewoon gedaisy-chained worden van de bovenste switch (waar de uplink op binnen komt) naar de onderste switch via de gigabit poortjes.

[ Voor 27% gewijzigd door BHQ op 07-12-2008 14:44 ]


  • the_stickie
  • Registratie: Juli 2001
  • Laatst online: 14-09-2025
meten is weten :)

Ga alvorens je netwerk te (her)plannen, zo nauwkeurig mogelijk na hoeveel verkeer je minimaal/maximaal/gemiddeld verwerkt. Probeer als het kan ook een beeld te krijgen van het soort verkeer dat je te verwerken krijgt (bron-doel-applicatie). Met die gegevens kan je dan aan de slag om de bandbreedte optimaal te gaan verdelen. Ook kan je de plaatsing van alle resources zo wellicht optimaliseren.

Het spreekt voro zich dat je ook moet rekening houden met groei en redundancy ;)

  • Johnny E
  • Registratie: April 2000
  • Nu online

Johnny E

Dôh !!

In jouw geval zou ik beginnen met het maken van een fysieke netwerk tekening.
Je begint met het maken van een tekening die de situatie nu weer geeft, gewoon om alles duidelijk in beeld te krijgen. Vervolgens maak je een tweede met een situatie waarvan jij denkt dat het zou moeten.
Bij de tweede tekening hou je nog geen rekening met alle eigenschappen van de apparaten maar wel met basis eigenschappen zoals de koper of glas.

Als je de tweede tekening in kaart hebt dan maak je een eisen en wensen lijst.
Aan de hand van de wensen en eisen lijst ga je de 2e tekening vervolgens in kleuren.

Daarna zou ik gaan praten met het management om te kijken hoeveel budget er werkelijk is.
Hierna kan je er met een goed verhaal wellicht nog budget bij krijgen en wellicht wordt al snel duidelijk dat de wensen niet haalbaar zijn.

10Gbit wordt imho nog maar weinig toegepast binnen bedrijven, het mkb+ segment werkt naar mijn mening ook nog voornamelijk op 10/00 op de werkplekken en 1gb in de server ruimten.

Hebben jullie nu performance problemen of zijn er in de nabije toekomst applicaties te verwachten die 1gb van de clients verwachten?

Ik zou persoonlijk kiesen voor een stacked oplossing waarbij ik elke losse switch zou voorzien van 2 (24 poorten)of 4 gb (48poorten) poorten (glas of koper). Een stack van 6 24poorts switches heeft in dit geval een uplink van 12Gb.

Persoonlijk zou ik het ook houden op de apparatuur van de grote jongen (Cisco, HP, Extreme, Foundry etc.) Netgear is leuk voor thuis gebruik maar imho niet om een geheel bedrijfs netwerk mee op te bouwen.

Deze vraag begrijp ik niet
Hoe verbind ik de "hoofdswitch" van een patchkast met de andere switches in die kast?
Ik bedoel bijvoorbeeld een switch waar 6 kabels ingeprikt zitten van een esx server. Kun je die gewoon keihard doorlussen met een trunk van een stuk of 4 kabels?

Specs!


  • reconf
  • Registratie: December 2008
  • Laatst online: 12-10-2024
Johnny E schreef op zondag 07 december 2008 @ 14:52:
Deze vraag begrijp ik niet

[...]
sorry, beetje raar geformuleerd.

We hebben een ESX server met een quad intel nic. Deze 4 kabels lopen naar de hoofdswitch (is een trunk).

De switches onder de hoofdswitch (waar de werkstations op zitten) zijn met deze hoofdswitch verbonden met een 1gbit uplink.
Hoe zorg ik dat de grote bandbreedte van de hoofdswitch naar de esx server zo goed mogelijk benut kan worden door de werkstations?
Bijvoorbeeld trunks maken van 2 of 4 kabels vanaf de hoofdswitch naar alle onderliggende switches?

  • BHQ
  • Registratie: November 2003
  • Laatst online: 03-03 17:49

BHQ

Wederom, zit er een link continu 100% vol (behalve evt. die naar een workstation, waarvan de kans ook erg klein is)? Heb je echt zo'n dikke server die ook werkelijk in staat is +400MB/sec over het netwerk te persen?

  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 07-02 09:48

TrailBlazer

Karnemelk FTW

ik neem aan dat je met trunks 4 fysieke verbindingen gecombineerd tot 1 logische bedoelt. In Cisco termen is dat namelijk een etherchannel. Een trunk heb je als je meerdere vlans dmv ISL of DOT1Q over een fysieke of logische verbinding switched.
Als je je zorgen maakt over de bandbreedte vanaf de switches naar de core switch dan maak je dus hier trunks (of etherchannels) voor aan.
Overigens werkten we bij mijn vorige wergever met een oversubscription van 1:48 van de access-switches naar de core switches.

  • Edgarz
  • Registratie: Oktober 2005
  • Laatst online: 06-02 18:58

Edgarz

Tweako-active since1986

Misschien een Forum topic naar beneden: "Professional networking and servers"? 300 werkplekken vraagstuk valt hier wel onder vermoed ik....

  • reconf
  • Registratie: December 2008
  • Laatst online: 12-10-2024
TrailBlazer schreef op zondag 07 december 2008 @ 17:05:
ik neem aan dat je met trunks 4 fysieke verbindingen gecombineerd tot 1 logische bedoelt. In Cisco termen is dat namelijk een etherchannel. Een trunk heb je als je meerdere vlans dmv ISL of DOT1Q over een fysieke of logische verbinding switched.
Als je je zorgen maakt over de bandbreedte vanaf de switches naar de core switch dan maak je dus hier trunks (of etherchannels) voor aan.
Overigens werkten we bij mijn vorige wergever met een oversubscription van 1:48 van de access-switches naar de core switches.
Ik bedoel inderdaad een "etherchannel" (in geval van cisco dus), alle fabrikanten hebben er een eigen naam voor. Teaming, link aggregation etc.

Is een overboeking van 1:50 een goede waarde om aan te houden van access -> core? Dit zou betekenen dat ik naar elke patchkast minimaal 2 x 1gbit glas moet hebben.

[ Voor 8% gewijzigd door reconf op 07-12-2008 18:30 ]


  • TrailBlazer
  • Registratie: Oktober 2000
  • Laatst online: 07-02 09:48

TrailBlazer

Karnemelk FTW

Dat ligt natuurlijk sterk aan het verkeersgedrag wat je hebt. Meten is weten in dit geval. 1 op 100 lijkt me veel. Ik weet alleen niet waar al het verkeer heen gaat natuurlijk. Zijn de servers in staat totaal een load van meer dan 3 gigabit te genereren en komt dit uberhaupt ooit voor.
Als je toch nieuw glas moet laten leggen dan zullen de kosten voor de fibers waarschijnlijk een stuk lager zijn dan de kosten van het leggen op zich. Leg dan wat extra neer. Kijk ook goed naar de toekomst. Wil je upgraden naar 10 gigabit over een aantal jaar dan zal je of 9 mu singe mode moeten hebben of 50 mu multimode. Afstand mag dan niet meer zijn dan 300 meter ofzo.
Pagina: 1