Ik zoek een brute switch

Pagina: 1
Acties:
  • 111 views sinds 30-01-2008
  • Reageer

  • Ulx
  • Registratie: Oktober 2000
  • Laatst online: 05-12-2022

Ulx

Wizard

Topicstarter
En dan bedoel ik ook een brute.

Info: 15 servers + 250 werkstations.
Nu draait alles op een switched tokenring netwerk, met een Madge Ringswitch als backbone en deskstreams als werkgroepswitches (gepatched op de lokaties, via 1 UTP verbonden met de backbone), maar we willen naar Gigabitknetternet voor de servers en 100mb etternet naar de desktop.

Kort plan van aanpak: Deskstreams uitrusten met ethernetmodules, deze op 100mb aansluiten op een zware backbone switch. Servers voorzien van Gigabit NIS's en deze daar ook op. Ethernet werkgroepswitches aanschaffen, op 1 Gb naar de backbone en met 100mb naar de desktop. Op deze manier kunnen we rustig de desktops en netwerkprinters migreren tegen relatief geringe investeringskosten in het oude tokenring gedeelte.

Nou is de vraag: Wat voor backboneswitch heb ik nodig?

eisen: minimaal 16 1 Gb poortjes
minimaal 48 100mb poortjes. (voor de pc's van de IT afdeling, aparte werkgroepswitches hebben we dan niet nodig.)

wensen: Uitbreidbaar
eventueel router, aangezien onze huidige routers allemaal TRN based zijn en waarschijnlijk vervangen moeten worden.

Dus shoot, en geef mij eens wat adviezen hoe ik die halve of hele ton kan verspillen aan dit soort bende? Wat voor dingetje kan ik nou het beste gaan kopen?

(en nee: een 486 met linux en een berg netwerkkaarten voldoet niet!)

Assignment rejected by specialist


  • witchdoc
  • Registratie: Juni 2000
  • Laatst online: 04-05 19:00
mm, dit lijkt me eerder een vraag die je irl aan mlogelijke leveranciers kan stellen toch?
Extreme kan dit zeker aan al klaagden mijn collega's (certifeied extreme) dat er tegenwoordig veel uitval was met slechte rma afhandeling (sluit onderhoudscontract af dus!)

  • Ulx
  • Registratie: Oktober 2000
  • Laatst online: 05-12-2022

Ulx

Wizard

Topicstarter
Op donderdag 10 januari 2002 15:46 schreef poohbeer het volgende:
mm, dit lijkt me eerder een vraag die je irl aan mlogelijke leveranciers kan stellen toch?
Extreme kan dit zeker aan al klaagden mijn collega's (certifeied extreme) dat er tegenwoordig veel uitval was met slechte rma afhandeling (sluit onderhoudscontract af dus!)
Extreme? Ik ken dat merk niet, tnx. Ik zal hun site eens checken.

Ik zie zelf door de bomen het bos niet meer, aangezien de 3com's, cisco's, bay's en nortel's en wat voor zooi nog meer me om de oren vliegen. En uiteraard is een onderhoudscontract voorzien. We're talking mission critical here.

Maar ik zoek dus voornamelijk een richting om te zoeken, het definitieve advies krijg ik wel van de leverancier. Ik ben opgegroeid met Token Ring en ik weet niet zo heel veel van Knetternet.

Assignment rejected by specialist


Verwijderd

//off topic
blijft er bij dat vervangen toevallig een IBM token-ring -> ethernet bridge over? (8226 als ik me niet vergis)

Wat ga je met de oude token-ring apperatuur doen?

  • Powermage
  • Registratie: Juli 2001
  • Laatst online: 17-03 18:10
uuh een 3com corebuilder mischien ?

zijn vele mogelijkheden mee.

chek een goede 3com leverancier eens ervoor.

Join the club


  • Ulx
  • Registratie: Oktober 2000
  • Laatst online: 05-12-2022

Ulx

Wizard

Topicstarter
Op donderdag 10 januari 2002 15:57 schreef hezik het volgende:
//off topic
blijft er bij dat vervangen toevallig een IBM token-ring -> ethernet bridge over? (8226 als ik me niet vergis)

Wat ga je met de oude token-ring apperatuur doen?
Nope, we gebruiken Madge spullen. Wat er met dat oude spul gaat gebeuren weet ik niet.

Assignment rejected by specialist


  • HermeS
  • Registratie: Maart 2000
  • Laatst online: 04-05 10:51
ik weet niet wat er op dat netwerk gebeurd maar is dat niet zwaare overkill, als je maar 250 gebruikers hebt!

  • iNSaNe-oNe
  • Registratie: Augustus 2000
  • Laatst online: 23:49

iNSaNe-oNe

Ja, ik ben pluizig en blauw!

Mag ik voorstellen: de Cisco 6509. :9~ :9~ :9~

Onderdeel van de Cisco 6000-serie, meer info op http://www.cisco.com/univercd/cc/td/doc/pcat/ca6000.htm

Zeker NIET de goedkoopste, maar wel het meest schaalbare. Misschien een beetje overkill voor jouw situatie (misschien ook niet), maar zeker niet verkeerd. :)

Ik denk inderdaad ook dat een sales-afdeling meer advies kan geven over de specifieke wensen en mogelijkheden die jij zoekt.

Succes in ieder geval bij het maken van een juiste keuze!

... en oranje! :P


  • Ulx
  • Registratie: Oktober 2000
  • Laatst online: 05-12-2022

Ulx

Wizard

Topicstarter
Op donderdag 10 januari 2002 16:07 schreef HermeS het volgende:
ik weet niet wat er op dat netwerk gebeurd maar is dat niet zwaare overkill, als je maar 250 gebruikers hebt!
Ja en nee, we willen gewoon klaar zijn. De migratie van tokenring naar ethernet kost hoe dan ook een vermogen. We willen de servers op Gigabit brengen, en de gebruikers op 100mb zetten. We hebben een aantal zware, netwerkintensieve, applicaties draaien. En we willen voorkomen dat we over een paar jaar weer opnieuw kunnen beginnen.

Assignment rejected by specialist


  • Dutchman!
  • Registratie: Januari 2000
  • Laatst online: 03-05 18:31
Is het niet 'handiger' het gbit en het desktop sigment te scheiden? Dus een backbone switch met flink wat gbit poorten, en enkele 'desktop' switches met gbit uplink mogelijkheid. Dan ben je bij groei misschien net wat flexibeler :)

We spend our years as a tale that is told


  • Ulx
  • Registratie: Oktober 2000
  • Laatst online: 05-12-2022

Ulx

Wizard

Topicstarter
Op donderdag 10 januari 2002 17:13 schreef Dutchman! het volgende:
Is het niet 'handiger' het gbit en het desktop sigment te scheiden? Dus een backbone switch met flink wat gbit poorten, en enkele 'desktop' switches met gbit uplink mogelijkheid. Dan ben je bij groei misschien net wat flexibeler :)
Wellicht, ik ben daar nog niet helemaal uit. Als het een modulair systeem gaat worden (en dat denk ik wel) is het niet echt een issue (de huidige bekabeling staat een grote groei niet echt meer toe. Mocht er een enorme groei plaatsvinden dan moeten we een extra patchkast bouwen.) Maar de grootste groei van het aantal werkplekken is op locatie, en die verbinding gaat inderdaad via een gbit uplink naar de backbone. Maar ik sluit niets uit, als het veel goedkoper zou zijn om jouw suggestie uit te voeren doen we zoiets natuurlijk.

Assignment rejected by specialist


  • TeeDee
  • Registratie: Februari 2001
  • Laatst online: 19:12

TeeDee

CQB 241

is het gewoon niet handiger om een specialist in te schakelen, een afspraak maken, plan maken (die gasten komen graag langs om even rond te kijken hoe de huidige structuur is) en dan kan je altijd nog overwegen of je met die persoon in zee stapt.

Weet je zowiezo dat het goed is...

[niet bedoeld als flame]
iedereen kan hier wel roepen je moet dit of dat nemen, maar er zitten toch altijd wel een paar bottlenecks en die specialisten komen langs om dat uit te vogelen...
[/niet bedoeld als flame]

Heart..pumps blood.Has nothing to do with emotion! Bored


  • Ulx
  • Registratie: Oktober 2000
  • Laatst online: 05-12-2022

Ulx

Wizard

Topicstarter
Op donderdag 10 januari 2002 17:42 schreef TeeDee het volgende:
is het gewoon niet handiger om een specialist in te schakelen, een afspraak maken, plan maken (die gasten komen graag langs om even rond te kijken hoe de huidige structuur is) en dan kan je altijd nog overwegen of je met die persoon in zee stapt.

Weet je zowiezo dat het goed is...

[niet bedoeld als flame]
iedereen kan hier wel roepen je moet dit of dat nemen, maar er zitten toch altijd wel een paar bottlenecks en die specialisten komen langs om dat uit te vogelen...
[/niet bedoeld als flame]
Sure, dat doen we ook wel, maar het punt is: Ik ben tokenringjongetje. En daarmee was het makkelijk: Je had IBM en je had Madge. Nu wil men knetternet, en nu zie ik door alle fabrikanten niet meer welke goed zijn en welke niet. De uiteindelijk implementatie gaat toch parallel aan de huidige infrastructuur gedaan worden, dus testmogelijkheden zijn er wel. En uiteraard nemen we zo'n machine een tijdje op proef.

Overigens is TRN switching niet echt een probleem voor me. Het netwerk zoals er nu in dat kantoor ligt is een ontwerp van mij (de LAN side dan.). Ik verwacht ook weinig problemen op dat vlak te hebben met ethernet. Nou ja, een cursus volgen is wel nodig.

Assignment rejected by specialist


  • TeeDee
  • Registratie: Februari 2001
  • Laatst online: 19:12

TeeDee

CQB 241

Owke,

dan heb ik niks gezegd ;)

veel succes... tis toch altijd wel "horny" om zoiets te doen :9

Heart..pumps blood.Has nothing to do with emotion! Bored


  • T-h-i-j-s
  • Registratie: April 2000
  • Laatst online: 21-04 13:18

T-h-i-j-s

koffie? ja lekker :)

Mij lijkt een (of meerdere) HP4108GL wel een goeie optie.

Zeer uitbreidbaar en modulair van opzet. Je kunt elke combinatie aan poorten erin kwijt. Je kunt er zelfs layer3 functionaliteit aan geven, als het moet.
Standaard biedt deze al ondersteuning voor vele standaarden en HP is druk bezig om deze lijst uit te breiden :)

  • JJJ
  • Registratie: Mei 2000
  • Laatst online: 20:50

JJJ

Iig nog even over dat gigabit, heb je dat wel echt nodig?

Je zou eigenlijk ook 2 100 mbit kaarten in een server kunnen trunken, dus 200 mbit. Responsetimes zijn hoger en snelheden ongeveer gelijk (ik geloof dat ik zoiets had gelezen op t.net, pin me er niet op vast).
Dat zou misschien ook iets kunnen zijn om naar te kijken. Dan heb je geen dure gigabitspulletjes nodig.

  • jep
  • Registratie: November 2000
  • Laatst online: 02-05 15:27

jep

Op donderdag 10 januari 2002 22:02 schreef JJJ het volgende:
Iig nog even over dat gigabit, heb je dat wel echt nodig?

Je zou eigenlijk ook 2 100 mbit kaarten in een server kunnen trunken, dus 200 mbit. Responsetimes zijn hoger en snelheden ongeveer gelijk (ik geloof dat ik zoiets had gelezen op t.net, pin me er niet op vast).
Dat zou misschien ook iets kunnen zijn om naar te kijken. Dan heb je geen dure gigabitspulletjes nodig.
Het gaat hier natuurlijk niet om een tweaker die centjes van zijn oma heeft gekregen, maar een groot bedrijf dat nog een tijd met het spul kan doen. Ik denk dat je het dan beter goed kan doen. Met Gigabit ethernet.

  • Autonoesis
  • Registratie: Oktober 2000
  • Laatst online: 03-05 13:47
Zou in 1e instantie voor de cisco 6000 serie gaan als backbone, heeft ook erg veel uitbreid mogelijkheden

maar kun je voor die 48 workstations in de it afdeling niet beter 2 of 3 switches aanschaffen met evt. een 1gbit uplink naar de backbone lijkt me toch een goedkopere oplossing

  • Dutchman!
  • Registratie: Januari 2000
  • Laatst online: 03-05 18:31
ja hij is bruut, maar de prijs is dodelijk, ook voor een middelgrote onderneming :P

(was reactie op sugar's link natuurlijk)

We spend our years as a tale that is told


Verwijderd

Misschien andere serie van extreem. Vind het zelf erg fijne switches om mee te werken.

http://www.networkcomputing.com/1104/1104f2.html staat denk ik wel wat info in.

  • magneet
  • Registratie: Juli 2001
  • Laatst online: 22-04 16:37

magneet

Magnetic enhanced

waar ik zit/zat hebben ze nortel switches, die zijn dus echt zwaar :r de oude cisco meuk die ze hadden was dus echt veel beter maar ja ze moesten het zaakje zonodig vervangen

You have the right to remain silent
everything you say will be misquoted
and used against you in a court of law


  • Koffie
  • Registratie: Augustus 2000
  • Laatst online: 22:31

Koffie

Koffiebierbrouwer

Braaimeneer

Goed onderbouwd ook , die repy ...

Tijd voor een nieuwe sig..


  • DeeJee
  • Registratie: Maart 2000
  • Laatst online: 23-12-2024

DeeJee

Dus...

Op donderdag 10 januari 2002 16:08 schreef iNSaNe-oNe het volgende:
Mag ik voorstellen: de Cisco 6509. :9~ :9~ :9~
Dat ding is echt VET

Money for nothin' and your chicks for free


  • bertje
  • Registratie: Augustus 2000
  • Laatst online: 08-01 14:21
bij mij op me werk hebben we in de serverruimte glasvezelkabeltjes tussen de servers liggen :9~ maar ik zou eens ff kijken naar 3com/cisco voor leuke switches

  • magneet
  • Registratie: Juli 2001
  • Laatst online: 22-04 16:37

magneet

Magnetic enhanced

als je mijn reply bedoelde koffie heb je nog gelijk ook, maar het enige wat ik erover kan zeggen is is dat ze vaker onderuitgaan of problemen hebben dan de cisco apparatuur. Waardoor dat komt weet ik ook niet dat moet je aan de netwerkmannen vragen.

You have the right to remain silent
everything you say will be misquoted
and used against you in a court of law


  • TheGhostInc
  • Registratie: November 2000
  • Niet online
De reactie van 2 100Mbit lijntjes ipv 1 GB is helemaal niet zo'n gekke oplossing.
Het klinkt misschien als een getweakde oplossing bij sommige mensen, maar je hebt dan wel redundancy (pokke woord).

Het is alvast een zinnige opmerking.
* TheGhostInc 's 2 cents.

  • JJJ
  • Registratie: Mei 2000
  • Laatst online: 20:50

JJJ

Op vrijdag 11 januari 2002 19:10 schreef TheGhostInc het volgende:
De reactie van 2 100Mbit lijntjes ipv 1 GB is helemaal niet zo'n gekke oplossing.
Het klinkt misschien als een getweakde oplossing bij sommige mensen, maar je hebt dan wel redundancy (pokke woord).

Het is alvast een zinnige opmerking.
* TheGhostInc 's 2 cents.
Dat is idd ook een voordeel. En waarom moeten 2 100 mbit netwerkkaarten gelijk speelgoed zijn? Het zou een alternatief kunnen zijn.

  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 04-05 14:43

_Arthur

blub

Ik heb in 1999 een mooi netwerk layout gemaakt voor een netwerk feestje. Het netwerk is opgebouwd uit Cisco apparatuur.

De Cisco 4006 layer3 routing switch als core switch. En Cisco 3500xl's (24x 10/100 + 2x gbit ports) als desktop switches.

De 4006 kan tot 120 gigabit porten worden volgezet. Je hebt +/- 12 desktop switches nodig om aan je 250 10/100mbit poorten te komen. Hier gebruik je de 3500xl's voor met fiber gbics of copper gbics (1000base-sx of 1000base-tx) en 2 gigabit uplinks naar je 4006. Totaal 24 gigabit poorten nodig voor je desktop switches. Nog eens 15 gigabit poorten nodig voor je servers. In totaal (uitgaande van copper gbit verbindingen) heb je dan van je 6 bruikbare sloten in je 4006 er 3 in gebruik (1x supervisorII engine en 2x24 ports 10/100/1000gbit copper rj45) en heb je nog 3 sloten over voor uitbreidingen van je netwerk.

Voor een leuk plaatje (powerpoint 2000) kan je hier kijken : http://www.questionmark.nl/netwerk-450clients.ppt

Wil je meer weten roep even dan mail ik je.

Snel geschat kosten plaatje, gevulde 4006 (35.000$) + 12x 2100$ voor de 3524xl's = +/- 60.200$ + hierbij de gbics + de meters fiber + de onderhouds contracten.

  • JackBol
  • Registratie: Maart 2000
  • Niet online

JackBol

Security is not an option!

Op vrijdag 11 januari 2002 22:09 schreef _Arthur de eerste fatsoenlijke reply
nou, als je veen verstand van TR-netwerken hebt, zul je ook wel kennis hebben van >layer2 protocollen.
want al je layer 1 en 2 kennis kan je overboord zetten als je migreert van TR naar Eth.

Als eerst wil ik je een goede fabrikant aanraden: Cisco.com
Dit zijn (in mijn ogen) gewoon de beste leveranciers van netwerk apparatuur.

Daarnaast wil ik je vast een beetje een idee geven over je structuur. Ik weet niet hoe het met TR zat, maar als je een groot ethernet netwerk aan gaat leggen, moet je gebruik maken van de 3-layers-architecture wat zovel inhoud als: koop nie 1 router of switch (zeker geen Cat6000) en hang daat alle apparatuur op. Gegarandeerd dat het goed fout gaat. Maar begin met een simpel ontwerp vanuit de core. Vandaaruit ga je kleinere switches gebruiken, waar de users op zitten.

Klein ideetje:

- 2 cisco 5505's redundant langs elkaar.
- 8 x cisco 2948. heeft 48 FE poorten en minimaal 2 GBICs.

hang de 2948's via 2 glasvezelkabels aan allebei de core switches.

je basisnetwerk staat. nu ga je groepen maken van pc's die je bij elkaar wilt.

Als je veel energie hebt, ga je VLAN's gebruiken. Maar als er binnen de werkgroep veel data verstuurd gaat worden, zou is ze fysiek op de zelfde switch hangen. (Je kan dan nog altijd VLANs maken) om de backbone te ontlasten.

Voor de servers meot je kijken. Een DNS server heeft echt wel genoeg aan een 100mbit interface. Een DC of webserver ook wel.
Pas als je zware fileservers, of FTP servers hebt, is het nuttig om een gigabit interface in die computers te knikkeren.

Ik geef dit nu als een simpel beeldje. Je zult echt nog wel met iemand die er echt verstand van heeft, (CCNP'er of CCDP'er) over moeten praten. Maar nu heb je vast een ideetje wat het inhoud.

veel succes met je migratie.

Opbrengst van mijn Tibber Homevolt met externe kWh meter. | Opbrengst van mijn Tibber Homevolt volgens de Tibber Data API.


  • HermeS
  • Registratie: Maart 2000
  • Laatst online: 04-05 10:51
just to be sure.
Op zaterdag 12 januari 2002 02:03 schreef Dirk-Jan het volgende:
Ik geef dit nu als een simpel beeldje. Je zult echt nog wel met iemand die er echt verstand van heeft, (CCNP'er of CCDP'er) over moeten praten. Maar nu heb je vast een ideetje wat het inhoud.
echt ccdp/ccnp of is CCNA/CCDA ook al genoeg?

Verwijderd

Zoow, hier heb je ff wat kontschoppend materiaal om in je begroting op te nemen:

http://www.extremenetworks.com/products/core.asp

Afbeeldingslocatie: http://www.extremenetworks.com/products/prod_photos/blackdiamond.gif

:9~

Dit zou voor jouw geval nog niet eens zo'n slechte kandidaat zijn.

  • JackBol
  • Registratie: Maart 2000
  • Niet online

JackBol

Security is not an option!

Op zondag 13 januari 2002 22:43 schreef HermeS het volgende:
just to be sure.
[..]

echt ccdp/ccnp of is CCNA/CCDA ook al genoeg?
ik ken CCNA'ers die ik dit met een gerust hard in elkaar laat zetten, en ik ken CCNA'ers, die ik mijn IP adres nog niet laat instellen, het ligt er maar net aan wat voor CCNA'er je voor je hebt. En van een CCNP'er kun je toch wat meer op zijn kennis aan.

vandaar :+

Opbrengst van mijn Tibber Homevolt met externe kWh meter. | Opbrengst van mijn Tibber Homevolt volgens de Tibber Data API.


  • Concrete
  • Registratie: Februari 2000
  • Laatst online: 02-11-2015

Concrete

Just press the button...

Is in de opzet die topicstarter voor ogen heeft de gezochte 'brute switch' niet een SPOF in de communicatie tussen/van/naar alle servers?? Als íe werkelijk zo mission critical is, zou ik daar eerst verandering in brengen...

Beton is koel. Een Alpha is koeler.


  • Concrete
  • Registratie: Februari 2000
  • Laatst online: 02-11-2015

Concrete

Just press the button...

Tweakers gebruikt een router van Juniper. Ik vond afgelopen weekend uit dat XS4All ook Juniper gebruikt in de kern van hun netwerk.

* Concrete weet opeens niet zo zeker of Juniper ook switches bouwt....

Beton is koel. Een Alpha is koeler.


  • JackBol
  • Registratie: Maart 2000
  • Niet online

JackBol

Security is not an option!

Ik de core van je netwerk zit geen router maar een switch.

die juniper die t.net gebruikt, is voor de remote connectivity.

Opbrengst van mijn Tibber Homevolt met externe kWh meter. | Opbrengst van mijn Tibber Homevolt volgens de Tibber Data API.


  • Concrete
  • Registratie: Februari 2000
  • Laatst online: 02-11-2015

Concrete

Just press the button...

Op maandag 14 januari 2002 15:18 schreef Dirk-Jan het volgende:
Ik de core van je netwerk zit geen router maar een switch.
[...]
Het was ook mij niet ontgaan dat topicstarter een switch nodig had... :Y)

Beton is koel. Een Alpha is koeler.


  • -=unicron=-
  • Registratie: Maart 2001
  • Laatst online: 13-04 09:58

-=unicron=-

Betrayal can never be forgiven

Op zaterdag 12 januari 2002 02:03 schreef Dirk-Jan het volgende:

[..]

nou, als je veen verstand van TR-netwerken hebt, zul je ook wel kennis hebben van >layer2 protocollen.
want al je layer 1 en 2 kennis kan je overboord zetten als je migreert van TR naar Eth.

Als eerst wil ik je een goede fabrikant aanraden: Cisco.com
Dit zijn (in mijn ogen) gewoon de beste leveranciers van netwerk apparatuur.

Daarnaast wil ik je vast een beetje een idee geven over je structuur. Ik weet niet hoe het met TR zat, maar als je een groot ethernet netwerk aan gaat leggen, moet je gebruik maken van de 3-layers-architecture wat zovel inhoud als: koop nie 1 router of switch (zeker geen Cat6000) en hang daat alle apparatuur op. Gegarandeerd dat het goed fout gaat. Maar begin met een simpel ontwerp vanuit de core. Vandaaruit ga je kleinere switches gebruiken, waar de users op zitten.

Klein ideetje:

- 2 cisco 5505's redundant langs elkaar.
- 8 x cisco 2948. heeft 48 FE poorten en minimaal 2 GBICs.

hang de 2948's via 2 glasvezelkabels aan allebei de core switches.

je basisnetwerk staat. nu ga je groepen maken van pc's die je bij elkaar wilt.

Als je veel energie hebt, ga je VLAN's gebruiken. Maar als er binnen de werkgroep veel data verstuurd gaat worden, zou is ze fysiek op de zelfde switch hangen. (Je kan dan nog altijd VLANs maken) om de backbone te ontlasten.

Voor de servers meot je kijken. Een DNS server heeft echt wel genoeg aan een 100mbit interface. Een DC of webserver ook wel.
Pas als je zware fileservers, of FTP servers hebt, is het nuttig om een gigabit interface in die computers te knikkeren.

Ik geef dit nu als een simpel beeldje. Je zult echt nog wel met iemand die er echt verstand van heeft, (CCNP'er of CCDP'er) over moeten praten. Maar nu heb je vast een ideetje wat het inhoud.

veel succes met je migratie.
Als ik mijn LanParty hauw koop ik een Cisco Catalyst 4912G met 6 1000BaseSX GBIC's. Dat wood dan de core switches van het netwerk. maar wat kost die switch een geld :'(

AMD Ryzen 7 3800X/MSI MPG X570 Gaming Plus/HyperX Fury RGB HX432C16FB3AK2/64/Inno3D GeForce RTX 3060 TWIN X2 OC 12GB/Samsung SSD 850 EVO 500GB/2XSamsung 870 QVO 2TB


  • Ulx
  • Registratie: Oktober 2000
  • Laatst online: 05-12-2022

Ulx

Wizard

Topicstarter
Op vrijdag 11 januari 2002 22:09 schreef _Arthur het volgende:
Ik heb in 1999 een mooi netwerk layout gemaakt voor een netwerk feestje. Het netwerk is opgebouwd uit Cisco apparatuur.

De Cisco 4006 layer3 routing switch als core switch. En Cisco 3500xl's (24x 10/100 + 2x gbit ports) als desktop switches.

De 4006 kan tot 120 gigabit porten worden volgezet. Je hebt +/- 12 desktop switches nodig om aan je 250 10/100mbit poorten te komen. Hier gebruik je de 3500xl's voor met fiber gbics of copper gbics (1000base-sx of 1000base-tx) en 2 gigabit uplinks naar je 4006. Totaal 24 gigabit poorten nodig voor je desktop switches. Nog eens 15 gigabit poorten nodig voor je servers. In totaal (uitgaande van copper gbit verbindingen) heb je dan van je 6 bruikbare sloten in je 4006 er 3 in gebruik (1x supervisorII engine en 2x24 ports 10/100/1000gbit copper rj45) en heb je nog 3 sloten over voor uitbreidingen van je netwerk.

Voor een leuk plaatje (powerpoint 2000) kan je hier kijken : http://www.questionmark.nl/netwerk-450clients.ppt

Wil je meer weten roep even dan mail ik je.

Snel geschat kosten plaatje, gevulde 4006 (35.000$) + 12x 2100$ voor de 3524xl's = +/- 60.200$ + hierbij de gbics + de meters fiber + de onderhouds contracten.
Tnx,

hier heb ik wat aan (de rest ook bedankt, btw.)

Overigens ben ik wel van plan om de werkgroepswitches te stacken en dat over 1 of 2 Gigabit koperkabels te laten draaien. Het aantal Gbit ports op de backbone gaat neem ik aan in stappen van 8 per kaart, dus het zullen er iig zo'n 24 worden. Fiber doen we niet (ik krijg dat er nooit doorheen bij mijn management.)

Mocht ik de werkgroepswitch die ik nu in de server heb kunnen vervangen door een reeks 100mb uitbreidingskaarten in de backbone doe ik dat liever. (zeker als dat qua kosten, naar verhouding, weinig uitmaakt.)

Assignment rejected by specialist


  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 04-05 14:43

_Arthur

blub

Gbit copper tov fiber scheelt een boel centen.
Mocht geld toch nog een 'normale' rol spelen. Dan kan je ook eens naar Foundry switches kijken (HP gebruikt deze switches in de high-end hp switches).
HP zelf is ook erg intressant.

Klein setupje in HP (gigabit copper):

Een mooie 9308 routing switch als backbone.
Deze bied plaats aan 8 insteekkaarten. De 1000baset's komen met 8poorten per kaart. 15 voor je servers, 12 voor je desktop switches. 27stuks in totaal nodig en dus 4 sloten verbruikt. Hou je er nog 4 over voor toekomstige uitbreidingen.

En hierbij een 10 a 12tal 2524's. Managed 24ports 10/100mbit switches met mogelijkheid tot 2x gigabit copper porten.

Wat kost het (volgens de HP site):

HP procurve routing switch 9308m
J4138A $12,545 1item $12,545

HP Procurve Switch 2524
J4813A $875 12items $10,500

HP ProCurve 9300 Redundant Power Supply
J4147A $2,349 1item $2,349

HP Procurve 9300 1000Base-T Module Gigabit-Over-Copper Solutions
J4842A $7,839 4items $31,356

HP Procurve 100/1000-T Transceiver
J4834A $289 24items $6,936

Total $63,686.00

Ik zou zeggen, benader een aantal fabrikanten en laat ze eens een leuk kosten plaatje opstellen. Per merk scheelt dit soms 10-duizenden guldens voor een zelfde setup.

Verwijderd

Het lijkt me dat je de keuze qua apparatuur pas kunt maken zodra je een geografische voorstelling van het gebouw hebt kun je bepalen of het ontwerp in gedachte layer1 te realiseren is (denk hierbij ook aan redundancy , daarna kun je inventariseren of je wilt swichen (ook niet routable protocollen zijn dan over het gehele netwerk bruikbaar)als je full ip of grouped ip wil gebruiken kun je vlannen en e.v.t. deze trunken als dit goed combineerd met je layer 1 plan.

met gigabit kun je veel hebben, maar met een goed plan/ontwerp kun je veel meer voorkomen en spaar je mega centjes. (10000 clients over 100mb fd backbone dus ik praat echt geen stieren poep)

  • weirdje
  • Registratie: Oktober 2001
  • Laatst online: 30-11-2021

weirdje

WEiRD runs Unix

Ook maar even mijn 0.02 Euro.

Het belangrijkste advies zou wat mij betreft ook zijn een switch voor de gigabit poorten los te zetten van de 'gebruikers' (100Mbit). Mijn merkvoorkeur gaat dan uit naar HP voor de 100Mbitters (zie andere replies) en naar Riverstone (het oude Cabletron) voor de GB spullen.

Dit was de meestgebruikte apparatuur op TakeOver 2001 en met reden.

HP maakt goede, compliant, switches met zaken als Auto-MDX (cross of niet ? maakt niet uit het werkt toch wel) en 802.1[a-z] zo'n beetje. En ze zijn voordelig, zien er mooi/gelikt uit en trekken behoorlijk wat PPS. De 12 of 24 poorts bakjes zijn uitbreidbaar met tot 2 GBIC's, de grotere jonges (4000 serie) zijn modulair en te configureren naar believen. De mogelijkheid deze jongens als layer 3 switch te gebruiken kan in de toekomst nog eens goed van pas komen. De 4000's zijn op zich ook goed te gebruiken voor het GBit spul.

Mocht je echter de centjes hebben, kijk eens naar Riverstone (http://www.riverstonenet.com/). Deze jongens verschuiven zo gigantisch veel pps, das niet helemaal gezond denk ik zo af en toe. Volledig ASIC based en altijd Layer-3 switching (tot 90 Mpps !!!). Een switching fabric tot 170 (!) Gbps.

Er is veel goed advies te vinden in deze thread en ieder heeft zijn eigen voorkeur natuurlijk. Maar orienteer je goed mbv website's van leveranciers en laat inderdaad wat lui langskomen om je te adviseren. Succes !

edit:
typo

Running Unix with a reason : it runs and keeps running.


  • localhost
  • Registratie: November 1999
  • Niet online

localhost

Ook in geel, groen, paars, wit

Is dit niet allemaal een beetje overkill ? We hebben het hier over 250 werkstationne-tjes en 15 servers.

Wat voor soort werkzaamheden voet men in hemelsnaam uit als men zoveel data wil verstouwen.

Denk eerst eens aan € 10/15.000,- ipv. € 100.000,-

Hebben jullie dit echt nodig ?

  • _Arthur
  • Registratie: Juli 2001
  • Laatst online: 04-05 14:43

_Arthur

blub

.. ze willen nu een goed netwerk aanleggen zodat ze dat over een jaar niet nog eens hoeven te doen.

En wat zou het niet kosten als die 250 werkstationnetjes een paar uurtjes niet kunnen netwerken omdat het lowbudget hubje/switchje dood is en men zelf naar de winkel kan lopen om een nieuwe te kopen.

Verwijderd

Op vrijdag 18 januari 2002 21:02 schreef localhost het volgende:
Hebben jullie dit echt nodig ?
Inderdaad... besef je wel dat je €400 per werkstation gaat uitgeven aan alleen maar netwerk? Dat is dus nog excl. workstations, servers, schijven, backup, etc. Als je daar ook zo met geld gaat smijten wordt de TCO wel erg hoog.

Ik zal zo ff een berichtje publiceren met mijn "advies"... ff geduld... ik ga eerst even eten...

Verwijderd

Op vrijdag 18 januari 2002 23:54 schreef _Arthur het volgende:
.. ze willen nu een goed netwerk aanleggen zodat ze dat over een jaar niet nog eens hoeven te doen.

En wat zou het niet kosten als die 250 werkstationnetjes een paar uurtjes niet kunnen netwerken omdat het lowbudget hubje/switchje dood is en men zelf naar de winkel kan lopen om een nieuwe te kopen.
Er zit natuurlijk een groot verschil tussen een cisco 6500 en een low-budget switchje...

en dan nog... 5 low-budget-switches op voorraad nemen voor als er eentje stuk gaat is nog altijd goedkoper dan een cisco 6500 :)

Verwijderd

Op donderdag 10 januari 2002 15:21 schreef Ulx het volgende:
Info: 15 servers + 250 werkstations.
[...]
Gigabitknetternet voor de servers en 100mb etternet naar de desktop.
Als ik jou was zou ik het volgende doen:

Schaf een aantal Cisco 3500 XL serie switches aan. Die kan je kopen met 12, 24 of 48 10/100 poorten. Afhankelijk van de verdeling tussen de verschillende kabelkasten kun je een combinatie hieruit maken. Bovendien hebben ze twee GBIC poorten, waarin je een Gigabit kaart kan stoppen met naar keuze 1000 Base-T of 1000 Base-SX.

Koop 2 van die dingen voor in de core van je netwerk. (waarschijnlijk is daar 48 ports de slimste oplossing), sluit daarop je servers aan, zo mogelijk met een dubbele connectie - dus 2 NIC's in je servers en naar beide Core's een kabel. Hou er rekening mee dat niet elke applicatie/OS hier mee zal werken... test het dus, of vraag het aan je leverancier!

Tussen de Core's maak je, m.b.v. Gigabit of een bundel van 2 of 4 100 Mbit (200 of 400 Mbps trunk).

Dan ga je verder naar elke Access-switch een 2x een trunk (vanuit de beide Core's dus) van 100 of 200 Mbit leggen, gewoon over Cat5 koper dus.

Zo ben je voor relatief weinig geld klaar, ik weet de prijzen van die dingen niet, maar ze zullen een stuk aantrekkelijker geprijsd zijn dan de 6500 serie.

Blijkt nu over een jaar of 2 jaar dat dit te weinig is, dan degradeer je je core-switches simpelweg tot access-switches (geen desinvestering dus) en schaf je 2 nieuwe core-switches aan, met Gigabit en dan kan je je trunks upgraden naar Gigabit, in je Access-switches kun je immers zo 2 GBIC's steken.

Je zou er op dat moment zelfs aan kunnen denken om maar 1 nieuwe core-switch te kopen, zodat je in het uitzonderlijke geval dat zo'n ding uitvalt, terugvalt van 1000 naar 100 of 200 Mbit, maar wel het geld van zo'n 6500 serie uitspaart...

Ik hoop dat je hier wat aan hebt...

Verwijderd

Op zondag 20 januari 2002 19:19 schreef jeroenr het volgende:

[..]

Blijkt nu over een jaar of 2 jaar dat dit te weinig is, dan degradeer je je core-switches simpelweg tot access-switches (geen desinvestering dus) en schaf je 2 nieuwe core-switches aan, met Gigabit en dan kan je je trunks upgraden naar Gigabit, in je Access-switches kun je immers zo 2 GBIC's steken.
Ik zat nog even op de Cisco-site rond te spoken en vond daar dit artikel: http://www.cisco.com/warp/public/cc/pd/si/casi/ca3500xl/prodlit/3500x_ds.htm

Daar hebben ze het over de 3508G, een 3500 met 8 GBIC's... prima geschikt als core-switch dus... behalve dat je dan je servers nog niet aan de Gigabit hebt...

Verwijderd

lo budget en low quality zijn nog altijd twee verschillende dingen.
Op vrijdag 18 januari 2002 23:54 schreef _Arthur het volgende:
.. ze willen nu een goed netwerk aanleggen zodat ze dat over een jaar niet nog eens hoeven te doen.

En wat zou het niet kosten als die 250 werkstationnetjes een paar uurtjes niet kunnen netwerken omdat het lowbudget hubje/switchje dood is en men zelf naar de winkel kan lopen om een nieuwe te kopen.
Pagina: 1