Toon posts:

Vervangen trage hubs met glasaansluiting

Pagina: 1
Acties:

Verwijderd

Topicstarter
We hebben hier een netwerk wat over het algemeen nog op 10Mb draait. Daar moet nodig iets aan veranderen, want alles gaat echt retetraag. In het hele pand staan 4 patchkasten met daarin een heleboel 10Mb hubs, een paar 10/100Mb hubs en welgeteld 2 (!) 10/100Mb switches. Alle apparatuur is van het merk Hirschmann.

Door het pand ligt glasvezel, maar volgens mij is dit ook nog eens traag. Bijna alles zit met 2x BFOC (Bayonet Fibre Optic Connector ook wel ST-plug) aangesloten, alleen de 2 switches zitten met DSC (Dual Straight Connector) aangesloten. In de hubjes die aan het glas zitten, is hiervoor een module geplaatst, FOREL staat hierop, meer niet. De switches hebben de Straight Connectors standaard erin zitten, en dit is 100 Base FX.

Helaas kan ik nergens ook maar een beejte informatie vinden over de volgende dingen: (Hirschmann heeft alleen info over de huidige productreeks op het net staan.)

- De hubjes waar de FOREL module inzit: ETH-12TP/M. Volgens mij moet dit op 10 Base FL werken. (?)

- Voor het overbruggen van de lange afstanden hebben we hier van die rail-dingen (ook helemaal niks meer over te vinden). Daar staat dus op: OZD Profi G3a, fibre optic module profibus. (?)

Het is dus de bedoeling, dat na het vervangen van het een en ander, bijna het hele netwerk op 100 Mb komt, en dan moet de backbone natuurlijk ook snel genoeg zijn. Vooral over dat laatste zit ik een beetje in. Het heeft natuurlijk nauwelijks nut, om die hubs te gaan vervangen door snellere switches, als alle data over zo'n iel lijntje naar de patchkast gaat, waar de servers gepatcht zitten.

Misschien een noob-vraag, maar hoe snel is die backbone die hier ligt nou eigenlijk? (Moet ik dan uitgaan van die OZD Profi G3a profibus? Dat kan dan weleens gaan tegenvallen vrees ik.) Ik kan er door het ontbreken van docs en tech. informatie van Hirschmann eigenlijk geen touw meer aan vastknopen.

Het gebruikte type kabel is: FRNC Belden Optical Cable G51 02NH 2x 62.5/125.

Heeft het nut, om gewoon een aantal 10Mb hubjes te gaan vervangen door 10/100Mb switches met een 100 Base FX aansluiting (1x transmit en 1x receive)??


Edit: Ik heb inmiddels iets meer info over die OZD Profi G3a profibus. Die dingen gaan op max 1,5 Mb zie ik hier (maximum-afstand 1,3 km.). Als ik 1 kast dus 3 van die dingen heb, dan heeft die patchkast dus 3x een 1,5 Mb verbinding met de backbone?? (Think so...) Ik vrees, dat die dingen ook vervangen moeten worden dan. Verklaart in ieder geval de extreme traagheid.

[ Voor 9% gewijzigd door Verwijderd op 19-06-2003 19:12 ]


Verwijderd

Topicstarter
Ik ben er dus al deels uit. Nu snap ik ook, waarom er in 1 patch-kast bijv. 4 aansluitingen op de backbone zijn. Elke 10Mb hub zat in het begin via een 1,5 Mb verbinding aan de backbone. Dat zijn ze gaan uitbreiden en uitbreiden d.m.v. uplinken. Niks gek, dat alles nu zo traag is.

Mijn conclusie (en dat mag ik morgen aan de baas gaan uitleggen... :'( ): Het heeft geen zin om alleen hubjes te gaan vervangen, er zullen ook nieuwe rail-switches aangeschaft moeten worden. 1 rail-switch per patchkast met 1x 100 Base FX (Full Duplex) en 4x TP 10/100Mb zou genoeg moeten zijn voor een flinke verbetering van de performance. Dan hoeven er geen switches met 100 Base FX modules aangeschaft te worden, maar kan worden volstaan met simpele workgroup-switches. Maar dat zal per saldo wel een stuk duurder gaan worden....

Of ziet iemand, dat ik nu fout redeneer????

Kan ik trouwens, als ik nieuwe rail-switches aanschaf, in 1 patchkast gebruik blijven maken van die oude dingen (OZD Profi......) zonder dat dit de performance van de nieuw aan te schaffen railswitches beinvloedt?

[ Voor 20% gewijzigd door Verwijderd op 19-06-2003 19:54 ]


Verwijderd

Topicstarter
Verwijderd schreef op 19 June 2003 @ 19:34:
Ik ben er dus al deels uit. Nu snap ik ook, waarom er in 1 patch-kast bijv. 4 aansluitingen op de backbone zijn. Elke 10Mb hub zat in het begin via een 1,5 Mb verbinding aan de backbone. Dat zijn ze gaan uitbreiden en uitbreiden d.m.v. uplinken. Niks gek, dat alles nu zo traag is.

Mijn conclusie (en dat mag ik morgen aan de baas gaan uitleggen... :'( ): Het heeft geen zin om alleen hubjes te gaan vervangen, er zullen ook nieuwe rail-switches aangeschaft moeten worden. 1 rail-switch per patchkast met 1x 100 Base FX (Full Duplex) en 4x TP 10/100Mb zou genoeg moeten zijn voor een flinke verbetering van de performance. Dan hoeven er geen switches met 100 Base FX modules aangeschaft te worden, maar kan worden volstaan met simpele workgroup-switches. Maar dat zal per saldo wel een stuk duurder gaan worden....

Of ziet iemand, dat ik nu fout redeneer????

Kan ik trouwens, als ik nieuwe rail-switches aanschaf, in 1 patchkast gebruik blijven maken van die oude dingen (OZD Profi......) zonder dat dit de performance van de nieuw aan te schaffen railswitches beinvloedt?
Edit: Als er iemand trouwens links heeft naar wat algemene informatie over "profibus" e.d. zou dat heel handig zijn. Ik zoek me rot, maar vind echt helemaal niks bruikbaars...

:( Verkeerde knopje.... 8)7

  • Flyduck
  • Registratie: Juni 2001
  • Laatst online: 28-03-2025
In discussie met jezelf?

Zijn er mensen die deze regel lezen? Graag terugkoppeling gewenst (onopvallend)


  • Coen Rosdorff
  • Registratie: Januari 2000
  • Niet online
Leuke klus om te doen dit: Oude netwerk in kaart brengen en voorstellen doen voor verbetering.

Hoe groot zijn de afstanden in het gebouw eigenlijk? Als de afstanden tussen de patch kasten onder de 100meter blijven zou je gewoon kunnen werken met ethernet over utp.

In elke patchkast een switch met een aantal 10/100 poorten en 2 Gbit poorten kan je een leuke ring maken. (Wel even spanning tree aanzetten)

Je kan ook voor een 'gewone' boom structuur gaan, en werken met 1 core-switch. Investeren in 100Mbit glas lijkt mij niet heel erg zinvol. (Dit is een beetje gevaarlijk statement aangezien je niet heel veel zegt over de huidige situatie en de toekomstige te verwachten ontwikkelingen)

<edit>De link naar je profibus ding:
OZD Profi G3a profibus
nog een link
Niet echt iets waar je mee verder wil. Gewoon kijken of je de fiber kan gebruiken voor nieuwe switches, en anders nieuwe fiber trekken, danwel utp gebruiken.
Profibus lijkt trouwens een bus voor industrieele automatisering te zijn</edit>

[ Voor 28% gewijzigd door Coen Rosdorff op 20-06-2003 03:03 . Reden: profibus ding ]


Verwijderd

Topicstarter
little_soundman schreef op 20 June 2003 @ 02:15:
Leuke klus om te doen dit: Oude netwerk in kaart brengen en voorstellen doen voor verbetering.
Hele leuke klus inderdaad. Maar wel een beetje ingewikkeld...
Hoe groot zijn de afstanden in het gebouw eigenlijk? Als de afstanden tussen de patch kasten onder de 100meter blijven zou je gewoon kunnen werken met ethernet over utp.
Heb ik ook over zitten denken, maar er zit meer dan 100 meter tussen de kasten in 2 gevallen. Ik ga uit van een maximale afstand van 250 meter, en dat is dan redelijk ruim genomen.
In elke patchkast een switch met een aantal 10/100 poorten en 2 Gbit poorten kan je een leuke ring maken. (Wel even spanning tree aanzetten)

Je kan ook voor een 'gewone' boom structuur gaan, en werken met 1 core-switch. Investeren in 100Mbit glas lijkt mij niet heel erg zinvol. (Dit is een beetje gevaarlijk statement aangezien je niet heel veel zegt over de huidige situatie en de toekomstige te verwachten ontwikkelingen)
Gbit zou natuurlijk ideaal zijn, maar we hebben het over een zorginstelling. Het mag eigenlijk niks kosten, zeg maar. Bestaande bekabeling vervangen is dus al uitgesloten. En 100Mbit glasmodules voor in bijv. HP ProCurve switches zijn helemaal niet zo duur (300 euro per module incl. BTW ofzo). Ook heeft Cisco redelijk betaalbare manageable switches met 100FX glasvezel-uplinks.
<edit>De link naar je profibus ding:
OZD Profi G3a profibus
nog een link
Niet echt iets waar je mee verder wil. Gewoon kijken of je de fiber kan gebruiken voor nieuwe switches, en anders nieuwe fiber trekken, danwel utp gebruiken.
Profibus lijkt trouwens een bus voor industrieele automatisering te zijn</edit>
Ik snap ook absoluut niet, waarom die dingen hier gebruikt worden. Dit is een gewoon netwerk, zonder allerlei gekke industriele apparatuur. Voor een simpel kantoor-netwerk heb je toch helemaal geen veldbus (PROcess FIeld BUS) nodig???

  • Stampertje
  • Registratie: November 2002
  • Laatst online: 15-01-2024

Stampertje

Gaat je nix aan

Gigabit modules voor een Cisco moet je ook voor rond de 300 euro kunnen krijgen (mits de bekabeling niet de 275 meter te boven gaat).

Living the American Dream


Verwijderd

Topicstarter
Erik_van_H schreef op 20 juni 2003 @ 10:15:
Gigabit modules voor een Cisco moet je ook voor rond de 300 euro kunnen krijgen (mits de bekabeling niet de 275 meter te boven gaat).
Daar ga ik dan zeker eens even naar kijken. Ik had voor de switches het volgende in gedachte: Cisco Catalyst 2950-serie, en dan dus met 100 Base-FX module erin (is de 2950C). Kijken of deze er ook is met 1000 Base-SX module, want dat kan volgens mij ook over de bestaande glasvezels (MM-cable, 2x 62,5/125) heen.

Ik ben er ook uit, wat we met die Profibus doen. Die staat verder los van het computernetwerk, en wordt alleen gebruikt voor de klimaatbeheersing. Volgens het bedrijf wat de hele boel destijds aangelegd heeft, hoef ik hier geen rekening mee te houden.


Even nog een duoble-check over die Cisco switches. Kan ik een Catalyst 2950SX en een Catalyst 2950T stacken met elkaar? Uit de docs van Cisco meen ik op te kunnen maken, dat dit mogelijk is.

[ Voor 11% gewijzigd door Verwijderd op 20-06-2003 12:30 ]


  • snakeye
  • Registratie: Januari 2000
  • Laatst online: 27-04 11:01
Ja je kan die twee gewoon koppelen dan wel uiteraard alleen met 1 of meerdere 100 Mbit poorten. en uiteraard cross kabel(s) gebruiken.

Atari 2600 @ 1,1 Hz, 1 Bits speaker, 16 Kb mem, 8 kleuren..


Verwijderd

Beste Bazzh...Kan je me aangeven in welke patchkast hoeveel 10/100 poorten nodig zijn en desnoods GIG (RJ45)...En trouwens kijk of je kan scalen naar GIG (kabels kunnen het wel)..(ook aderparen tussen patches)

1000B-SX is goedkoper (binnen cisco) dan 100B-FX!!!...als je wat info vermeld..desnoods mailt kan ik het qua cisco wel voor je scalen...en bepalen welke oplossing de beste prijs/kwaliteit verhouding heeft....is mijn dagleijks brood :*)

Dus:
1. fysieke indeling..+port en type per patch
2. Aderparen + afstanden
3. Layer functionaliteit L2/3/4
4. Uptime/redundancy

En ik kan je cisco netwerk qua codes voor je uitwerken..."shopping" list :+

Verwijderd

ow even kort je kan idd je 2950SX knopen aan een 2950T via etherchannel tot max 800Mbit..

Verwijderd

is een oplossing.... deze keer geen 3750 krissis ??? ;-)

Verwijderd

WEL.....moeten we eerst nog uitvinden of hij hier mooi past _/-\o_ ...kabels moeten geen prob zijn...jammer van de GLC's :'( ...p.s. nog wakker :O

Verwijderd

yup nog wakker... ;-) maarre geen idee hoe het zit met die fiber klinkt als 100 jaar oud spul... eerst maar ff laten testen.... dan verder kijken...

enne ff een hint... wleke bekabeling hebbie precies liggen ??? cat3 ??? cat4 ??? gezien de oudheid van het netwerk hoeft er geen cat 5 te liggen.... of wat ook nog kan zou oud dat het geen cat cert. meer heeft... ;-(

  • Jorn
  • Registratie: Juni 2001
  • Laatst online: 22:19
snakeye schreef op 20 June 2003 @ 23:55:
Ja je kan die twee gewoon koppelen dan wel uiteraard alleen met 1 of meerdere 100 Mbit poorten. en uiteraard cross kabel(s) gebruiken.
Zit er geen mogelijkheid in die 2 om ze te stacken op de backplane?
Als dat zou kunnen kost het je ten eerste geen extra poorten en ten 2e is het sneller.

Wanneer dit niet kan dan gewoon een gigabitmodule er in.

* Erkens is een sukkel en ramt in mirc op f5 :+
* XTerm GROOOOOOTE kuis houden op hd's :)


  • zwahiel
  • Registratie: Augustus 2001
  • Laatst online: 25-04 12:32

zwahiel

Eindbaas HK

Keihard de lekkerste!

Ik denk dat de FDDI ring nog wel kan blijven, ik zou die eerste even laten inspecteren, misschien treedt er nog ergens storing op of zo, niets zo irritant als een compleet nieuw netwerk met fouten in het oude segment |:(

Aan de info te zien over je FDDI interfaces handelt het zich dus om al wat ouder spul (snelheid te zien). Als je FDDI ring nog goed is, maak daar dan de backbone van. Aangezien je bij een zorg instelling werkt is het niet echt noodzakelijk een supersnel gigabit netwerk te hebben, 100mbit zou zoals je zelf al aangeeft voldoende.

Zorg er wel voor dat je FDDI ring op 1gb gaat werken. Maak daar je gehele backbone van, leg waar mogelijk nog 2 UTP kabels tussen de patchkasten waarmee je buiten de FDDI de kasten kunt verbinden, je hoeft ze niet persé te activeren, maar het is wel prettig mocht de FDDI eruit gaan liggen door een onbekende reden. (Het is heel irritant als je in een zorginstelling zit en het netwerk klapt eruit, dat weet ik uit ervaring ;) )
Op die manier heb je een backdoor, zeker=zeker!

scenario 1:
Aan je 1gb FDDI netwerk hang je in elke patchkast een core switch die 1gb doet....
Aan deze switch hang je weer switches waarop de clients aangesloten worden.
De laatste switches hebben een gb ingang, maar werken verder gewoon voor de clients op 100mbit.

scenario 2:
Weer een coreswitch in je patchkast, waarop je 1gb verbinding binnen komt.
Deze switch doet verder 100mbit uitdelen.
In je patchkast hang je 100mbit switches die weer verbonden zijn met je coreswitch.


* Je coreswitch hoeft geen 24 poorts te zijn, maar als je bijvoorbeeld 8 poorts doet heb je meer dan genoeg. Het ligt er een beetje aan hoeveel clients je per patchkast hebt zitten.

Misschien is het idd wel handig om spanning te doen, ligt er een beetje aan wat je gaat gebruiken als hardware oplossing en wat voor netwerk je draait...

Nog even een tip, doe het in fases. Ga niet ineens het hele netwerk offline smijten in een weekende maar doe elke patchkast in een periode, die kast klaar, volgende kast. Misschien heb je wat overlast met verschillende netwerken die liggen, maar geloof me je kunt beter een maand of 2 wat rommel hebben dan dat je 2 maanden geen netwerk hebt omdat je erachter komt dat je oude infrastructuur niet met de nieuwe opzet wil werken.

Misschien een id om tijdelijk zelfs tussen de patchkasten gewoon UTP te leggen met cableextenders, zo kun je makkelijk de FDDI ring offline halen en kunnen clients gewoon door werken op de hun al bekende trage snelheid.

Laten we weer 's bierbrouwen of gewoon gekke dingen bouwen en knutselen. YEAH!
RIP Lada 2105 "Igor" 31-12-1992 - † 21-02-2014. De nieuwe Igor: Tesla model 3 SR+ 21-08-2020


Verwijderd

Topicstarter
zwahiel schreef op 21 juni 2003 @ 17:51:
Ik denk dat de FDDI ring nog wel kan blijven, ik zou die eerste even laten inspecteren, misschien treedt er nog ergens storing op of zo, niets zo irritant als een compleet nieuw netwerk met fouten in het oude segment |:(
Dat ga ik mijn baas ook aanraden. Het is aan hem, om te beslissen of hij dat risico wil dragen.
Aan de info te zien over je FDDI interfaces handelt het zich dus om al wat ouder spul (snelheid te zien). Als je FDDI ring nog goed is, maak daar dan de backbone van. Aangezien je bij een zorg instelling werkt is het niet echt noodzakelijk een supersnel gigabit netwerk te hebben, 100mbit zou zoals je zelf al aangeeft voldoende.
De bekabeling is van 1998.
Zorg er wel voor dat je FDDI ring op 1gb gaat werken. Maak daar je gehele backbone van, leg waar mogelijk nog 2 UTP kabels tussen de patchkasten waarmee je buiten de FDDI de kasten kunt verbinden, je hoeft ze niet persé te activeren, maar het is wel prettig mocht de FDDI eruit gaan liggen door een onbekende reden. (Het is heel irritant als je in een zorginstelling zit en het netwerk klapt eruit, dat weet ik uit ervaring ;) )
Op die manier heb je een backdoor, zeker=zeker!
1gb is nauwelijks duurder als 100mb, dus dat zit er inderdaad dik in. UTP tussen de kasten wordt lastig. Het gaat om 4 patch-kasten, verspreid over 3 gebouwen. Volgens mij zitten er maar 2 van de kasten binnen een straal van 100 meter t.o.v. elkaar en in hetzelfde gebouw. Maar opzich natuurlijk geen slecht idee, om een nood-scenario klaar te hebben liggen, just in case. Maar dat zal dan geen permanente kabel worden, vooral omdat er de komende jaren flink ge/ver-bouwd gaat worden op ons terrein.
scenario 1:
Aan je 1gb FDDI netwerk hang je in elke patchkast een core switch die 1gb doet....
Aan deze switch hang je weer switches waarop de clients aangesloten worden.
De laatste switches hebben een gb ingang, maar werken verder gewoon voor de clients op 100mbit.

scenario 2:
Weer een coreswitch in je patchkast, waarop je 1gb verbinding binnen komt.
Deze switch doet verder 100mbit uitdelen.
In je patchkast hang je 100mbit switches die weer verbonden zijn met je coreswitch.
Waarschijnlijk wordt het iets in de geest van scenario 2. Gb-core-switches zijn nl. erg duur. Terwijl 10/100Mb switches met een 1000 base-sx uplink best betaalbaar zijn.
* Je coreswitch hoeft geen 24 poorts te zijn, maar als je bijvoorbeeld 8 poorts doet heb je meer dan genoeg. Het ligt er een beetje aan hoeveel clients je per patchkast hebt zitten.

Misschien is het idd wel handig om spanning te doen, ligt er een beetje aan wat je gaat gebruiken als hardware oplossing en wat voor netwerk je draait...

Nog even een tip, doe het in fases. Ga niet ineens het hele netwerk offline smijten in een weekende maar doe elke patchkast in een periode, die kast klaar, volgende kast. Misschien heb je wat overlast met verschillende netwerken die liggen, maar geloof me je kunt beter een maand of 2 wat rommel hebben dan dat je 2 maanden geen netwerk hebt omdat je erachter komt dat je oude infrastructuur niet met de nieuwe opzet wil werken.
Ga ik ook zeker in fases doen.
Misschien een id om tijdelijk zelfs tussen de patchkasten gewoon UTP te leggen met cableextenders, zo kun je makkelijk de FDDI ring offline halen en kunnen clients gewoon door werken op de hun al bekende trage snelheid.
Daar begin ik echt niet aan. Alle aansluitingen voor de administratie en hoofd-receptie, (directie)secretariaat) en ondersteunende bedrijfsprocessen zitten in 1 patch-kast. In dezelfde patch-kast zitten de patch-aansluitingen voor de servers. Voor deze groep gebruikers kan een noodoplossing gemaakt worden met de bestaande apparatuur. Terwijl de nieuwe apparatuur aangesloten wordt, kunnen zij in ieder geval nog gewoon doorwerken. De rest heeft echt gewoon pech, en ze zullen een middagje zonder moeten. Dat is wel vervelend voor ze, maar geen gigantisch probleem. Zeker als dit tijdig gecommuniceerd wordt, komt dit wel goed.

Iedereen bedankt voor de nuttige info! Ik ben weer een stuk wijzer.... _/-\o_

Verwijderd

Topicstarter
Verwijderd schreef op 21 June 2003 @ 01:41:
Beste Bazzh...Kan je me aangeven in welke patchkast hoeveel 10/100 poorten nodig zijn en desnoods GIG (RJ45)...En trouwens kijk of je kan scalen naar GIG (kabels kunnen het wel)..(ook aderparen tussen patches)

1000B-SX is goedkoper (binnen cisco) dan 100B-FX!!!...als je wat info vermeld..desnoods mailt kan ik het qua cisco wel voor je scalen...en bepalen welke oplossing de beste prijs/kwaliteit verhouding heeft....is mijn dagleijks brood :*)

Dus:
1. fysieke indeling..+port en type per patch
2. Aderparen + afstanden
3. Layer functionaliteit L2/3/4
4. Uptime/redundancy

En ik kan je cisco netwerk qua codes voor je uitwerken..."shopping" list :+
Bedankt voor het aanbod! Maar ik wil hier graag zelf heel erg veel van leren. Ik kan trouwens zelf eventueel ook terugvallen op een Cisco engineer.

Dat 1000SX goedkoper was dan 100FX viel me idd. op....

  • zwahiel
  • Registratie: Augustus 2001
  • Laatst online: 25-04 12:32

zwahiel

Eindbaas HK

Keihard de lekkerste!

Verwijderd schreef op 22 juni 2003 @ 18:40:
[...]

Dat ga ik mijn baas ook aanraden. Het is aan hem, om te beslissen of hij dat risico wil dragen.


[...]

De bekabeling is van 1998.


[...]

1gb is nauwelijks duurder als 100mb, dus dat zit er inderdaad dik in. UTP tussen de kasten wordt lastig. Het gaat om 4 patch-kasten, verspreid over 3 gebouwen. Volgens mij zitten er maar 2 van de kasten binnen een straal van 100 meter t.o.v. elkaar en in hetzelfde gebouw. Maar opzich natuurlijk geen slecht idee, om een nood-scenario klaar te hebben liggen, just in case. Maar dat zal dan geen permanente kabel worden, vooral omdat er de komende jaren flink ge/ver-bouwd gaat worden op ons terrein.


[...]

Waarschijnlijk wordt het iets in de geest van scenario 2. Gb-core-switches zijn nl. erg duur. Terwijl 10/100Mb switches met een 1000 base-sx uplink best betaalbaar zijn.


[...]

Ga ik ook zeker in fases doen.


[...]

Daar begin ik echt niet aan. Alle aansluitingen voor de administratie en hoofd-receptie, (directie)secretariaat) en ondersteunende bedrijfsprocessen zitten in 1 patch-kast. In dezelfde patch-kast zitten de patch-aansluitingen voor de servers. Voor deze groep gebruikers kan een noodoplossing gemaakt worden met de bestaande apparatuur. Terwijl de nieuwe apparatuur aangesloten wordt, kunnen zij in ieder geval nog gewoon doorwerken. De rest heeft echt gewoon pech, en ze zullen een middagje zonder moeten. Dat is wel vervelend voor ze, maar geen gigantisch probleem. Zeker als dit tijdig gecommuniceerd wordt, komt dit wel goed.

Iedereen bedankt voor de nuttige info! Ik ben weer een stuk wijzer.... _/-\o_
Het id van backup bekabeling is niet een overbodige luxe, het ligt eraan hoe en waar de kritischere processen verspreid zijn ;)
Zoals je zelf al aangeeft zitten de echte kritische processen maar op een patchkast.
Dat is lekker makkelijk ivm verbouwingen. (zorg meer dan een pand verbouwen? Jep, dat ken ik dus ja!)

Als je 2 patchkasten dicht bij elkaar hebt, zou ik ze zeker verbinden met UTP voor het geval dat, dan heb je meerdere segmenten in je netwerk, en mocht er iets uitvallen dan kun je nog altijd op je noodvoorziening terug vallen, het systeem zou er niets van merken omdat de routes weliswaar iets langer worden, maar het komt aan, 't wordt alleen iets trager ;) .

Misschien is het een optie om de server op 1gb verbindingen te zetten.
Ik weet niet wat jullie draaien (mijn ex baas draaide Citrix voor 500+ clients (zorginst.)). op 100 mbit en soms was 't toch wel een beetje traag.
Qua netwerk dan.
Op zich creeër je dan een volledige backbone die 1gb is, het is niet zo'n spectaculair bedrag extra om je servers ook op 1gb te laten draaien.

Het ligt er natuurlijk wel aan welke servers je hebt draaien, vraag je af of het economisch gezien relevant is. Of gebruikers er ook daadwerkelijk wat van merken.

Veel hangt eigenlijk af van gebruikers als je 't bekijkt. Zij moeten er straks mee werken, en zij bepalen hoe 't gaat worden in de grove outlines.

In elk geval succes!

Laten we weer 's bierbrouwen of gewoon gekke dingen bouwen en knutselen. YEAH!
RIP Lada 2105 "Igor" 31-12-1992 - † 21-02-2014. De nieuwe Igor: Tesla model 3 SR+ 21-08-2020


Verwijderd

Topicstarter
zwahiel schreef op 23 June 2003 @ 18:16:
[...]


Het id van backup bekabeling is niet een overbodige luxe, het ligt eraan hoe en waar de kritischere processen verspreid zijn ;)
Zoals je zelf al aangeeft zitten de echte kritische processen maar op een patchkast.
Dat is lekker makkelijk ivm verbouwingen. (zorg meer dan een pand verbouwen? Jep, dat ken ik dus ja!)

Als je 2 patchkasten dicht bij elkaar hebt, zou ik ze zeker verbinden met UTP voor het geval dat, dan heb je meerdere segmenten in je netwerk, en mocht er iets uitvallen dan kun je nog altijd op je noodvoorziening terug vallen, het systeem zou er niets van merken omdat de routes weliswaar iets langer worden, maar het komt aan, 't wordt alleen iets trager ;) .

Misschien is het een optie om de server op 1gb verbindingen te zetten.
Ik weet niet wat jullie draaien (mijn ex baas draaide Citrix voor 500+ clients (zorginst.)). op 100 mbit en soms was 't toch wel een beetje traag.
Qua netwerk dan.
Op zich creeër je dan een volledige backbone die 1gb is, het is niet zo'n spectaculair bedrag extra om je servers ook op 1gb te laten draaien.

Het ligt er natuurlijk wel aan welke servers je hebt draaien, vraag je af of het economisch gezien relevant is. Of gebruikers er ook daadwerkelijk wat van merken.

Veel hangt eigenlijk af van gebruikers als je 't bekijkt. Zij moeten er straks mee werken, en zij bepalen hoe 't gaat worden in de grove outlines.

In elk geval succes!
Servers op 1 Gb is de volgende stap. Dat gaat tegelijkertijd gebeuren met de migratie naar XP voor de workstations en 2000/2003 servers.

Ik heb hier trouwens nog een 10/100 Mb switch liggen met 100BaseFX uplink. Ik heb een beetje zitten dubben, of ik die nou nog zou kunnen gebruiken. Er is bijvoorbeeld ergens een patch-kast waar maar een stuk of 5 tot 6 aansluitingen gebruikt gaan worden (gebouwtje wordt binnen afzienbare tijd gesloopt, en dient in de tussentijd als noodopvang voor een verpleegafdeling). Maar je leest over het algemeen, dat 1 Gb BaseSX poorten allemaal fixed zijn. Dat gaat zeker niet samenwerken? Toch maar eens informeren bij de TD of ze tijdelijk geen UTP naar die kast kunnen leggen. Ik denk, dat het wel met minder dan 100 meter moet kunnen vanaf de dichtstbijzijnde kast.

[ Voor 5% gewijzigd door Verwijderd op 24-06-2003 11:29 ]


Verwijderd

Topicstarter
Na veel onderhandelen en uitzoeken heb ik het volgende resultaat:

Alle apparatuur wordt in 1 keer vervangen.

De centrale kast:
Cisco 3750G 24 TS E met een paar 1000 base-sx modules.
Een paar keer Cisco 2950T 24

De tweede kast:
Cisco 2950SX
Cisco 2950 (via etherchannel)

Andere kastjes:
Cisco 2950SX (allemaal minder dan 24 aansluitingen)


Is dit wat? Ik twijfel zelf een beetje aan "De tweede kast:".


Edit:

Alle apparatuur is inmiddels in gebruik. Het is geworden:

Kast 1: 1x 3750G 24TSE (met 4 1000SX SPF-modules) en 4x 2950T (onderling via 1000T)
Kast 2: 2x 2950SX (onderling via 1000SX)
Kast 3,4 en 5: 1x 2950SX

Op naar nieuwe servers!

[ Voor 24% gewijzigd door Verwijderd op 01-09-2003 19:52 ]

Pagina: 1