netwerk ontwerp voor MKB

Pagina: 1
Acties:

Vraag


Acties:
  • 0 Henk 'm!

  • Sjoak
  • Registratie: December 2001
  • Laatst online: 14-06 21:39
Ik ben aan het oriënteren hoe ik het beste een mkb netwerk kan inrichtingen met ongeveer 50 users.

Afbeeldingslocatie: https://tweakers.net/ext/f/Cm2PlojIkgu8dp64SwGHA44O/thumb.png


zelf zat ik te denken aan:


pricewatch: Ubiquiti UniFi Switch 48

48 port switch met 10 GBIT uplink welke ik aan de verdeel switch knoop

de verdeelswitch Ubiquiti EdgeSwitch 16 XG

pricewatch: Ubiquiti EdgeSwitch 16 XG

de KVM servers zullen middels de reeds in bezit zijnde netgear 8 port 10 Gbit switch met het netwerk worden verbonden.


Mijn vraag is zouden jullie dingen anders doen of tips hebben om aan te denken?

Beste antwoord (via Sjoak op 09-12-2016 12:54)


  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

Sjoak schreef op vrijdag 9 december 2016 @ 12:42:
Nou komt omdat ik nog wat hardware heb liggen,
Dat is echt een *heel* slechte reden. Voor weinig geld heb je een paar stackable switches (van bijvoorbeeld Huawei of TP-link) en dan heb je meteen consistentie in je netwerk.

Als je nu allerlei componenten door elkaar gaat gooien, loop je gegarandeerd op een gegeven moment tegen vage problemen aan die je had kunnen voorkomen door in 1x een goed netwerk neer te leggen met alleen de componenten die je nodig hebt.

Daarbij snap ik nog steeds niet waarom je 10Ge switches wilt gaan aanschaffen. De kans dat je daadwerkelijk 10Ge nodig hebt is vrij klein in een omgeving met 50 werkplekken.

Je sluit dan ook nog eens al je servers aan op 1 enkele switch. Valt die uit, ben je meteen je complete serverpark kwijt. Met een gestackte switch en iedere server met minimaal 2 poorten aangesloten heb je dat niet. (Wij sluiten onze servers aan met 8-12 poorten per machine, waarbij we ook nog eens redundancy in de NIC's hebben. Iedere functionaliteit zit op een eigen poort op een van de quad-nicks in de machines. Knalt er een NIC, flapt de functionaliteit over naar de andere NIC en poort.)
Sjoak schreef op vrijdag 9 december 2016 @ 12:42:
printers en client komen door elkaar op die switches.

firewall was ik van plan om de draytek te gebruiken.
[...]
Ik zou ook die keuze heroverwegen. Het gaat niet om een bedrijfje van 5 man, maar 50 FTE. Een uur downtime kost je dus direct 2500 EUR aan personele kosten. (Ja, ik ken de mitsen, maren en tenzij-en van zo'n berekening want verloren tijd kun je vaak weer inlopen en 50 EUR per FTE per uur is een monopoly bedrag. Toch is het een aardig richtgetal.)

Sowieso kan ik nog wel wat vragen bedenken over je setup van 3 machines, maar da's een heel ander topic. :) Dit gaat over je netwerk. Dus vandaar dat ik enkel op die component reageer.

Ná Scaoll. - Don’t Panic.

Alle reacties


Acties:
  • 0 Henk 'm!

  • .Maarten
  • Registratie: Januari 2011
  • Laatst online: 23:30
Waarom heb je gekozen voor een 48 poort gigabit switch voor 4 printers?

Acties:
  • 0 Henk 'm!

  • Sjoak
  • Registratie: December 2001
  • Laatst online: 14-06 21:39
de printers en clients worden door elkaar aangesloten op die switches.

Acties:
  • 0 Henk 'm!

  • .Maarten
  • Registratie: Januari 2011
  • Laatst online: 23:30
Ok zelf zou ik die 8P switch eruit halen en die servers rechtstreeks op de verdeelswitch plaatsen. Scheelt je een switch.

Acties:
  • +1 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

Paar opmerkingen die me zo te binnen schieten:

- Ik zie geen enkele vorm van redundancy in je netwerk en wel relatief veel componenten.
- Je voert een een 10Ge switch op, die voor 50 gebruikers waarschijnlijk helemaal niet nodig is.
- Draytek router voor het ontsluiten van je internet word ik niet heel warm van.
- Waar is je firewall?
- Waarom heb je een aparte switch voor je printers?
- Waarom heb je een aparte PoE switch voor je WiFi en je cams en maak je niet gewoon je access switches allemaal PoE?

Ik zou eerder gaan voor 2x 24p of 2x 48p gestacked voor je servers (heb je nog wat ruimte over) en 2x 48p PoE voor al het access gebeuren. (Clients, WiFi, printers, IP cams, etc.)

4 switches in plaats van 6 *en* redundancy in je netwerk.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Sjoak
  • Registratie: December 2001
  • Laatst online: 14-06 21:39
Nou komt omdat ik nog wat hardware heb liggen,

printers en client komen door elkaar op die switches.

firewall was ik van plan om de draytek te gebruiken.

ik gebruikt 10 Gbit omdat ik die kvms daarmee ontsluit, en dacht ja waarom ook niet voor de backbone als het ware.
unezra schreef op vrijdag 9 december 2016 @ 11:25:
Paar opmerkingen die me zo te binnen schieten:

- Ik zie geen enkele vorm van redundancy in je netwerk en wel relatief veel componenten.
- Je voert een een 10Ge switch op, die voor 50 gebruikers waarschijnlijk helemaal niet nodig is.
- Draytek router voor het ontsluiten van je internet word ik niet heel warm van.
- Waar is je firewall?
- Waarom heb je een aparte switch voor je printers?
- Waarom heb je een aparte PoE switch voor je WiFi en je cams en maak je niet gewoon je access switches allemaal PoE?

Ik zou eerder gaan voor 2x 24p of 2x 48p gestacked voor je servers (heb je nog wat ruimte over) en 2x 48p PoE voor al het access gebeuren. (Clients, WiFi, printers, IP cams, etc.)

4 switches in plaats van 6 *en* redundancy in je netwerk.

[ Voor 5% gewijzigd door Sjoak op 09-12-2016 12:44 ]


Acties:
  • Beste antwoord
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

Sjoak schreef op vrijdag 9 december 2016 @ 12:42:
Nou komt omdat ik nog wat hardware heb liggen,
Dat is echt een *heel* slechte reden. Voor weinig geld heb je een paar stackable switches (van bijvoorbeeld Huawei of TP-link) en dan heb je meteen consistentie in je netwerk.

Als je nu allerlei componenten door elkaar gaat gooien, loop je gegarandeerd op een gegeven moment tegen vage problemen aan die je had kunnen voorkomen door in 1x een goed netwerk neer te leggen met alleen de componenten die je nodig hebt.

Daarbij snap ik nog steeds niet waarom je 10Ge switches wilt gaan aanschaffen. De kans dat je daadwerkelijk 10Ge nodig hebt is vrij klein in een omgeving met 50 werkplekken.

Je sluit dan ook nog eens al je servers aan op 1 enkele switch. Valt die uit, ben je meteen je complete serverpark kwijt. Met een gestackte switch en iedere server met minimaal 2 poorten aangesloten heb je dat niet. (Wij sluiten onze servers aan met 8-12 poorten per machine, waarbij we ook nog eens redundancy in de NIC's hebben. Iedere functionaliteit zit op een eigen poort op een van de quad-nicks in de machines. Knalt er een NIC, flapt de functionaliteit over naar de andere NIC en poort.)
Sjoak schreef op vrijdag 9 december 2016 @ 12:42:
printers en client komen door elkaar op die switches.

firewall was ik van plan om de draytek te gebruiken.
[...]
Ik zou ook die keuze heroverwegen. Het gaat niet om een bedrijfje van 5 man, maar 50 FTE. Een uur downtime kost je dus direct 2500 EUR aan personele kosten. (Ja, ik ken de mitsen, maren en tenzij-en van zo'n berekening want verloren tijd kun je vaak weer inlopen en 50 EUR per FTE per uur is een monopoly bedrag. Toch is het een aardig richtgetal.)

Sowieso kan ik nog wel wat vragen bedenken over je setup van 3 machines, maar da's een heel ander topic. :) Dit gaat over je netwerk. Dus vandaar dat ik enkel op die component reageer.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Sjoak
  • Registratie: December 2001
  • Laatst online: 14-06 21:39
ik begrijp je argumenten, ik ga even terug naar de tekentafel.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

Nabrander:
Ik zeg niet dat je geen 10Ge moet gaan gebruiken, enkel dat je even goed moet kijken of je het echt wel nodig hebt. Wij gaan binnenkort ook ons complete netwerk herzien (tekening ligt al klaar) en daar komen absoluut componenten in die 10Ge poorten hebben.

Ik kan kijken of ik dat ontwerp al heb liggen, anders kan ik het vrij snel op hardwarecomponenten voor je uittekenen. Het is allemaal niet heel erg ingewikkeld.

Wij hebben ook een omgeving met ongeveer 50 werkplekken, maar de omgeving is gedimensioneerd op 100. Daarbij hebben we voor de omvang van het bedrijf een vrij stevig serverpark. (14 stuks server hardware, verdeeld over 2 lokaties waar jij d'r 3 hebt op 1 lokatie, om even een willekeurig voorbeeld te noemen)

Is het zinvol voor je om daar verder over te sparren? Ik zeg niet dat wij het beste ontwerp gaan krijgen dat mogelijk is voor een willekeurige organisatie. Ontwerp is altijd specifiek. Ik denk wel dat wij in ons ontwerp een aantal heel verstandige keuzes maken en strak vast houden aan het KISS principe.

We hebben nu bijvoorbeeld consistentie in het merk switches (allemaal HP), maar de modellen zijn dusdanig anders dat ze allemaal net iets anders aangestuurd moeten worden en het niet helemaal lekker gaat met de spanning tree configuratie omdat ze allemaal *net* een andere variant spreken.

Daarbij hebben we nu een soort van "ladderchassis". Het nieuwe ontwerp gaat juist uit van een sterconfiguratie. 2 stuks gestackte Layer 3 coreswitches (waarschijnlijk Huawei of refurbished Cisco), met daarop wanneer nodig eenvoudige Layer 2 access switches.

Alles dat redundant aangesloten kan worden is redundant aangesloten, alleen de eindcomponenten zoals PC's, printers en accesspoints zijn enkel aangesloten. (Wij maken gebruik van Aruba AP's, 4 stuks in een soort van mesh, allemaal aangesloten op de PoE access switches.)

Investering van een goed netwerk is wat hoger (zeker als je met L3 switches gaat werken), maar je hebt dan wel iets dat heel goed en stabiel werkt. Netwerkinstabiliteit is nog veel vervelender dan een enkele bokkende vm waar je maar 1 functionaliteit mee raakt of een hypervisor die zich misdraagt die je makkelijk over kunt laten nemen door een andere.

Tot zover de ehm, wat uitgebreidere nabrander dan ik bad bedacht voordat ik begon te typen. :)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Sjoak
  • Registratie: December 2001
  • Laatst online: 14-06 21:39
We hebben in totaal 1 KVM (SQL navision 2016 server) 1 KVM (2 maal applicatieserver navision) 1 kvm(1 application server + test application server) 1 KVM (welke ik zoneminder op draai) los daarvan nog 2 domeinservers welke niet gevirtualiseerd zijn.

ik zou graag een simpel netwerk willen welke bij voorkeur makkelijk te vervangen componenten heeft.

Graag zou ik best wel advies willen hebben welke componenten ik zou moeten aanschaffen, ik heb zelf goede ervaring met unifi switches.

Waarom 10 Gbit? omdat het kwa prijs niet heel duur is en we hardware best lang gebruiken, tevens is het wel fijn om snel een image van 1 server naar de andere server te verhuizen.

Ik sta wel open voor het samenvoegen van de 2 poe switches naar 1 switch met zeg 24 poorten waar ik de 2 netwerken met vlans kan scheiden.

Acties:
  • 0 Henk 'm!

  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 23:34
Ik vind het wel heel kort door de bocht om te roepen dat 50 clients helemaal geen 10Gb backbone nodig hebben.
Je weet helemaal niet wat die clients doen, als het bijvoorbeeld citrix werkplekken zijn heb je helemaal gelijk, maar zijn het fat clients die veel data naar de servers heen en weer stouwen dan is 1Gb misschien wel te weinig voor 50 clients.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


Acties:
  • 0 Henk 'm!

  • Sjoak
  • Registratie: December 2001
  • Laatst online: 14-06 21:39
Feit is wel dat de navision 2016 client erg netwerk consumptief is.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

Is er een reden dat je je virtualisatieplatform niet geclusterd hebt met centrale redundant opslag en ook je domeinservers daarop? (In plaats van die machines los.)

Wij hebben letterlijk ALLES gevirtualiseerd, de enige machine die bij ons nog fysiek is, is de backupserver. Daar hangt een MSL-2024 SCSI tapestreamer aan en dat werkt echt niet lekker met virtualisatie. Alle overige machines (ruwe 70 stuks) draaien virtueel. (VDI omgeving niet meegeteld. We hebben vrijwel uitsluitend Thin Clients in het bedrijf.)

Unifiy ken ik zelf niet, wij gaan waarschijnlijk voor Huawei omdat dat prijs-technisch veel interessanter is dan Cisco en qua beheer dusdanig sterk lijkt op Cisco, dat het beheer eenvoudiger is als je al bekend bent met Cisco apparatuur. TP-Link schijnt hetzelfde te hebben en wat ik hoor, kan het stiekem best goed spul zijn als Huawei te duur is.

Je zou eens kunnen uitrekenen wat 2x 24p/48p10Ge kost ten opzichte van 1Ge switches. Voor het moven van images van de ene machine naar de andere kan het fijn zijn, maar daar zit dus wel mijn vraag of je dat niet met centrale storage wil oplossen. In dat geval moet je wel nadenken of je daar niet aparte switches voor wilt inzetten die je als SAN switch in zet.

Los van dat, zou ik gaan voor hetgeen ik voorstelde, dus 2 gestackte switches voor je servers, waarbij alles dubbel is aangesloten op de 2 switches en dan nog 2 gestackte switches voor je clients, die met al dan niet 10Ge verbonden zijn met je server switches.

@Ben(V) Klopt, daarom zeg ik ook dat je over het algemeen niet snel 10Ge nodig hebt voor 50 gebruikers. Niet dat dat per definitie zo is. :) Daarbij moeten die machines het dan ook nog kunnen verwerken. Dat kan met 10Gbit/s naar 1 enkele vm best een uitdaging worden.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Sjoak
  • Registratie: December 2001
  • Laatst online: 14-06 21:39
staat in planning om natuurlijk de domein servers ook te gaan virtualiseren.

reden voor het niet werken met centrale storage is omdat het vanuit leverancier met klem werd afgeraden om de sql op die wijze in te richten, voor ons is performance belangrijkste, ik heb binnen no time een sql server up en running op een andere kvm server.

Deze inrichting is betrouwbaar gebleken en makkelijk remote te managen.

centrale storage zal op termijn ook vast wel gaan plaatsvinden, maar nu nog niet :).

we doen alles met stapjes.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

Bange leveranciers, die ken ik ja. :)
Dat kunnen soms heel intensieve gevechten zijn en soms gevechten waarbij je als sysadmin moet denken "YOLO! Ik ben hier de sysadmin. Leverancier kan me mijn rug op, we gaan het doen."

Met virtualisatie heb ik dat uiteindelijk gewonnen (alleen hebben we wel mede daarom voor VMWare gekozen), met een aantal andere zaken zoals toegang tot de database of zelf root zijn op een black-box machine zodat ik iets als de Zabbix agent kan installeren loopt het gevecht nog.

Stapje voor stapje is in ieder geval goed, zolang je maar een groeipad hebt. Met mijn stichting heb ik daar bijvoorbeeld heel bewust een keuze in gemaakt. We draaien nu op lokale (ZFS) storage, maar met disk-images voor de vm's (qcow2) zodat we later heel eenvoudig kunnen migreren naar een setup met centrale storage en meerdere hypervisors.

Met je netwerk same shit, als je NU een goede basis neer legt (sternetwerk), kun je later eenvoudig uitbreiden. Stackable switches kun je vaak stacken tot 4 of meer, wat in mijn voorstel je server switches zijn, kun je later promoveren tot coreswitches, etc.

Daarom kan L3 ook fijn zijn. Wij willen dat onder andere gebruiken om de firewall te ontlasten door een stuk security op de switches te leggen. Switches worden duurder, firewalls worden ontzien en security ligt daar waar het beter past. (We duwen nu veel te veel verkeer door de firewalls heen waardoor ze overbelast raken, maar ook gebruikt worden voor taken waar ze *eigenlijk* niet voor gemaakt zijn, hoewel ze het wel kunnen.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Frogmen
  • Registratie: Januari 2004
  • Niet online
Vraagje hebben je servers al 10Gb nic's waarom die niet met dubbel 1 Gb aansluiten? Gezien het feit dat je de hardware ook gaat vervangen op termijn vraag ik mij af of de rest van je server wel iets met een 10Gb nic kan. Hoe vaak verplaats je een image? Wat is de tijdwinst, wat doe je met de tijdwinst, en wat kost het? Want als je moet wachten kan je die tijd ook gebruiken om koffie voor je collega's te halen dat is dubbel scoren.
Wat mij verder opvalt dat ik je niet hoor over vlan's zie wel seperate netwerken voor camera's en wifi. Belast je daarmee niet die Draytek erg veel?
Persoonlijk sluit ik mij aan bij het KISS verhaal hou het simpel neem drie 48 poorts switches in een stack en sluit alles daarop aan. Waarom drie omdat je bij uitval dan nog steeds genoeg poorten hebt voor alles.

Voor een Tweaker is de weg naar het resultaat net zo belangrijk als het resultaat.


Acties:
  • 0 Henk 'm!

  • Sjoak
  • Registratie: December 2001
  • Laatst online: 14-06 21:39
mijn servers hebben 10 Gbit aansluitingen anders zou ik niet overwegen om een 10 Gbit switch er te plaatsen, ja ik vind wachten zwaar vervelend als ik even snel een image moet verplaatsen van 250GB.


zou inderdaad beter die draytek kunnen ontlasten door dit op een andere wijze.

ik sprak over het feit dat ik overweeg om vlans te gaan gebruiken.

ik ga het een en ander uitzoeken.

in dit topic vraag ik enkel om input.

Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

Frogmen schreef op vrijdag 9 december 2016 @ 14:42:
Persoonlijk sluit ik mij aan bij het KISS verhaal hou het simpel neem drie 48 poorts switches in een stack en sluit alles daarop aan. Waarom drie omdat je bij uitval dan nog steeds genoeg poorten hebt voor alles.
Op zich ook een oplossing, maar gevoelsmatig zou ik het client gebeuren scheiden van de servers. Je servers rechtstreeks op je core is in een wat kleinere omgeving geen gek idee maar je clients op je core, liever niet.

Daarom ook mijn voorstel om met 2 stacks van ieder 2 switches te werken.

Zoals TS zelf ook al aan geeft, vlans zijn hier wel de oplossing en ik denk dat het een goed idee is juist hier te kiezen voor L3 switches zodat je net even wat meer mogelijkheden hebt en de routers kunt ontzien.

Of die Drayteks ingezet moeten worden als router/firewall en of de hypervisor setup de beste is denk ik een heel andere verhaal, dus als TS daar over wil sparren lijkt het mij iets voor een nieuw topic. (Maar dat kan TS beter zelf bepalen.)

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • Sjoak
  • Registratie: December 2001
  • Laatst online: 14-06 21:39
ik zie dat mijn kennis mbt dat netwerken even bijgespijkerd moet worden.

vlans, hoe routeer je daartussen etc ik ga daar mee aan de slag, en kan dan denk ik betere keuzen maken.

het scheiden van de clients van de servers is wel een goed plan, maar dan moet ik mezelf even inlezen en een testlab opzetten mbt tot dat.
Pagina: 1