Netwerk instellingen serverchassis' met VM's?

Pagina: 1
Acties:

  • witchdoc
  • Registratie: Juni 2000
  • Laatst online: 24-02 12:18
Kan iemand me uitleggen hoe Virtual machines draaiende op blade servers in een chassis doorgaans logisch en fysisch gekoppeld worden aan het netwerk?

In zulke blade chassis' zitten vaak wat cisco-like switches. Is het voor de netwerk admin zo simpel als een lacp opzetten met die switch? Hoe gaat het interne verkeer van VM's naar deie switch dan verder?

Ik veronderstel dat de VM servers doorgaans ook een redundante verbinding opzetten? Is dit ook een (lacp) linkagg of is dit een andere technologie? Hoort het netwerk buiten het chassis hier uberhaupt rekening mee te houden of gebeurd de redundantie voor de VM's allemaal intern in het chassis?

Verwijderd

Geen idee hoe het doorgaans gebeurd, maar bij ons is het als volgt opgezet :) .

We hebben een IBM bladecenter, met enkele blades en 4 Cisco 3110G blade switches (in stack). Elke server blade is intern geconnecteerd naar alle blade switches. Per server blade zijn er dus 4 uplinks naar de switches. Deze zijn op de Cisco stack geconfigureerd als etherchannel.

Elke Cisco switch heeft ook 4 externe poorten, waarmee inderdaad gewoon een etherchannel kan opgezet worden naar je core switch(es) (met lacp of niet).

Voor virtualisatie gebruiken we VMware, met hun "vnetwork distributed switch" als virtuele switch. Enige opmerking hierbij is dat deze geen lacp of ander negotiation protocol aan kan. Deze etherchannels zijn dus als "mode on" statisch geconfigureerd...
Als je een fancy-er (en duurdere) virtuele Nexus switch gebruikt, kan je ook netjes lacp etherchannels opzetten tussen je bladeswitches en de virtuele switch.

Am I making sense? :)

  • Bl@ckbird
  • Registratie: November 2000
  • Niet online
^^ Met viper52b
Cisco heeft diverse switches voor blade chassis van diverse fabrikanten.
Voor je storage heeft Cisco Fibre Channel (FC) switches voor blade servers.
In VMWare kan je VM's mappen aan VLAN's die je in deze bladeswitches configureert en door zet via de interne vSwitch van VMware.

Wil je FC en ethernet consolideren in een enkele link d.m.v. Fibre Channel over Ethernet (FCoE) dan is er de Nexus 4000. Maar deze is alleen beschikbaar voor IBM BladeCenter.

Je kan de bladeserver ook voorzien van een basic bladeswitch en dan binnen VMWare de Nexus 1000v draaien.
Voordeel is dat je een switch hebt die geïntegreerd is binnen VMWare, maar die je kan beheren zoals een normale Cisco switch. Je hebt goede scheiding tussen netwerkbeheer en beheer van VMWare. Zowel van de Nexus 1000v als van VMWare zijn evaluatie versies te downloaden.

~ Voordelig Zelf Vliegen? ~ Sent using RFC 1149. Note: No animals were harmed during this data transfer. ~


  • WhizzCat
  • Registratie: November 2001
  • Laatst online: 03-10-2025

WhizzCat

www.lichtsignaal.nl

Ik kan hier ook nog wel iets over zeggen (weliswaar over de concurrent van de heren hierboven, maar goed :P )

Wij gebruiken HP Blades en switches. De Blades chassis's zijn vrij standaard en uitgerust met een Virtual Connect Flex-10. De switches zijn HP ProCurve 5412zl's. Hierin zit een SFP+ module die gekoppeld is met de blades. Voor optimale redundantie hebben wij elke blade aan 2 switches gekoppeld. VMWare zelf zorgt wel voor de failover.

Deze SFP+ modules hebben gewoon alle VLAN's tagged op de lijn staan. Op de Blades maken we dan de diverse VLAN's aan die we kunnen doorsluizen naar de ESXi hosts.

Onze fiber toestanden gaan apart op een fiber module in het blade chassis.

Tegenwoordig zou je het netwerk verhaal ook met DLACP kunnen oplossen (Distributed LACP, dus een LACP over 2 fysiek verschillende switches zonder stacking!). Dan kan je dus wat meer bandbreedte garanderen want nu is het "slechts" 10 Gbit. Enfin, je kan er alle kanten mee op. HP heeft het gratis boek "Virtual Connect for Dummies" op hun site staan. Dat is wel leuk leesvoer :)

Gezocht: netwerkbeheerder
Als je het niet aan een 6-jarige kan uitleggen, snap je er zelf ook niks van! - A. Einstein