Datacenter Networking kan je op verschillende manieren doen.
iSCSI
Hier heb je netwerkkaarten voor met
iSCSI off-loading, zodat de CPU van de server hier geen CPU cycles voor verbruikt. Wat betreft switching kan je hier een standaard
2960S (L2) of
3560X / 3750X switch (L2/L3, afhankelijk van de IOS licentie) voor nemen, mits het niet al te data-intensief is. Bepaalde modellen van de 2960S kan je stacken. (20 Gbps) Ook de 3750X kan je stacken, (maar nu op de backplane @ 64 Gbps) wat handig is bij een groter SAN.
Voor data-intensievere iSCSI SAN's heeft Cisco de
4900 Data Center switches. De latency van deze switches is lager (6 microsecondes) dan bij normale switches.
4900 switches hebben ook grotere shared buffers. ( 16MB of 17.5MB voor de hele switch, t.o.v. 180kb per poort bij normale 3560 switches.) Lage latency en grote buffers zijn handig als je grote blokken data wil switchen.
Fibre Channel / Ethernet
Voor normaal netwerkverkeer is de server voorzien van een gigabit link. (Een gebundelde gigabit link als 2 Gbps throughput wil hebben. En 2x 2 Gigabit links, als je redundant gebundelde gigabit links wil hebben.) Eventueel is er nog een gigabit link voor je vMotion.
Voor je SAN stuk heb je in je server HBA's nodig. (
Emulex /
Qlogic) Daarnaast heb je een Fibre Channel switch nodig. Bijvoorbeeld van Brocade of
Cisco MDS serie. Bij Cisco is de
MDS 9100 de instap versie. De
MDS 9222i is een stap hoger en deze kan ook services aan. (Zoals on-the-fly data encryptie en het kopieëren / clonen van data van SAN array A naar B, of van host naar SAN array A en B.)
FCoE / "Unified Fabric"
Je kan servers ook voorzien van
Converged Network Adapters. (CNA's)
Dit zijn 10Gbps netwerk adapters waar men FC over doet. (
Fibre Channel over Ethernet, FCoE)
Dit is wel een lossless variant van Ethernet. (
DCE)
In tegenstelling tot het Fibre Channel / Ethernet voorbeeld, is de server bij FCoE maar voorzien van 2 poorten, die Fibre Channel over 10Gpbs Ethernet doen. Vooral bij grote aantallen servers scheelt dit veel kabels. (Die niet gelabeld, beheerd worden en stroom vragen.) Hoeveel bandbreedte van die 10Gbps kan je toewijzen aan FC of Ethernet. Voor het OS / ESXi lijkt het alsof je 2 ethernet adapters hebt en 2 HBA's.
Je hebt hiervoor CNA's voor nodig van bijvoorbeeld
Emulex /
Qlogic. Daarnaast heb je een Nexus 5000 nodig, die FCoE kan switchen. De
Nexus 5000 is een L2 apparaat, de
Nexus 5500 is een L3 apparaat.
Cisco zelf heeft nog een
Virtual Interface Card waarmee je 56 virtuele interfaces hebt die je kan toewijzen aan individuele VM's binnen VMWare. (De hardware kan 128 virtuele interfaces aan, maar dit wordt nog verder ontwikkeld.) De Cisco VIC's zijn echter alleen beschikbaar voor hun UCS rack-mounted en blade servers.
Een software variant is er in de vorm van de
Nexus 1000v. Dit is een distributed virtuele switch, die men binnen VMWare kan draaien. (Draait gewoon NX-OS, van de Nexus en MDS serie switches.) In de Nexus 1000v maak je een profiel aan. (Bijvoorbeeld "webserver" met ACL's op de virtuele netwerk interface, VLAN's en andere instellingen.) De beheerder van VMWare kan dit profiel via een drop-down menu toewijzen aan een VM. Doe je nu een VMotion, dan verhuist dit profiel (met alle instellingen) van ESXi host A naar B. Ook Ethernet counters
blijven gewoon doorlopen. Je hebt goede scheiding van policies tussen VM's en tussen netwerkbeheerders en beheerders van de VMware omgeving. En het virtuele gedeelte van het netwerk is eenvoudiger te beheerden, vooral als je veel VM's hebt. Verder is er voor
vCenter een plug-in, waarmee je vanuit vCenter een Cisco ACE load balancer kan beheren. VM je worden aangemaak worden zo automatisch opgenomen in de pool van virtuele servers op de load balancer.
Meestal werk je met een SAN Array A en een SAN Array B. (Die zich bij voorkeur in een ander datacenter bevindt.) Voor backup van je SAN kan je eventueel naar een cloud oplossing kijken. Riverbed heeft hier de
Whitewater appliance voor. Data verkeer tussen het SAN en de cloud wordt gecached en, voordat het via het internet verzonden, wordt zwaar geoptimaliseerd en encrypt.
Riverbed Whitewater kan je gebruiken in combinatie met
Amazon S3 en
EMC Atmos.
Cisco heeft voor hun data en storage networking uitgebreide
Validated Designs.
Ze werken nauw samen met
EMC,
VMWare en
NetApp. Met EMC hebben ze
vBlocks en met NetApp hebben ze
Flexpods. Dit zijn uitgebreid geteste building blocks wat bestaat uit een stukje networking, storage networking, storage, computing en virtualisatie. Ook
Cisco's TAC support organisatie is ingericht om deze building blocks te ondersteunen.
Als het niet al te data intensief is kan je prima uit de voeten met iSCSI. (Aangezien je maar 3 ESXi hosts hebt.) Wil je meer performance kijk dan naar FC of FCoE. De vraag is wat je in de toekomst wil doen. Wil je ontzettend meer VM's gaan draaien? (Virtuele servers of VDI omgeving.) Wil je VM's geautomatiseerd provisionen als een soort cloud service? Welke eisen stel je aan security? (Policy control en virtualisatie van je netwerk worden dan belangrijk.) Dit stelt allemaal eisen aan je storage array en je netwerk.