Check alle échte Black Friday-deals Ook zo moe van nepaanbiedingen? Wij laten alleen échte deals zien
Toon posts:

Cisco Server Stacken? betaalbare virtualisatieoplossing?

Pagina: 1
Acties:

Verwijderd

Topicstarter
Hallo guru's,

Ik ben op zoek naar iemand die ervaring heeft met het "stacken" van Cisco Servers. Sinds jaar en dag ben ik gewend om te werken met HP, IBM en Dell serveroplossingen, maar onlangs heb ik iets vernomen van de mogelijkheid om cisco servers te "stacken".

Cisco servers zijn over het algemeen vrij goedkoop in vergelijking met de andere merken. Ik heb begrepen dat het mogelijk is om bijv. een VMWare oplossing te bouwen waarbij je 3 cisco servers aanschaft, 2x een esx node, en 1x een geïmproviseerde SAN server die je aan de achterkant kan stacken met de esx nodes.

Voorbeeld;
2x Server/UCS C220 M3 SFF 2xE5-2609 4x8GB (kosten rond de 2000 per stuk)
1x Cisco UCS C210 M2 (kosten rond de 3000 ex disken).

De c210m2 in dit geval wordt een san/nas, de c220 de esx nodes.

Vragen;

- Heeft iemand ervaring met deze oplossing?
- Wat heb je nodig om de servers te kunnen "stacken"? misschien deze? (Cisco - Serial Attached SCSI (SAS) internal cable (pack of 2 ) - for UCS C210 M1, C210 M2, Smart Play Bundle C210?)
- Wat gebruik je voor software voor de san/nas, of heeft cisco hier ook software voor?
- Wat is jullie ervaring met de hardware support van Cisco in geval van defecten?

Ik vermoed namelijk dat ik met de bovenstaande oplossing zo'n 20% goedkopere maar toch professionele oplossingen kan bieden aan mijn klanten, geen overbodige luxe in deze tijden.

  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 15:27

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

Ik weet niet zo goed wat je nu exact wilt...

Waarom kies je voor 3 servers, terwijl één grote server met local storage misschien ook wel voldoet? Ik heb het idee dat je nu een "standaard" technische oplossing aan het uitdenken bent, maar zo werkt het in de praktijk niet echt.

De requirements kunnen per klant onderling verschillen, dat per klant een verschillende oplossing beter is... Zeker voor virtualisatie oplossingen zijn requirements mbt availability heel erg leidend om de juiste oplossing neer te zetten.

En vergeet verder je VShpere licenties niet mee te nemen in je berekening. ;)

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


  • gitaarwerk
  • Registratie: Augustus 2001
  • Niet online

gitaarwerk

Plays piano,…

Wat Question Mark said :),

Die grote server zou je toch gebruiken voor alles gelijk? Da's het mooie van virtualisatie. Wil je ze koppelen,... wellicht zou je ook enkele Infiniband kunnen leggen. SAS connecties zijn ook niet altijd alles. Lees vaak dat men hier toch heel veel snelheid verliest. Denk dat het ook wel een beetje aan de controller ligt.

Je hebt buiten de licenties ook je hdd's er nog niet bij zitten. Die kunnen ook aardig oplopen. Reeds mijn server besteld, en de vrij goedkope schijven kwam het ook nog rond de 1/4 uit van de complete server.

Als ik de cisco servers zie, de 210 M2 zijn al weer wat verouderdere proc support. Even om een idee te geven. Ik heb zelf nu een xeon e3-1230v2 met ook 4x8GB ram. Virtualisatie vind dat wel lekker. Ik heb een paar benchmarks gedaan i.t.t. westmeres. de snelheid van geheugen gaat behoorlijk stuk vooruit. In mijn test zo ongeveer 10x sneller. Als je virtualisatie doet, is dat geen overbodige luxe denk ik (correct me if i'm wrong :))

Ik vraag me af of het dan niet beter is een grotere SAN te bouwen met 2x e5-26xx series en een hoop meer geheugen?

Ik weet niet hoe je je licenties gaat doen, maar het is ook verstandig om dat uit te zoeken. Met een server ben je dan echt wel gewoon goedkoper uit (denk ik)

Ontwikkelaar van NPM library Gleamy


  • redfoxert
  • Registratie: December 2000
  • Niet online
Wat bedoel je precies met "stacken" ?

Als je kijkt naar de vBlock oplossingen van VCE (VMware, Cisco, EMC) dan heb je eigenlijk precies dat bedacht, maar dan in het klein (heel klein).

EMC voor je shared storage, Cisco voor je switches en servers en VMware als virtualisatie platform.

Bij ons op het werk doen we niet anders :)
gitaarwerk schreef op zondag 30 september 2012 @ 10:01:
Als ik de cisco servers zie, de 210 M2 zijn al weer wat verouderdere proc support. Even om een idee te geven. Ik heb zelf nu een xeon e3-1230v2 met ook 4x8GB ram. Virtualisatie vind dat wel lekker. Ik heb een paar benchmarks gedaan i.t.t. westmeres. de snelheid van geheugen gaat behoorlijk stuk vooruit. In mijn test zo ongeveer 10x sneller. Als je virtualisatie doet, is dat geen overbodige luxe denk ik (correct me if i'm wrong :))

Ik vraag me af of het dan niet beter is een grotere SAN te bouwen met 2x e5-26xx series en een hoop meer geheugen?

Ik weet niet hoe je je licenties gaat doen, maar het is ook verstandig om dat uit te zoeken. Met een server ben je dan echt wel gewoon goedkoper uit (denk ik)
Geheugen snelheid is meestal niet zo het probleem bij virtualiseren, wel de hoeveelheid geheugen :) Ik heb mijn 16GB ESX host vervangen voor eentje met 32GB en dat gaat een stuk beter nu met de VM's die ik er op heb draaien.

Een SAN is niet meer dan een Storage Area Network, storage switches (fiberchannel) en diskarrays met eventueel storage processors, dus verder geen virtualisatie hosts oid. Haal die dingen niet door elkaar :)

Een VMware Essentials Kit kost ongeveer 500 euro en daarvoor heb je een complete vCenter licentie voor 3 hosts met elk 2 CPU sockets. En aangezien er sinds 5.1 ook geen vRAM limiet meer is kan je die helemaal volproppen met memory.

[ Voor 69% gewijzigd door redfoxert op 30-09-2012 10:16 ]

https://discord.com/invite/tweakers


  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 15:27

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

redfoxert schreef op zondag 30 september 2012 @ 10:12:
Een VMware Essentials Kit kost ongeveer 500 euro en daarvoor heb je een complete vCenter licentie voor 3 hosts met elk 2 CPU sockets. En aangezien er sinds 5.1 ook geen vRAM limiet meer is kan je die helemaal volproppen met memory.
Da's qua features nu wel de meest uitgeklede versie, zo is het hebben van geen HA een behoorlijk nadeel van deze versie.

TS zal goed moeten bepalen aan welke requirements de oplossing moet voldoen, en daar zowel de hard- als softwareoplossing op moeten aanpassen.

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


  • redfoxert
  • Registratie: December 2000
  • Niet online
Question Mark schreef op zondag 30 september 2012 @ 10:32:
[...]
Da's qua features nu wel de meest uitgeklede versie, zo is het hebben van geen HA een behoorlijk nadeel van deze versie.

TS zal goed moeten bepalen aan welke requirements de oplossing moet voldoen, en daar zowel de hard- als softwareoplossing op moeten aanpassen.
Klopt, het is dan ook niet voor niks de instap uitvoering :)

https://discord.com/invite/tweakers


  • Question Mark
  • Registratie: Mei 2003
  • Laatst online: 15:27

Question Mark

Moderator SSC/WOS

F7 - Nee - Ja

I know, :) en het zou heel goed kunnen zijn dat die versie prima voldoet (afhankelijk van de requirements). It all depends dus....

MCSE NT4/2K/2K3, MCTS, MCITP, CCA, CCEA, CCEE, CCIA, CCNA, CCDA, CCNP, CCDP, VCP, CEH + zwemdiploma A & B


  • Bl@ckbird
  • Registratie: November 2000
  • Niet online
Je kan Cisco servers niet "stacken" zoals bij een 3750 switch.

Blade servers hangen in een chassis en hierboven hangen twee fabric interconnects.
Op de fabric interconnects draait UCS Manager. De blade servers worden met 10GE aangesloten op de fabric interconnects. Het geheel kan je via een webinterface beheren. (UCS Manager) Daarnaast is er een XML API waar tegen je kan programmeren als je eigen netwerkmanagement tools hebt. Je kan ook Windows PowerShell Cmdlets gebruiken.

Een voordeel van UCS Manager is dat je Service profiles kan gebruiken. In een service profile definieer je hardware settings als RAID settings, BIOS settings, of je netwerk / FCoE wil gebruiken, booten van SAN, mac-adres (uit een pool van mac-adressen), etc. Een service profile kan je vervolgens toewijzen aan een blade server. (Dit kan ook over verschillende chassis.) Service profiles zit nog een laag lager dan virtualisatie software. Je kan bijvoorbeeld een service profiles hebben om een hypervisor te booten van SAN, om een exchange server te draaien op bare metal, om Oracle omgeving te starten, etc. Crasht server hardware, dan kan je een OS/Server op een andere blade server weer starten. ( HA moet dus in het bovenliggende OS liggen door virtualisatie of clustering technieken. )

UCS-C rack servers kan je beheren via een webinterface. Er is een apparte base-board controller / processor die deze webinterface draait. Maar het is een point-management oplossing. Wil je meerdere servers beheren, dan moet je meerdere servers configureren.

Door twee Nexus 2000 FEX-en te gebruiken, kan je UCS-C rack servers aansluiten op Fabric Interconnects. (Dus een bestaande blade omgeving.) Hierdoor kan je ook service profiles gebruiken op rack servers. ( Bedoel je dit met Stacken? ) Je kan dan beginnen met rack servers. Worden dit er meer, dan kan je Fabric Interconnects aanschaffen en UCS Manager gebruiken om het geheel te managen. Groei je verder, dan kan je een blade-chassis/servers aanschaffen. Service profiles zorgen er ook voor dat je binnen een half uur, ESXi kan hebben draaien op een nieuw blade-chassis.
Wat gebruik je voor software voor de san/nas, of heeft cisco hier ook software voor?
UCS-C rack servers kan je natuurlijk ook standalone gebruiken. Cisco levert alleen de onboard management tool en UCS Manager bij de fabric interconnects. Software dien je zelf te verzorgen. Je kan bijvoorbeeld een UCS-C serie server vol hangen met hard disks en hier FreeNAS, OpenFiler of Nexenta op draaien en deze als iSCSI target te gebruiken. Cisco support dan alleen de hardware, niet de software die hierop draait. Je kan bijvoorbeeld denken aan Windows Server 2012 met HyperV die local store ondersteund voor live-migration. Bij VMware heb je de Virtual Storage Appliance (VSA). Met vSphere 5.1 zijn er MKB bundels verkrijgbaar met hypervisor, vCenter en de VSA.

Wat betreft storage werkt Cisco samen met EMC (vBlock) en NetApp (FlexPod). Dit zijn standaard building blocks met storage, networking en computing voor x aantal severs / virtuele desktop, etc. Bij vBlock wordt de hele oplossing al op een pallet geleverd en krijg je een engineer van VCE er bij om alles te configureren.
VCE (Samenwerking van EMC en Cisco) is hierbij je aanspreekpunt. Verder ben je verplicht om 50% virtualisatie te draaien. (VMware uiteraard.)

Elke setup die bestaat uit Cisco UCS servers, Nexus switching en NetApp storage appliances mag een FlexPod heten. FlexPod werken meer met referentie ontwerpen hoe je het in moet richten. Deze designs zijn uitgebreidt getest door Cisco en NetApp en door de fabrikant die de extra software levert: Microsoft, SAP, VMware, etc.

Cisco, NetApp en VMware hebben samenwerkingsovereenkomst op het gebied van support.
Denk je dat een probleem bij networking ligt, dan schiet je een support case in bij Cisco TAC. Blijkt het aan VMware te liggen of aan de storage, dan wordt de case achter de schermen geëscaleerd bij VMware of NetApp. Maar de engineer bij Cisco TAC blijft owner van die support case.

Je kan dus een Cisco server gebruiken als NAS maar dan ben je zelf verantwoordelijk voor support op die NAS. Advanced features als snapshots, backup en replicatie functies, High Availability, deduplicatie van data zijn vaak niet of beperkt aanwezig op een zelfbouw NAS. Daarnaast mis je het support. (Niet zozeer op de Cisco hardware zelf, maar wel op het Cisco / NetApp / EMC / VMware als gevalideerde architectuur en single-point-of-contact voor multivendor support vragen.)
Wat is jullie ervaring met de hardware support van Cisco in geval van defecten?
Mits je Smartnet supportcontract afsluit, heb je een responsetijd van 2 of 4 uur of Next Business Day. Vragen over configuratie issues vallen ook onder Smartnet.

Verder is het handig om hier een Smartplay-bundel voor te nemen. Hierop geeft Cisco extra korting. Vervolgens kan je naar eigen inzicht memory en harde schijven toevoegen. Zie hiervoor ook de spec-sheets.

~ Voordelig Zelf Vliegen? ~ Sent using RFC 1149. Note: No animals were harmed during this data transfer. ~


Verwijderd

Topicstarter
Hallo allen, bedankt voor jullie reacties, en zeker ook Bl@ckbird voor de zeer uitgebreide reactie.

Ik ben bekend met de oplossingen van HP (Blade / MSA / EVA / switches etc), maar hier hangt altijd een bepaald prijskaartje aan en ben dus aan het onderzoeken wat betrouwbare en betaalbare alternatieven kunnen zijn.

Ik heb ook van iemand anders begrepen, tijdens een cursus, dat het bedrijf waar hij voor werkte oplossingen implementeren met cisco servers waarbij ze er dus 1 als NAS inrichten, en een aantal esx nodes los, en die aan de achterkant met elkaar verbinden (dus niet stacken, sorry). Of dit sas of netwerk of fiber of wat voor verbindingen precies zijn weet ik even niet, dat probeer ik nu uit te zoeken ;)

Ik realiseer me dat je op alle mogelijke manieren zelf een nas kan bouwen, persoonlijk ben ik daar niet zo'n fan van. Ik kies dan liever voor een nas appliance, of een hp storage server met windows storage server geïnstalleerd.

Maar als ik het goed begrijp door hier te lezen heeft Cisco zelf geen out-of-the box NAS Server oplossingen (inclusief software)?

  • Bl@ckbird
  • Registratie: November 2000
  • Niet online
Cisco heeft in het verleden NASjes geleverd, maar dit waren MKB producten. ( Rebranded Qnap ) Maar deze worden niet meer verkocht. Wat betreft storage werkt Cisco dus nauw samen met EMC en NetApp. In de rack servers heeft men diverse adapters voor iSCSI (hardware offloading), Fibre Channel, 10 Gigabit Ethernet en FCoE (over 10GE).

Cisco UCS P81E Virtual Interface Card is eigen hardware van Cisco. Overige adapters zijn rebranded hardware van Emulex, Intel, Qlogic en Broadcom. Uiteindelijk zijn Cisco servers gewoon x86 hardware en kan je hier je eigen adapters in plaatsen, maar dan ben je zelf verantwoordelijk voor support. (Cisco werkt nu ook samen met FusionIO, heb ik begrepen.)

~ Voordelig Zelf Vliegen? ~ Sent using RFC 1149. Note: No animals were harmed during this data transfer. ~

Pagina: 1