Hardware voor serverconsolidatie

Pagina: 1
Acties:

Onderwerpen


Acties:
  • 0 Henk 'm!

  • Artouiros
  • Registratie: December 2007
  • Laatst online: 01-05 15:54
Hallo,

Ik heb al een heel deel van dit forum doorgelezen en heb er al veel bij opgestoken maar ik zou graag toch beroep doen op jullie kennis en ervaring. Ik probeer zoveel mogelijk informatie te geven maar ik ga sowieso dingen vergeten of overzien dus vraag het gerust maar.

Ikzelf ben een student ICT die in Schotland een internationale stage doet. Mijn opdracht wordt kort samengevat als ‘server consolidation’. Over servervirtualisatie is er op mijn hogeschool weinig echt gesproken geweest maar ik heb er al vaak over opgezocht en gelezen omdat ik het persoonlijk erg interessant vindt.

In het bedrijf waar ik mijn stage doe staan er voorlopig 6 servers en een heel deel gewone computers te draaien die wat servertaken uitvoeren. Een deel van deze servers draaien al virtueel op de gratis versie van ESXi en andere mission-critical taken staan nog op een standalone.
Dit zien diensten als ldap, mail en CRM, de demo-servers en een hele boel linux servers waar developers hun producten op bouwen of uittesten zijn al virtueel (+- 50, niet tesamen actief).
Er is een centrale storage’bak’ met hardware-raid die via NFS beschikbaar is; voor een andere boel servers wordt er gebruik gemaakt van lokale opslag met software-raid.

Het doel is om dit allemaal te gaan virtualiseren en dat er gebruik kan gemaakt worden van live migration en high availability.

Na twee weken papers lezen en het te bespreken met mijn supervisor is er al gekozen voor VMware vSphere. Er wordt gekeken naar een Standard Acceleration Kit dat bestaat uit licenties voor 8 CPU’s, 32GB vRAM/CPU en vCenter Standard.

Het volgende is de keuze voor hardware en hier loop ik mee in de knoop. Ik heb al veel gelezen zoals de benodigde ‘componenten’ en de verschillen tussen blade servers en rack mounted servers maar zodra ik specifiek hardware ga uitzoeken kom ik met maar met meer vragen uit.

Als startidee zoeken we naar 3 hosts met 2 Quad-core CPU’s met minimaal 16GB RAM, liefst al 32GB.

Om het even voor te stellen had ik gekeken naar HP aangezien er hier ook vooral HP hardware staat. Het is echter geen verplichting om naar HP uit te kijken.

Als ik naar een blade-setup kijk dacht ik dat een combinatie met een HP C3000 Enclosure met daarin Proliant BL460c G7’s erin wel een goede keuze zou zijn. Daaraan dan een SAN, ik ben een paar keer weer bij een HP P2000 G3 uitgekomen.

Hier stopt het voorlopig bij mij. De keuze tussen (blade) servers zal iets zijn naargelang wat men qua performance nodig heeft maar bij SAN’en is er zoveel keuze dat ik door de bomen het bos niet meer zie.

Ik heb al gekeken bij NetApp, HP en IBM maar kom meestal uit bij torenhoge oplossingen die sowieso overkill zijn (alsook voor het financiële aspect).

Ik weet dat ik jullie niet moet vragen om mijn probleem op te lossen maar en duwtje in de goede richting zou nu echt welkom zijn of wat extern advies.

Met vriendelijke groet,
Arthur

[ Voor 0% gewijzigd door Artouiros op 22-03-2012 17:07 . Reden: Typo; NAS -> SAN ]


Acties:
  • 0 Henk 'm!

  • cork87
  • Registratie: Maart 2010
  • Laatst online: 29-09-2022
Hoi Arthur,

Allereerst de vraag wat is het budget wat eraan gespendeerd mag worden? HP servers is goede kwaliteit, hoewel ik persoonlijk mijn bedenkingen heb bij de nieuwe proliant series in verband met het vreselijk lang duren voordat de server opstart. Maar zowel HP als Dell als supermicro hebben servers in het arrangement zitten waarmee je een goed en degelijk VMware platform kan maken.Qua SAN is het zeker belangrijk wat je voor budget hebt en om hoeveel storage je nodig hebt en hoe makkelijk is de storage uit te breiden in de toekomst indien dat nodig zou zijn. Netapp en EMC zijn beide grote spelers maar ook duur.

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 22:08
Bel Dell op HP (of je preferred supplier) voor een voorstel? ;)

Dell heeft bijvoorbeeld http://www.dell.com/nl/be...n-infrastructure?~ck=anav maar ook andere dingen (meer op maat) zijn mogelijk natuurlijk.

Een blade is leuk als je nog flink uit wil gaan breiden, maar het chassis en de netwerkmodules zijn ook zeker niet goedkoop. Als je de rackspace hebt is een 1u server vaak goedkoper (maar ik heb niet zo heel veel ervaring met blades aanschaffen, mogelijk heb ik het mis).

Voor dit soort dingen wil je geen NAS (vaak niet bijster professioneel / redundant / hotswappable opgezet, en sowieso biedt het op file-niveau bestanden aan ipv op block-niveau) maar een SAN: diskarrays met redundant voeding, redundant cooling, redundant controllers, redundant eigenlijk alles (alleen de backplane niet), dubbel uitgevoerde switches, alle verbindingen dubbel, bloedsnel, helemaal ingericht voor dit werk en goede support.

Het is nogal een groot vraagstuk om zo maar even op een forum te zetten :) Gezien de hoeveelheid guests zou ik overigens geen hosts met 32 GB ram nemen maar er direct 64 GB in zetten; past binnen je licentiebudget en kost heel wat minder dan wanneer die die extra 32 GB in een extra host zet. Processor is (sommige taken uitgezonderd natuurlijk, maar als het goed is weet jij dat beter dan wij; jij kunt meten :P ) niet snel de beperkende factor :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Remco
  • Registratie: Januari 2001
  • Laatst online: 17:33
Tja, inderdaad moeilijk op deze wijze antwoord te geven. Ikzelf zou in ieder geval meer RAM erin zetten. 16GB is echt weinig. Net zoals Paul zegt het liefst 64 GB. Houd er rekening mee dat als je FT of HA gaat draaien, en er valt een host uit, dat de overige hosts voldoende RAM nodig hebben om het op te vangen. Verder draaien we hier ook een P2000 SAN met 2 * 8Gbit fiber connectie, en dat gaat prima. We zijn daar zeer tevreden over.
Verder moet je ook je switches niet vergeten. Zijn deze stackable en kunnen ze failover aan etc...
Verder heb ik goede ervaringen met de HP DL 380 series. Met blade heb ik in kleine omgevingen slechte/dure ervaringen. Maar goed, dat is persoonlijk.

The best thing about UDP jokes is that I don't care if you get them or not.


Acties:
  • 0 Henk 'm!

  • Artouiros
  • Registratie: December 2007
  • Laatst online: 01-05 15:54
De storage zou minimaal 1TB moeten zijn, mogelijk al naar 2TB toe. Het zou wel modulair of uit te breiden moeten zijn om later te kunnen groeien.

De VMware TCO/ROI Calculator berekende dat ik een 'opstart'kost zou hebben van +-$50.000. Dat zou volgens mijn supervisor (met het nodige klagen) wel goedgekeurd kunnen worden door de CTO.

@Paul: Oops typo! Ik bedoelde dus idd een SAN. En dat van het geheugen heb je zeker een punt, zal het als 'beste scenario' opnemen, met wat geluk past het allemaal in het budget.
Ik zal uiteindelijk ook contact moeten opnemen voor een offerte maar ik heb voorlopig het idee dat ik er te weinig zicht over heb om daar goed op te kunnen inspelen en te analyseren.

Alvast bedankt voor jullie antwoorden :)

Acties:
  • 0 Henk 'm!

  • Remco
  • Registratie: Januari 2001
  • Laatst online: 17:33
Turre schreef op donderdag 22 maart 2012 @ 17:06:
@Paul: Oops typo! Ik bedoelde dus idd een SAN. En dat van het geheugen heb je zeker een punt, zal het als 'beste scenario' opnemen, met wat geluk past het allemaal in het budget.
Niet om het een of ander, maar ik zou het niet als beste scenario opnemen, maar gewoon in alle scenario's. Wij zijn 1 jaar geleden over gegaan van een compleet fysieken naar virtuele omgeving. En we hadden alles netjes berekend en doorgerekend.
We hebben toen aangeschaft stackable switches, fiber switches, SAN's, servers, etc.. etc...
Uiteindelijk hebben we alleen het geheugen gebruik foutief ingeschat. Wij gingen uit van 32 GB per host. Niets is een bottleneck behalve het geheugen gebruik. Momenteel hebben de servers 74 GB aan RAM per stuk, en die heeft nu ongeveer een memoryload van 50% per server. Dit willen we zo houden omdat we ook nog in fail-over moeten kunnen gaan zonder dat er een domino effect ontstaat op de omgeving.
Qua processoren staan de servers helemaal niets te doen. Dus memory is een belangrijk knelpunt.

The best thing about UDP jokes is that I don't care if you get them or not.


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 22:08
Remco schreef op donderdag 22 maart 2012 @ 17:25:
We hebben toen aangeschaft stackable switches, fiber switches, SAN's, servers, etc.. etc...
Ik neem aan dat die fiber switches onderdeel zijn van je SAN? Het is een redelijk veel gemaakte fout om te denken dat een diskarray gelijk staat aan een SAN, een fout die je financieel op kan breken als je er later achter komt dat er nog voor een paar duizend euro aan switches bij komt :)

Je kunt overigens ook iSCSI overwegen, ook bloedsnel, maar vaak flink goedkoper :) Voor 50K moet je een heel mooi geheel in elkaar kunnen zetten overigens :)

Let wel op je licenties, met name Microsoft. Met één Standard-licentie mag je maar 1x per 90 dagen failoveren naar een andere host, je kunt overwegen voor Enterprise (4 guests) of Datacenter (unlimited guests) te gaan; 1 per processor en je mag zoveel failoveren als je wilt :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • Remco
  • Registratie: Januari 2001
  • Laatst online: 17:33
Paul schreef op donderdag 22 maart 2012 @ 17:29:
[...]
Ik neem aan dat die fiber switches onderdeel zijn van je SAN?
Er valt over te discussiëren wat nu wel en niet een onderdeel van het SAN is, maar ik vind van niet. Wij hebben de switches los moeten aanschaffen, dus tja geen onderdeel van...
Maar, je hebt ze wel weer nodig om je SAN te kunnen gebruiken. Het is maar vanuit welke view je het bekijkt.

In ieder geval hebben we 2 * HP P2000 gekocht die met elkaar in fail-over staan. Verder heeft elke P2000 dubbele controllers. Elke controller bestaat uit 2 * 8 Gbit fc en 1 * 1 Gbit iSCSI. Vanuit daar gaat elke fc naar een andere fiberswitch voor ook weer fail-over.
De iSCSI aansluitingen gaan naar een Cisco 2960 switch die weer gestacked is met eenzelfde type.
Verder heeft elke ESXi machine (HP DL 380) 2 fc kaarten die ook elk weer naar een andere fc switch gaan. Backuppen doen we rechtstreeks vanaf het SAN met fc via Veeam.
Het mooie van de P2000 is dat hij zowel iSCSI als fc tegelijk aan kan. Op deze wijze kunnen we sommige testvolumes heel makkelijk heen en weer schuiven tussen fc en iSCSI. Wij hebben namelijk nog een aantal bare-metal Linux machines die het iSCSI gedeelte van het SAN gebruiken.
Verder hebben we als ICT nog wat test machines op VMware via iSCSI ontsloten. Ik monitor de switchpoorten met Cacti, en ik moet zeggen dat het verkeer van iSCSI vrijwel nihil is.

Verder wellicht iets om nog mee te nemen is het aantal ethernet aansluitingen. Wij gebruiken er momenteel 10 per server.
3 * 1 Gbit voor data naar 3 aparte Cisco 3750 gestackte switches
1 * 1 Gbit voor DMZ, helaas niet dubbel uitgevoerd
2 * 1 Gbit voor iSCSI naar gestackte Cisco 2960
2 * 1 Gbit voor FT logging naar gestackte Cisco 2960
2 * 1 Gbit voor Management Vmware naar gestackte Cisco 2960
Paul schreef op donderdag 22 maart 2012 @ 17:29:
[...]
Let wel op je licenties, met name Microsoft. Met één Standard-licentie mag je maar 1x per 90 dagen failoveren naar een andere host, je kunt overwegen voor Enterprise (4 guests) of Datacenter (unlimited guests) te gaan; 1 per processor en je mag zoveel failoveren als je wilt :)
Je kan toch Vmware als virtualisatie laag gebruiken? Dan heb je geen last van Microsoft licenties en kan je toch fail-overen.

[ Voor 12% gewijzigd door Remco op 24-03-2012 14:49 ]

The best thing about UDP jokes is that I don't care if you get them or not.


Acties:
  • 0 Henk 'm!

  • m0nk
  • Registratie: Juni 2001
  • Laatst online: 20:43

m0nk

16-09-2003 15.15

Waarom blade servers voor zo'n kleine omgeving? Zet gewoon wat rack mounted servers in al dan niet met 10gb eth kaarten of fc kaarten en zet er een Netapp FAS2240 onder. NFS volumes voor je vSphere omgeving, CIFS shares voor je filesharing en met alle Snapmanagers erbij nog eens extra onsite backups. Zou pas naar Bladeomgevingen gaan kijken als je omgeving heel flink gaat groeien of iets met VDI gaat doen.. En dan zou ik persoonlijk kijken naar een flexpod oplossing (Cisco UCS/Vmware en Netapp)

13-05-2016 15:00 | 08-11-2017 8:30 | 25-11-2024 13:47


Acties:
  • 0 Henk 'm!

  • Bl@ckbird
  • Registratie: November 2000
  • Niet online
Er zit een kleine FlexPod omgeving aan te komen met alleen Cisco C-Series rackmount servers.

~ Voordelig Zelf Vliegen? ~ Sent using RFC 1149. Note: No animals were harmed during this data transfer. ~


Acties:
  • 0 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 23:44

DukeBox

loves wheat smoothies

Ik zou het normaal niet snel aanraden maar in jouw geval kan het wel nuttig zijn, kijk ook eens maar vSphere VSA, met 'maar' 3 hosts en zulke minimale spec's kan dat al snel een (veel) goedkopere oplossing zijn die voldoende performance biedt i.p.v. een SAN. Mocht je iets meer 'boost' nodig hebben is een lokale ssd (mirror) oplossing echt geweldig met vSphere om daar je host (en guest) cache op te plaatsen.

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Laatst online: 22:08
Remco schreef op zaterdag 24 maart 2012 @ 14:48:
Er valt over te discussiëren wat nu wel en niet een onderdeel van het SAN is, maar ik vind van niet. Wij hebben de switches los moeten aanschaffen, dus tja geen onderdeel van...
Maar, je hebt ze wel weer nodig om je SAN te kunnen gebruiken. Het is maar vanuit welke view je het bekijkt.
Ik heb het idee dat je weer je Storage gelijkstelt aan je Storage Area Network :)

Laat ik de vraag anders stellen: Maken je switches en routers uit van je Local Area Network of bestaat dat alleen uit servers en werkstations?
Verder wellicht iets om nog mee te nemen is het aantal ethernet aansluitingen. Wij gebruiken er momenteel 10 per server.
Ik dacht dat wij met 2x iSCSI, 2x LAN (en nog wat VLANs), 1x vMotion en 1x management (DRAC / ILO) al veel kabels hadden :P
Je kan toch Vmware als virtualisatie laag gebruiken? Dan heb je geen last van Microsoft licenties en kan je toch fail-overen.
Ook dan heb je last van MS licenties: je mag één licentie in geval van OEM helemaal nooit naar een andere fysieke machine overhevelen, retail en OpenLicence mag maar één keer per 90 dagen. Vandaar dat je dus (aantal hosts) * (aantal VMs) aan licenties nodig hebt als je oneindig vaak wilt vMotionen (bijvoorbeeld voor VMware DRS). Wel kun je gebruik maken van de clausules dat je op een Enterprise-versie 4x virtueel mag draaien en op een Datacenter oneindig.

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • w2cker
  • Registratie: Augustus 2010
  • Laatst online: 10-07 16:15
Bij virtualisatie en iSCSI heb je inderdaad al snel veel kabels. Wij hebben ook 8x netwerk. 1x ilo, 1x kvm, nog een externe sas kabel. En dan natuurlijk nog 2x 220v.

Je kunt ook 2 zware server nemen met veel interne storage, daar w2008 opzetten met hyper-v, en dan met starwind iSCSI software een redundante hyper-v/san combinatie van maken,

MCITP SA & EA, MCSA, MCSE, en nog een aantal titels


Acties:
  • 0 Henk 'm!

  • deadlock2k
  • Registratie: Januari 2003
  • Laatst online: 10-08 20:26
Paul schreef op maandag 26 maart 2012 @ 10:52:
Ook dan heb je last van MS licenties: je mag één licentie in geval van OEM helemaal nooit naar een andere fysieke machine overhevelen, retail en OpenLicence mag maar één keer per 90 dagen. Vandaar dat je dus (aantal hosts) * (aantal VMs) aan licenties nodig hebt als je oneindig vaak wilt vMotionen (bijvoorbeeld voor VMware DRS). Wel kun je gebruik maken van de clausules dat je op een Enterprise-versie 4x virtueel mag draaien en op een Datacenter oneindig.
Dat is de reden dat ik serieus aan het kijken ben naar Hyper-V (de versie die met Windows Server 8 geleverd wordt). Ik betaal nu €250,- per fysieke server per jaar voor een Windows Datacenter licentie en dan mag ik er zoveel cores en geheugen inproppen als ik wil, en een veelvoud daarvan aan support voor VMware met beperkingen in de hoeveelheid geheugen die ik mag inzetten.

Acties:
  • 0 Henk 'm!

  • Jazzy
  • Registratie: Juni 2000
  • Laatst online: 12-09 16:29

Jazzy

Moderator SSC/PB

Moooooh!

Turre schreef op donderdag 22 maart 2012 @ 16:38:
Ik weet dat ik jullie niet moet vragen om mijn probleem op te lossen maar en duwtje in de goede richting zou nu echt welkom zijn of wat extern advies.
De eerstvolgende stap zou moeten zijn dat je de eisen gaat concretiseren. Die stap sla je nu over en dat is de reden waarom het zo moeilijk is om hardware te vinden.

Denk bijvoorbeeld aan het volgende:
- Hoeveel VM's moet ik kwijt kunnen?
- Hoeveel CPU gebruiken die samen?
- Hoeveel memory?
- Hoeveel diskruimte en hoeveel IOPs?
- Hoeveel 'headroom' wil ik bieden? (het aanmaken van VM's gaat straks zo makkelijk dat je al snel een verdubbeling hebt :))
- Hoeveel servers heb ik nodig om dat onder te brengen? Stelregel: stop zo veel geheugen in een server als je kunt betalen. Je zult zien dat er een omslagpunt is rond de 96/128 GB dat het goedkoper wordt om gewoon een server bij te plaatsen.
- Voeg één server toe voor hoge beschikbaarheid.
- Welke hypervisor? De marktleiders zijn VMware en Microsoft en met name die laatste is prijstechnisch heel interessant door de managementsuite en het ontbreken van de vTax.

Op deze manier weet je in ieder geval al snel hoeveel servers je nodig hebt en hoe zwaar die moeten zijn. Ook weet je hoeveel opslag en IOPs de storage moet kunnen leveren. Met die gegevens kun je nu naar een hwardware-leverancier gaan en die kan je een passende aanbieding doen.

Exchange en Office 365 specialist. Mijn blog.


Acties:
  • 0 Henk 'm!

  • Artouiros
  • Registratie: December 2007
  • Laatst online: 01-05 15:54
Die Dell vStart ziet er wel knap uit, het zou wel een gemakkelijke oplossing zijn, maar de vStart 50 gaat zeker niet voldoende zijn. En de prijs van de vStart 100 zou beginnen aan $99.000 wat het budget toch overtreft.

Ik heb me verder verdiept in de SAN en ik heb het idee dat de SAN opstelling met fiber connecties te duur zou zijn om te voorzien. Of is het toch aangewezen om de SAN met zijn switchen en dan servers met fiber te verbinden? Ik kan niet veel concrete informatie vinden of GbE zou voldoende zijn. Alle verbindingen zouden natuurlijk wel redundant zijn dus er is een soort van teaming?
Ik weet dat het onmogelijk is om hier op te antwoorden want het verschilt van toepassing tot toepassing maar van wat ik gelezen heb ziet het ernaar uit dat iedereen voor 8Gb/10Gb gaat. Is 1GbE dan een slechte keuze?

@m0nk: Blade servers zouden vermoed ik ook wel te duur uitkomen. De NetApp FAS2240 is heel interessant maar ik zal contact moeten opnemen om te bekijken wat de prijs hiervan is. Volgens enkele bronnen zou het toestel zelf rond de $7.500 beginnen. Wat goedkoper is vergeleken met een EqualLogic PS4100X aan $9.500. Of mis ik hier enkele belangrijke details?
(Ik neem aan dat je zo’n NetApp toch ook kunt bestellen zonder een volle uitvoering aan disks? Dat zou de startprijs wel kunnen drukken al is dat niet gunstig qua I/O performance)

@DukeBox: VSA is voor een scenario met maar 3 hosts zeker niet slecht maar het is niet scalable en zodra het ingesteld is en er op ‘gewerkt’ wordt is er niets meer te wijzigen. De replication tussen de primary datastore en de replica zullen ook veel vergen van het netwerk. Dus dan ben je zeker verplicht om zwaar te investeren in oa. het netwerk zodat je zeker bent dat de hosts zo weinig mogelijk performance verliezen met het beheren van VSA. Ik ben niet overtuigd dat dit toekomstgericht de beste keuze is.

Uit 'Performance of VSA on vSphere 5' door VMware
The hardware used for VSA is a big factor in performance. Ensure that the RAID adapter in the VSA hosts has sizeable cache and the cache is enabled.

VSA requires a RAID 1/0 configuration for the local storage on the hosts and also replicates data across the cluster to provide highly available shared storage. When planning a deployment of VSA, the combination of RAID 1/0 and data replication mean that useable capacity will be 1⁄4 of raw capacity and each write by a VM will result in two physical writes on the primary host and two physical writes on the replica host.
@w2cker: Bedoel je dus 2 zware servers te nemen en deze als SAN te configureren? Dan kom je qua kosten toch ook in de buurt van een ‘originele’ SAN? En met Hyper-V en Starwind iSCSI software kom je ook uit met meerdere aspecten waar je rekening moet mee houden als er iets fout loopt.

@Jazzy: Je hebt gelijk; ‘Meten is weten’, ik heb het al zo vaak gelezen :)
Mijn supervisor heeft het de voorbije weken wel erg druk gehad dus ik kan nog niet met concrete cijfers afkomen. Daarom dat ik ook nog niet concreet verder naar servers heb gezocht.
Ik had wel de opdracht gekregen om minstens met 3 hosts met elk 2 quad-core CPU’s te starten. Er werd 32GB RAM voorgesteld maar dat zal zoals Remco en Paul zeggen niet voldoende zijn. Op een werkdag zouden er minimaal 30 linux-distro’s draaien.
Als ik alle gegevens heb kan ik het posten en op zoek gaan naar servers.

De keuze voor VMware werd al gemaakt. De volgende versie van Hyper-V zou mogelijk wel een alternatief zijn maar dat zal nog een jaar duren alvorens het toegepast kan worden vrees ik.


Mijn excuses voor de lange post en mogelijke typos. (hoop dat ik geen onzin uitkraam :))
Tot zover mijn update, heb nog een heleboel guides over reference architectures en design guides te lezen.

Al reeds bedankt voor al jullie antwoorden!

Acties:
  • 0 Henk 'm!

  • hans_lenze
  • Registratie: Juli 2003
  • Laatst online: 00:44
Turre schreef op dinsdag 27 maart 2012 @ 16:14:
Ik heb me verder verdiept in de SAN en ik heb het idee dat de SAN opstelling met fiber connecties te duur zou zijn om te voorzien. Of is het toch aangewezen om de SAN met zijn switchen en dan servers met fiber te verbinden? Ik kan niet veel concrete informatie vinden of GbE zou voldoende zijn. Alle verbindingen zouden natuurlijk wel redundant zijn dus er is een soort van teaming?
Ik weet dat het onmogelijk is om hier op te antwoorden want het verschilt van toepassing tot toepassing maar van wat ik gelezen heb ziet het ernaar uit dat iedereen voor 8Gb/10Gb gaat. Is 1GbE dan een slechte keuze?
1GbE is zeker niet slecht, je moet er alleen wat meer van inzetten. De meeste zinnige iSCSI oplossingen bieden ook multipathing waardoor je meerdere ethernet kabels ook allemaal tegelijk benut.
@m0nk: Blade servers zouden vermoed ik ook wel te duur uitkomen. De NetApp FAS2240 is heel interessant maar ik zal contact moeten opnemen om te bekijken wat de prijs hiervan is. Volgens enkele bronnen zou het toestel zelf rond de $7.500 beginnen. Wat goedkoper is vergeleken met een EqualLogic PS4100X aan $9.500. Of mis ik hier enkele belangrijke details?
(Ik neem aan dat je zo’n NetApp toch ook kunt bestellen zonder een volle uitvoering aan disks? Dat zou de startprijs wel kunnen drukken al is dat niet gunstig qua I/O performance)
Weet dat NetApp en Dell Equallogic een ander prijsmodel hebben. NetApp verkoopt een 'kale' doos waar je met licenties meer mogelijkheden aan toe kunt voegen. Dell Equallogic verkoopt je het complete pakket voor één prijs waarbij de mogelijkheden veranderen per firmware versie (gratis te downloaden zolang je support hebt).
@DukeBox: VSA is voor een scenario met maar 3 hosts zeker niet slecht maar het is niet scalable en zodra het ingesteld is en er op ‘gewerkt’ wordt is er niets meer te wijzigen. De replication tussen de primary datastore en de replica zullen ook veel vergen van het netwerk. Dus dan ben je zeker verplicht om zwaar te investeren in oa. het netwerk zodat je zeker bent dat de hosts zo weinig mogelijk performance verliezen met het beheren van VSA. Ik ben niet overtuigd dat dit toekomstgericht de beste keuze is.

@w2cker: Bedoel je dus 2 zware servers te nemen en deze als SAN te configureren? Dan kom je qua kosten toch ook in de buurt van een ‘originele’ SAN? En met Hyper-V en Starwind iSCSI software kom je ook uit met meerdere aspecten waar je rekening moet mee houden als er iets fout loopt.
Als Ubuntu als guest OS een eis is, is Hyper-V al snel geen optie meer. Zie ook deze link.
XenServer heeft dan een veel betere ondersteuning. Zie deze link.
En de lijst voor VMware. Zie deze link.
@Jazzy: Je hebt gelijk; ‘Meten is weten’, ik heb het al zo vaak gelezen :)
Mijn supervisor heeft het de voorbije weken wel erg druk gehad dus ik kan nog niet met concrete cijfers afkomen. Daarom dat ik ook nog niet concreet verder naar servers heb gezocht.
Ik had wel de opdracht gekregen om minstens met 3 hosts met elk 2 quad-core CPU’s te starten. Er werd 32GB RAM voorgesteld maar dat zal zoals Remco en Paul zeggen niet voldoende zijn. Op een werkdag zouden er minimaal 30 linux-distro’s draaien.
Als ik alle gegevens heb kan ik het posten en op zoek gaan naar servers.
Wat bedoel je precies met linux-distro's?
De keuze voor VMware werd al gemaakt. De volgende versie van Hyper-V zou mogelijk wel een alternatief zijn maar dat zal nog een jaar duren alvorens het toegepast kan worden vrees ik.

while (! ( succeed = try ()));


Acties:
  • 0 Henk 'm!

  • Artouiros
  • Registratie: December 2007
  • Laatst online: 01-05 15:54
hans_lenze schreef op woensdag 28 maart 2012 @ 01:38:
[...]

Als Ubuntu als guest OS een eis is, is Hyper-V al snel geen optie meer. Zie ook deze link.
XenServer heeft dan een veel betere ondersteuning. Zie deze link.
En de lijst voor VMware. Zie deze link.

[...]

Wat bedoel je precies met linux-distro's?

[...]
Linux-distro's is mogelijk wel de slechte benaming maar hier wordt voornamelijk gewerkt met Ubuntu en CentOS.
(Daarom dat Hyper-V er ook al snel uit lag. Wel gek dat bij VMware nu al Windows Server 8 ertussen staat)

Acties:
  • 0 Henk 'm!

  • Bl@ckbird
  • Registratie: November 2000
  • Niet online
Turre schreef op dinsdag 27 maart 2012 @ 16:14:
(Ik neem aan dat je zo’n NetApp toch ook kunt bestellen zonder een volle uitvoering aan disks? Dat zou de startprijs wel kunnen drukken al is dat niet gunstig qua I/O performance)
Dat kan. Je kan snelle SAS schijven nemen, of je kan kijken naar een combi trage SATA schijven en Flashcache waarmee je veel IOPs kan leveren. (Dit is een PCI Express card met SSD.)
Vooral als je VDI doet wil je graag veel IOPs hebben om boot-storms te ondervangen.

~ Voordelig Zelf Vliegen? ~ Sent using RFC 1149. Note: No animals were harmed during this data transfer. ~


Acties:
  • 0 Henk 'm!

  • Supermario16
  • Registratie: Mei 2004
  • Laatst online: 15-09 07:55
Als je een goedkoop, snel en redundant storage systeem wilt hebben op basis van iSCSI zou je kunnen kijken naar een van de vele Linux oplossingen. Nadeel hiervan is wel de relatief hoge leercurve maar als het eenmaal draait werkt het als een zonnetje :) Voordeel is dat je geen licentiekosten hebt, hardware relatief goedkoop kan zijn en je alles zelf kunt beheren (mits je de benodigde kennis hebt).

Acties:
  • 0 Henk 'm!

  • mieJas
  • Registratie: April 2005
  • Niet online

mieJas

Ja, maar nee.

Mocht je beslissen om je LUNs over NFS of iSCSI aan te bieden, kan je misschien eens kijken naar een ZFS Storage Appliance van Oracle. Zal licentiegewijs en bij uitbreidingen een stuk goedkoper uitkomen dan een NetApp.

Dacht dat enkel de 7420 FC deed, maar de lagere modellen blijkbaar ook. Niet enkel nuttig voor NFS of iSCSI dus...

[ Voor 21% gewijzigd door mieJas op 06-04-2012 09:02 ]

Yes, but no.

Pagina: 1