Acties:
  • 0 Henk 'm!

  • appie1981
  • Registratie: Januari 2007
  • Laatst online: 30-03 22:03
Hallo,

Ik ben momenteel bezig met het samenstellen van een ESX server.
Hieronder staan de specificaties:

CPU 2x Intel E5-2620
Moederbord: Super Micro X9DA7
Geheugen: 128GB

Het probleem waar ik mee zit is eigenlijk de storage. Aangezien ESX een enterprise product is kan ik niet heel veel informatie vinden over consumenten SSDs.
Mijn vraag is zijn er mensen die ervaringen hebben met consumenten SSD's zoals de Samsung 840 serie?
Ik wil vooral voor performance gaan is het dan ook nog zinvol om SSD schijven in RAID 0 te zetten via onboard controller of kan ik dan beter een losse RAID controller halen?

[ Voor 64% gewijzigd door appie1981 op 20-03-2013 11:34 ]


Acties:
  • 0 Henk 'm!

  • Equator
  • Registratie: April 2001
  • Laatst online: 18-07 21:31

Equator

Crew Council

#whisky #barista

Check als eerste dit topic eens: VMware in MKB: 3 goede servers of 2 snellere

Verder meld ik hier ook nog wat over het verschil tussen Enterprise SSD en Consumer SSD: Equator in "Terminal Server 15 users - Advies over (co)locatie gevraagd"

Wat er voor wat betreft performance verschil zit tussen de onboard controller en een losse controller durf ik nu niets over te zeggen.

Acties:
  • 0 Henk 'm!

  • appie1981
  • Registratie: Januari 2007
  • Laatst online: 30-03 22:03
Bedankt voor de informatie over de consumenten SSD vs de Enterprise SSD. Zo te zien zit het verschil vooral de betrouwbaarheid en de levensduur. Beide zijn voor mij niet zo relevant aangezien het geen productieserver wordt.

Ik ben eigenlijk benieuwd of er mensen zijn die ervaring hebben met het verschil tussen 15K SAS schijven en SSD disks.

Ps. Laphroaig is inderdaad de lekkerste whisky ooit _/-\o_

Acties:
  • 0 Henk 'm!

  • ResuCigam
  • Registratie: Maart 2005
  • Laatst online: 19-07 20:20

ResuCigam

BOFH

Een van de grootste bottlenecks bij VM's is de disk i/o en die is bij een enkele SSD al vele malen hoger dan een raid van enkele HDD's. Ik zou zelf gewoon met 1 SSD beginnen.

We do what we must because we can.


Acties:
  • 0 Henk 'm!

  • appie1981
  • Registratie: Januari 2007
  • Laatst online: 30-03 22:03
ResuCigam schreef op woensdag 20 maart 2013 @ 12:45:
Een van de grootste bottlenecks bij VM's is de disk i/o en die is bij een enkele SSD al vele malen hoger dan een raid van enkele HDD's. Ik zou zelf gewoon met 1 SSD beginnen.
Je bedoelt neem ik aan de de IO van een SSD hoger is dan van een RAID en niet de bottleneck toch?

Acties:
  • 0 Henk 'm!

  • Equator
  • Registratie: April 2001
  • Laatst online: 18-07 21:31

Equator

Crew Council

#whisky #barista

Hij omschrijft het wat raar, maar ja. Hij bedoelt dat de IOPS van een enkele SSD hoger ligt dan van een of meerdere 15k RPM SAS disks.

Veel van de SSD's zijn op de frontpage wel eens besproken of is een review van. Daar kan je een idee krijgen van de verschillende performance karakteristieken. 15k RPM SAS doet gemiddeld 175 IOPS per disk. Een RAIDSET van 10 disken (RAID DP, 2 hot spares) geeft 6x 175 IOPS. (Theoretisch).
Een enkele SSD (consumer) bijvoorbeeld een Samsung 840 Pro haalt bijna 100.000 IOPS. Maar dat gaat om sequential reads. Random writes ziet er heel anders uit en verschilt echt per SSD.

Het is dus appels met peren vergelijken. Kijk naar de verwachte karakteristieken (veel writes, weinig reads of andersom.)
Wat wil je gaan virtualiseren..1 server, 10 servers? Terminal Servers, Database Servers, Exchange Servers? Elk type server heeft immers andere karakteristieken..

Acties:
  • 0 Henk 'm!

  • appie1981
  • Registratie: Januari 2007
  • Laatst online: 30-03 22:03
Ik wil er een hele kantoor test omgeving op gaan draaien, DC's Mailservers etc, maar het grootste aantal vm's zullen Windows7 en XP clients worden voor het testen van group policy's etc. Al met al dus een groot aantal vm's waarvan er veel vrijwel identiek aan elkaar zijn.

Acties:
  • 0 Henk 'm!

  • marc181982
  • Registratie: Augustus 2005
  • Laatst online: 06-07 09:20
Gebruik voor een test omgeving een OCZ Vertex 4 2x256GB in stripe, dit werkt uitstekend voor een test omgeving. Hierop draaien een aantal Exchange servers,Terminal servers,Domain controllers,Windows 7 hosts. Persoonlijk vind ik Hyper-v 2012 beter werken op een SSD schijf dan ESXI 5.x, de hosts reageerden een stuk beter.

Acties:
  • 0 Henk 'm!

  • appie1981
  • Registratie: Januari 2007
  • Laatst online: 30-03 22:03
marc181982 schreef op woensdag 20 maart 2013 @ 19:14:
Gebruik voor een test omgeving een OCZ Vertex 4 2x256GB in stripe, dit werkt uitstekend voor een test omgeving. Hierop draaien een aantal Exchange servers,Terminal servers,Domain controllers,Windows 7 hosts. Persoonlijk vind ik Hyper-v 2012 beter werken op een SSD schijf dan ESXI 5.x, de hosts reageerden een stuk beter.
Mag ik vragen welke RAID controller je gebruikt?
Ik heb zelf nog een Adaptec 5405 liggen, het is al een wat oudere kaart.
http://www.adaptec.com/en-us/support/raid/sas_raid/sas-5405/
Zou zo'n kaart SSD's nog een beetje kunnen bijhouden? Of kan ik beter de onboard RAID gebruiken?

Acties:
  • 0 Henk 'm!

Anoniem: 91626

Onboard is nog steeds niks beter, al zijn er een paar bordjes met SAS controller onboard. Zeker de dualcore RAID controller die jij hebt is superieur hieraan. Het is sneller, makkelijker te onderhouden en minder CPU belastend. In het begin wou ik op mijn Asus server software raid proberen maar na dagen proberen met verschillende drivers de moet opgegeven. Nu zit er een 5405 Adaptec in met 2x60GB Vertex 2 en draait al 12mnd+ als een zonnetje! Als het kan liever 3x SSD of meer natuurlijk dan zit je helemaal goed!

Acties:
  • 0 Henk 'm!

  • MadMike261
  • Registratie: Januari 2011
  • Laatst online: 25-11-2021
Ik ben met mijn eigen ESXi bak begonnen met een enkele SSD.
Dat is inmiddels 2 jaar geleden en hij draait nog prima (inmiddels wel wat HDD's toegevoegd ivm space, maar dat is een STUK trager).

Ik zou persoonlijk TLC drives (zoals de 840 niet pro versie) vermijden voor deze toepassing, TLC drives hebben de helft aan theoretische levensduur in vergelijking met MLC en prijstechnisch zitten ze erg strak tegen elkaar.
Hier een link met een vergelijking van SLC, MLC en TLC -> http://www.centon.com/flash-products/chiptype

SLC is snel buiten budget, dit is bedoeld voor Enterprise toepassingen en de prijs is daar ook naar.
En daarnaast is MLC op het gebied van levensduur en performance 99% van de tijd voldoende voor test omgevingen.

Afhankelijk van wat je inschat aan ruimte gebruik en je back-up plan zou ik eventueel wel voor redundant raid gaan. Raid 0 op SSD's heeft weinig toegevoegd waarde imo aangezien je veel sneller zonder ruimte zit als aan een IO bottleneck.

Wat ik heb gelezen over RAID kaarten en SSD's:
Afhankelijk van je kaart kunnen SSD's wel relatief snel je kaart dicht trekken als het om sequentieel IO gaat, je hebt het hier dan wel over een getal in de richting of voorbij de gigabyte/seconde. Maar voor random IO weet ik dat niet en dat is toch het belangrijkste in deze situatie.

Acties:
  • 0 Henk 'm!

  • appie1981
  • Registratie: Januari 2007
  • Laatst online: 30-03 22:03
MadMike261 schreef op donderdag 21 maart 2013 @ 09:24:
Ik ben met mijn eigen ESXi bak begonnen met een enkele SSD.
Dat is inmiddels 2 jaar geleden en hij draait nog prima (inmiddels wel wat HDD's toegevoegd ivm space, maar dat is een STUK trager).

Ik zou persoonlijk TLC drives (zoals de 840 niet pro versie) vermijden voor deze toepassing, TLC drives hebben de helft aan theoretische levensduur in vergelijking met MLC en prijstechnisch zitten ze erg strak tegen elkaar.
Hier een link met een vergelijking van SLC, MLC en TLC -> http://www.centon.com/flash-products/chiptype

SLC is snel buiten budget, dit is bedoeld voor Enterprise toepassingen en de prijs is daar ook naar.
En daarnaast is MLC op het gebied van levensduur en performance 99% van de tijd voldoende voor test omgevingen.

Afhankelijk van wat je inschat aan ruimte gebruik en je back-up plan zou ik eventueel wel voor redundant raid gaan. Raid 0 op SSD's heeft weinig toegevoegd waarde imo aangezien je veel sneller zonder ruimte zit als aan een IO bottleneck.

Wat ik heb gelezen over RAID kaarten en SSD's:
Afhankelijk van je kaart kunnen SSD's wel relatief snel je kaart dicht trekken als het om sequentieel IO gaat, je hebt het hier dan wel over een getal in de richting of voorbij de gigabyte/seconde. Maar voor random IO weet ik dat niet en dat is toch het belangrijkste in deze situatie.
Bedankt dat je me even hebt gewezen op het TLC, MLC SLC verhaal ik wist wel dat er verschillende SSDs waren maar heb me er nooit echt in verdiept. Ik denk dat ik dan inderdaad voor de 840 PRO versie ga ook omdat ik net een review heb gelezen dat deze veel sneller is met write acties dan de gewone 840.
Backup ga ik niet lokaal regelen ik heb een Qnap TS-859 daar backup ik de vms zo nu en dan naartoe.

Acties:
  • 0 Henk 'm!

Anoniem: 303530

Anoniem: 91626 schreef op woensdag 20 maart 2013 @ 21:19:
Onboard is nog steeds niks beter, al zijn er een paar bordjes met SAS controller onboard. Zeker de dualcore RAID controller die jij hebt is superieur hieraan. Het is sneller, makkelijker te onderhouden en minder CPU belastend. In het begin wou ik op mijn Asus server software raid proberen maar na dagen proberen met verschillende drivers de moet opgegeven. Nu zit er een 5405 Adaptec in met 2x60GB Vertex 2 en draait al 12mnd+ als een zonnetje! Als het kan liever 3x SSD of meer natuurlijk dan zit je helemaal goed!
Dat is niet helemaal waar hoor.. Je wilt juist onboard RAID gebruiken. Ten eerste maakt het qua bandwidth uit, aangezien zijn RAID controller geen SATA-600 poorten bevat. Ten tweede bevat een RAID controller altijd extra latency, terwijl je dis juist zo laag mogelijk wilt houden. Het is niet ongekend dat de random read of write door de helft gaat door het gebruik van een externe SATA controller.

De CPU is snel genoeg om een klein beetje pariteit te berekenen. Ik zou haast zeggen dat het altijd slimmer is om de onboard controller te gebruiken bij SSD's. Uitzonderingen zijn enterprise toepassingen met RAID-controllers met een backup battery er op en voor setups van meer dan 4 disken.

Acties:
  • 0 Henk 'm!

  • appie1981
  • Registratie: Januari 2007
  • Laatst online: 30-03 22:03
Anoniem: 303530 schreef op vrijdag 22 maart 2013 @ 09:33:
[...]

Dat is niet helemaal waar hoor.. Je wilt juist onboard RAID gebruiken. Ten eerste maakt het qua bandwidth uit, aangezien zijn RAID controller geen SATA-600 poorten bevat. Ten tweede bevat een RAID controller altijd extra latency, terwijl je dis juist zo laag mogelijk wilt houden. Het is niet ongekend dat de random read of write door de helft gaat door het gebruik van een externe SATA controller.

De CPU is snel genoeg om een klein beetje pariteit te berekenen. Ik zou haast zeggen dat het altijd slimmer is om de onboard controller te gebruiken bij SSD's. Uitzonderingen zijn enterprise toepassingen met RAID-controllers met een backup battery er op en voor setups van meer dan 4 disken.
Zodra ik de server heb zal ik de disks even testen in een RAID0 opstelling op de interne raidcontroller die op het moederbord zit en in een RAID0 op de Adaptec 5405. Ik zal m'n bevindingen hier wel even posten.
Pagina: 1