Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

Ik denk niet dat de Skylake SATA op te knippen is. Ik verwacht dat het als een enkele 8-poorts controller gezien wordt. De bios settings zijn ook voor poort 0-7 en de poorten beginnen allemaal met i in de manual. Bij de C610 is dat anders. Doorgeven zal wel lukken als je PCIe (HHHL of M2)/USB als boot gebruikt maar dan dus alle acht.
Misschien kan iemand met een 8-poorts Skylake eens de lspci output laten zien.

edit:
Hmm misschien bij de server chipsets wel?:
Afbeeldingslocatie: http://www.technology2015.com/wp-content/uploads/2016/01/0ec3d__Intel-Chipset-HSIO_w_600.png

[ Voor 30% gewijzigd door |sWORDs| op 28-03-2016 09:56 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • tebe
  • Registratie: Juli 2010
  • Laatst online: 20-05 07:34
Heb de datasheets opgezocht van de 100 series, maar de revisie met C230 moet nog online gezet worden denk ik.
http://www.intel.com/cont...esktop/documentation.html

In de datasheet voor de 100 series spreekt men enkel over 6 sata poorten, maar zoals je al aangaf, spreekt men in de manual van het mobo van poorten 0-7 en het blok diagramma geeft ook maar 1 bus voor alle sata poorten. Het zal hoogstwaarschijnlijk maar 1 controller zijn dan.

Hmm dan kan ik beter voor de X11SSi-LN4F gaan, zodat ik 4 lanes heb voor de m2 nvme. Heb toch maar 14 sata poorten nodig.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
NVMe ssd kan altijd via een adaptertje?

Ik heb een Supermicro 2011-3 plank die ook een onboard controller heeft met 8 poorten (naast de lsi controller).

Wat wilden jullie weten? Of die sas poorten los via VTd werken?

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

2011-3 (C610) heeft 10 poorten op twee controllers (6 en 4), als je ook nog een LSI hebt zal die plank dus 3 controllers laten zien die elk doorgegeven kunnen worden. De vraag was voor de C236.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
De C232 met 6 poorten op de Asus P10S-I die ik heb stuurt iig alles door en valt niet op te delen.

[ Voor 10% gewijzigd door renedis op 28-03-2016 22:42 . Reden: Te veel typo's ]


Acties:
  • 0 Henk 'm!

  • tebe
  • Registratie: Juli 2010
  • Laatst online: 20-05 07:34
Dan vrees ik ervoor dat de C236 op te splitsen is. Een NVMe als VM disk is dan de enige optie, maar wat zijn die nog duur seg :o
256GB is aan de krappe kant maar 512 is best nog kostelijk. Dan is het al interessanter om voor een E5 1600 of een D-1500 te kiezen, zodat een sata SSD gebruikt kan worden.

Dit plankje van Supermicro lijkt mij dan de beste keuze (D-1518, 4 +16 SATA via LSI 2116, dual Gbe + dual SFP+). Dan heb ik tevens een nieuwe controller voor als ik disken ga vervangen en de mogelijkheid om later naar 10gig over te stappen.
Als ik naar de dollarprijs kijk, zou deze rond de €650 moeten komen.

[ Voor 3% gewijzigd door tebe op 29-03-2016 14:36 ]


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
tebe schreef op dinsdag 29 maart 2016 @ 14:31:
Dan vrees ik ervoor dat de C236 op te splitsen is. Een NVMe als VM disk is dan de enige optie, maar wat zijn die nog duur seg :o
256GB is aan de krappe kant maar 512 is best nog kostelijk. Dan is het al interessanter om voor een E5 1600 of een D-1500 te kiezen, zodat een sata SSD gebruikt kan worden.

Dit plankje van Supermicro lijkt mij dan de beste keuze (D-1518, 4 +16 SATA via LSI 2116, dual Gbe + dual SFP+). Dan heb ik tevens een nieuwe controller voor als ik disken ga vervangen en de mogelijkheid om later naar 10gig over te stappen.
Als ik naar de dollarprijs kijk, zou deze rond de €650 moeten komen.
Keuzes, keuzes.. Ik ken je dilemma's.

Beide opties zijn erg mooi. Onthoud wel dat een NVMe "sneller" is.
Ook heeft de skylake optie 4 NIC's op 1Gbe heeft en de


Je weet zelf vast wel de verschillen.


IMO zou ik voor de Skylake optie gaan gezien het gemakkelijker is om daar mee te kunnen upgraden indien nodig. Alhoewel ik zelf helemaal niet voor de SuperMicro zou gaan gezien ze meestal minder zuinig zijn dan andere fabrikanten.

In jouw geval zou ik eerder voor één van deze twee gaan:
pricewatch: Asus P10S-C/4L
pricewatch: Asus P10S-E/4L

Acties:
  • 0 Henk 'm!

  • prekz
  • Registratie: September 2008
  • Laatst online: 07:41
Ik ben ook nog heel erg aan het twijfelen over een setup gelijk aan bovenstaand. Nadeel van de Xeon D-1500 serie is dat die echt extreem duur is (in mijn ogen) bordje kost minimaal 500 euro en de vraag is of ik uberhaupt die CPU kracht nodig ga hebben.

Ik draai nu op een Intel 4010u in een intel nuc en qua performance binnen ESX voldoet deze voor mij. Echter weet ik niet wat de performance gaat doen zodra ik een VM maak die als ZFS storage server dient.

Op het moment zit ik te denken aan een 1151 bord met een intel G4400 als processor. Dan hoop ik circa 250 euro kwijt te zijn.

Enige eis is dat hij dan een M2 over een PCI lane kan aansturen zodat ik deze als VM datastore kan gebruiken en de sata controller door kan zetten naar de storage server.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

tebe schreef op dinsdag 29 maart 2016 @ 14:31:
Een NVMe als VM disk is dan de enige optie, maar wat zijn die nog duur seg :o
Dat valt toch mee? Vanaf 91 euro (de niet budget SSD's zitten daar niet ver vandaan) en vanaf 51ct per GB (vanaf 30ct voor niet budget SSDs).

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Uh, NVMe? of bedoel je PCIe... Want een NVMe SSD voor 91 euro teken ik voor? :+

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

Hij is net weer gestegen naar 92,50:
pricewatch: Samsung SM951 (NVMe) 128GB

Ik heb zelf nu drie 400GB Intel 750's, een 1.2TB Intel 750 en een 512GB Samsung 950. En zit eigenlijk hals rijkend te wachten op de SM961 en XPoint. Nog even en er moeten een stel HHHL kaarten V&A in zodat ik wat 2.5" of M.2 drives kan gebruiken, daar passen er toch 2x zoveel van.

[ Voor 49% gewijzigd door |sWORDs| op 29-03-2016 16:50 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • tebe
  • Registratie: Juli 2010
  • Laatst online: 20-05 07:34
Prijs per GB valt op zich nog wel mee maar ik heb toch een 500GB nodig, Dan is het al snel +100 euro verschil.

En ja keuzes, keuzes. Het gaat mij nu tussen C230, C610 en Xeon D. Wat totale CPU performance betreft kan je D1518 grofweg vergelijken met i3-6100 en E5-2603V3. Zelf dien ik 14 sata poorten te kunnen doorgeven aan een VM. Bij C230 heb ik dan een SM951 nodig om VM's te kunnen booten. Bij De andere 2 oplossingen kan ik in de plaats een MX200 nemen. Voorlopig kan ik mijn huidige sas controller hergebruiken, maar deze ondersteund max 2TB disks. een nieuwe 8-poorts controller is in de nabije toekomst ook nodig. Rekening houdend met dit alles kom ik voor gelijkaardige oplossingen op volgende:
  1. skylake C230 + i3-6100 + SM951 + 8 poort SAS2 = ongeveer 780 euro :
  2. C612 +E5-2603 + MX200 + 8 poort SAS2 = ongeveer 800 euro :
  3. X10SDV-4C-7TP4F + MX200 = ongeveer 790 euro :
Prijs komt ongeveer overeen uit. E5 zal wel een stuk meer verbruiken dan de andere 2.

[ Voor 5% gewijzigd door tebe op 29-03-2016 20:05 . Reden: Hoofdrekenen ging daarstraks even niet zo goed... ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Heilige ontlasting.... 3 * 400 en 1 * 1.2TB Intel 750... Dat is serious IO power :+

Ik heb net 2 PCIe->M.2 Adaptertjes gekocht met een SuperCap er in. Kijken hoe die het icm ZFS doen :)

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

tebe schreef op dinsdag 29 maart 2016 @ 17:30:
Prijs per GB valt op zich nog wel mee maar ik heb toch een 500GB nodig, Dan is het al snel +100 euro verschil.

En ja keuzes, keuzes. Het gaat mij nu tussen C230, C610 en Xeon D. Wat totale CPU performance betreft kan je D1518 grofweg vergelijken met i3-6100 en E5-2603V3. Zelf dien ik 14 sata poorten te kunnen doorgeven aan een VM. Bij C230 heb ik dan een SM951 nodig om VM's te kunnen booten. Bij De andere 2 oplossingen kan ik in de plaats een MX200 nemen. Voorlopig kan ik mijn huidige sas controller hergebruiken, maar deze ondersteund max 2TB disks. een nieuwe 8-poorts controller is in de nabije toekomst ook nodig. Rekening houdend met dit alles kom ik voor gelijkaardige oplossingen op volgende:
  1. skylake C230 + i3-6100 + SM951 + 8 poort SAS2 = ongeveer 780 euro :
  2. C612 +E5-2603 + MX200 + 8 poort SAS2 = ongeveer 800 euro :
  3. X10SDV-4C-7TP4F + MX200 = ongeveer 790 euro :
Prijs komt ongeveer overeen uit. E5 zal wel een stuk meer verbruiken dan de andere 2.
Als ik die prijzen zie zou ik C610/x99 + e5 26xx ES ook overwegen.
En qua storage, 100 euro voor 4-5x de read en 2x de write performance lijkt me een no brainer.
FireDrunk schreef op dinsdag 29 maart 2016 @ 19:20:
Heilige ontlasting.... 3 * 400 en 1 * 1.2TB Intel 750... Dat is serious IO power :+

Ik heb net 2 PCIe->M.2 Adaptertjes gekocht met een SuperCap er in. Kijken hoe die het icm ZFS doen :)
Vergeet de 950 niet, voor lage QD en lezen echt een beest.
Wat is een SuperCap?
En ZFS... Ook iets wat nog op mijn lijstje staat om mee te spelen.

[ Voor 15% gewijzigd door |sWORDs| op 29-03-2016 20:34 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
SuperCapacitor, een soort ups voor je ssd. Zorgt er voor dat ie geschikt is als ZIL.

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

Maar dat zit toch op elke ent. SSD? Waarom zou je dat op de converter willen?

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Zodat je geen Enterprise SSD nodig hebt :)

Even niets...


Acties:
  • 0 Henk 'm!

  • prekz
  • Registratie: September 2008
  • Laatst online: 07:41
Firedrunk heb je een link of serietypenummer van jouw uitbereiding?

[ Voor 8% gewijzigd door prekz op 30-03-2016 00:11 ]


Acties:
  • 0 Henk 'm!

  • 3DDude
  • Registratie: November 2005
  • Laatst online: 23:21

3DDude

I void warranty's

Ik ben ook langzaam aan het kijken naar thuis spelerij :)
Wil toch dit jaar bezig gaan met VMWare certificeringen dus thuis het een en ander hebben is wel leuk.

#ProductPrijsSubtotaal
1Intel Xeon E3-1245 v5 Boxed€ 307,45€ 307,45
1Supermicro X11SSH-F€ 245,75€ 245,75
1Fractal Design Define R5 Zwart€ 101,95€ 101,95
1Corsair RM550x€ 90,95€ 90,95
1Samsung 950 Pro 256GB€ 181,95€ 181,95
Bekijk collectie
Importeer producten
Totaal€ 928,05


Ik heb een Xeon D overwogen maar dat is alleen al 1000 euro voor een mobo + CPU erop.
Ram haal ik wel via V&A, (gewoon 4 maal 16GB ECC ram moet genoeg zijn).

Wat zijn jullie gedachten over deze initiele setup? Uiteraard wacht ik nog even met de 950Pro omdat Samsung druk bezig is met de nieuwe SSD's uitbrengen (opvolger SM951). Maar ik heb wel alvast een moederbord met een M.2 slot uitgezocht.

Be nice, You Assholes :)


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
prekz schreef op dinsdag 29 maart 2016 @ 23:00:
Firedrunk heb je een link of serienummer van jouw uitbereiding?
Van welke?

Even niets...


Acties:
  • 0 Henk 'm!

  • prekz
  • Registratie: September 2008
  • Laatst online: 07:41
FireDrunk schreef op dinsdag 29 maart 2016 @ 19:20:

Ik heb net 2 PCIe->M.2 Adaptertjes gekocht met een SuperCap er in. Kijken hoe die het icm ZFS doen :)
Deze _/-\o_

Acties:
  • 0 Henk 'm!

  • tebe
  • Registratie: Juli 2010
  • Laatst online: 20-05 07:34
3DDude schreef op dinsdag 29 maart 2016 @ 23:10:
[...]

Ram haal ik wel via V&A, (gewoon 4 maal 16GB ECC ram moet genoeg zijn).
V&A heb ik ook al gezien, maar let wel goed op want dat zijn registered modules en Xeon E3 ondersteund alleen unbuffered en geen registered.
Uiteraard wacht ik nog even met de 950Pro omdat Samsung druk bezig is met de nieuwe SSD's uitbrengen (opvolger SM951). Maar ik heb wel alvast een moederbord met een M.2 slot uitgezocht.
Dit jaar worden er ook nieuwe verwacht van o.a. OCZ, Kingston,.... gebaseerd op de nieuwe phison PS5007-E7 controller. Ben benieuwd hoe die zich gaan verhouden tegen de PM961. Hopelijk gaan de prijzen dan eindelijk nog wat zakken door de concurrentie. Er moet namelijk ook nog brood op de plank komen op het einde van de maand :)
Nice find Firedrunk. Ben benieuwd hoe ze het doen.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
NVMe is nu nog een "Merk" labeltje... Als er NVMe op staat mag het meer kosten. Daar baal ik nog wel een beetje van. Het is een geniale upgrade voor VM's vanwege de verlaagde latency.

Ik zat te denken aan 2*950Pro 256GB in die PCIe adaptertjes, maar dat is wel prijzig :P
2*128GB SM951 is veel goedkoper, maar ook wel iets langzamer.

[ Voor 12% gewijzigd door FireDrunk op 30-03-2016 11:09 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
prekz schreef op dinsdag 29 maart 2016 @ 16:00:
Ik ben ook nog heel erg aan het twijfelen over een setup gelijk aan bovenstaand. Nadeel van de Xeon D-1500 serie is dat die echt extreem duur is (in mijn ogen) bordje kost minimaal 500 euro en de vraag is of ik uberhaupt die CPU kracht nodig ga hebben.

Ik draai nu op een Intel 4010u in een intel nuc en qua performance binnen ESX voldoet deze voor mij. Echter weet ik niet wat de performance gaat doen zodra ik een VM maak die als ZFS storage server dient.

Op het moment zit ik te denken aan een 1151 bord met een intel G4400 als processor. Dan hoop ik circa 250 euro kwijt te zijn.

Enige eis is dat hij dan een M2 over een PCI lane kan aansturen zodat ik deze als VM datastore kan gebruiken en de sata controller door kan zetten naar de storage server.
Mijn ervaring met ZFS is dat deze niet CPU intensief is, wel erg memory intensief! (gaat pas echt lekker vanaf 8GB)

Acties:
  • 0 Henk 'm!

  • Nerve
  • Registratie: Oktober 2004
  • Laatst online: 19-08 12:49
Ik dacht aan volgende setup. Als iemand met wat diepere kennis dit even kan bekijken zou ik dit alvast appreciëren. Ik denk dat alles wel matched na enig onderzoek.

Enkele vragen alvast:

- Betreft een Low voltage CPU, gaat dit opbrengen qua verbruik ? Heb begrepen dat er eigenlijk geen verschil is qua idle verbruik tussen een gewone en een low voltage CPU. Verwacht gemakkelijk 95% idle time.
- Iemand een tip voor een stille processorkoeler in deze config ?
- Dit moederbord heeft enkel onboard raid. Stel dat ik writeperformantie op de harddisks wil opkrikken (voor database gebruik bvb), kies ik dan voor een Supermicro MB met zo'n extra LSI 3008 controller, of eventueel een extra raid controller inprikken op het bord ?

Alvast bedankt!

#ProductPrijsSubtotaal
1Intel Xeon Processor E3-1260L v5€ 321,-€ 321,-
1Supermicro X11SAE€ 242,39€ 242,39
2WD Red WD40EFRX, 4TB€ 159,95€ 319,90
1Fractal Design Define R5 Zwart€ 101,95€ 101,95
2Samsung M391A2K43BB1€ 94,-€ 188,-
1Enermax Platimax EPM500AWT€ 105,-€ 105,-
1Samsung 950 Pro 512GB€ 308,-€ 308,-
Bekijk collectie
Importeer producten
Totaal€ 1.586,24

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
De onboard raid controller zal niet werken onder ESXi. Maar de ssd is daarentegen snel zat voor Databases? Waarom dan nog een extra controller? Write back is een ouderwets dogma, waar je ver vandaan moet blijven :p

Even niets...


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
De onboard RAID controller werkt wel degelijk maar enkel niet als RAID. Ook de onboard controller via passthrough (vt-d) aan een VM doorgeven is mogelijk maar dan nog steeds is hardware RAID niet mogelijk. Je kunt door middel van passthrough wel naar een ZFS pool oplossing gaan kijken icm bijvoorbeeld FreeNAS.
Vanuit FreeNAS kan je samba/NFS/iscsi shares aanmaken voor je datastore en andere VM's.
Destijds (en binnenkort weer) is dat de manier hoe ik het ga aanpakken.

Indien je een datastore wil in vorm van een RAID configuratie moet je een extra controller aanschaffen/plaatsen. Echter zoals FireDrunk zegt, afhankelijk van je database grootte, waarom niet op de SSD plaatsen?

Als koeling kan ik je de pricewatch: Supermicro SNK-P0046P aanbevelen.
Deze houd mijn 1235Lv5 op 40 graden zonder enige andere ventilator in een 1U behuizing.

Gezien jij een R5 behuizing wil kan je ook voor een waterkoeling pricewatch: Cooler Master Seidon 120V Ver.2 kiezen. Deze waterkoeler hielt mijn vorige setup met 2x 2630v3 (ook in een R5 behuizing) op 28 graden idle en max 35 graden onder load:

Afbeeldingslocatie: http://ic.tweakimg.net/ext/va/1242038.png

Acties:
  • 0 Henk 'm!

  • Nerve
  • Registratie: Oktober 2004
  • Laatst online: 19-08 12:49
Bedankt voor de feedback alvast. Ik ging er inderdaad wel van uit dat de db op de harde schijven zou draaien, de ssd is voor de vm's zelf. Nu ga ik wss inderdaad niet met terra's aan data aan de slag dus de SSD gebruiken kan wel voor de 'productie'-DB.

Waarom is write back een ouderwets dogma ?

Die R5 is geen must have, ik wil enkel een stille kast waarin het makkelijk inbouwen is, en deze komt er hier goed uit als ik de reviews lees.

@renedis die Supermicro koeler is wel een passieve koeler, leuk voor het geluid, maar kan deze het trekken onder CPU-load?

[ Voor 12% gewijzigd door Nerve op 31-03-2016 08:54 ]


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

Eens met Renedis alleen niet met de term hardware RAID, Intel RST is ook software RAID.
Als je voor een enkele VM RAID zou willen kun je ook gewoon in guest RAID gebruiken.
Een 3008 is ook geen fully featured RAID controller, dan kom je eerder bij een 3108.

En zodra je de performance van je NVMe drive hebt gezien wil je echt geen database meer op een spinning RAID array zetten.

[ Voor 22% gewijzigd door |sWORDs| op 31-03-2016 09:08 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Write Back stamt uit de tijd dat je *moest* liegen naar applicaties over SYNC Writes om de snelheid er in te houden. Controllers hebben geheugen wat ondersteund wordt door een battery, en soms wat flash geheugen om een backup van het ram naar toe te schrijven.

Persoonlijk ben ik meer fan van een SSD als write cache gebruiken via een softwarematige oplossing (*kuch* ZFS *kuch*).

Al die mechanismes van write-back / battery backed write cache in RAID controllers zijn schimmige implementaties van vendors welke hun geheimen nooit prijs geven. Bij ZFS heb je de lol dat alles open en eerlijk te testen en toetsen valt. ZFS heeft geen marketing slogans nodig dat het veilige write-back caching gebruikt, vendors als HP, Dell, en LSI (de RAID tak) hebben dat wel nodig.

Vandaar: Ouderwets dogma, het is een marketing term om write-back caching te gebruiken, terwijl ik nog liever een SSD gebruik met powercaps en een goede backup dan een dure RAID controller.

Even niets...


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Nerve schreef op donderdag 31 maart 2016 @ 08:51:
Bedankt voor de feedback alvast. Ik ging er inderdaad wel van uit dat de db op de harde schijven zou draaien, de ssd is voor de vm's zelf. Nu ga ik wss inderdaad niet met terra's aan data aan de slag dus de SSD gebruiken kan wel voor de 'productie'-DB.

Waarom is write back een ouderwets dogma ?

Die R5 is geen must have, ik wil enkel een stille kast waarin het makkelijk inbouwen is, en deze komt er hier goed uit als ik de reviews lees.

@renedis die Supermicro koeler is wel een passieve koeler, leuk voor het geluid, maar kan deze het trekken onder CPU-load?
Die koeler is idd passief, voor mij is er vrijwel geen andere oplossing in een 1U behuizing.
De R5 is overigens echt een geweldige kast kan ik je vertellen! Met de waterkoeling die ik had was deze meer dan fluister stil!

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

Nog een tipje: Als IO performance echt belangrijk is ga dan voor een Intel 750. Als je naar consumer benchmarks kijkt dan zou je denken dat SM951>950>750. Maar verhoog de queuedepths (4K write op QD64 is direct al 617MB/s voor een 400GB Intel vs 433MB/s voor de 512GB 950) en benchmark langer dan een paar minuten (de Intel zit na een half uur nog steeds op 615MB/s, de Samsung 950 stort na 3 minuten in en zit dan rond de 120MB/s, de SM951 schijnt dat nog slechter te doen) en je kunt het rijtje omdraaien. Ook is de Intel veel consistenter.

Cijfers hierboven zijn al op een VM met de PVSCSI controller, native is het nog iets hoger.

edit, blijkbaar heeft Hardware.info vergelijkbare resultaten:
Afbeeldingslocatie: http://s10.postimg.org/5jb2rqy5l/chart_5.png

Afbeeldingslocatie: http://s13.postimg.org/pbmkh1aiv/chart_6.png

Afbeeldingslocatie: http://s12.postimg.org/xh9wlzvjx/chart_4.png

[ Voor 73% gewijzigd door |sWORDs| op 31-03-2016 09:42 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Jammere is dat Intel geen M.2 versie van zijn 750 SSD heeft. Dan had ik hem wel gekocht :)

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

Als je graag de lanes van je M.2 slot gebruikt dan haal je toch een M.2 naar U.2 converter en een retail (bevat ook de benodigde kabel) 2.5" Intel 750? Als het je gaat om geen PCIe/HD slot te hoeven gebruiken dan wordt het lastiger. :)
Ik heb hier als test een 2.5" op een U.2 naar M.2 converter op een M.2 converter naar PCIe zitten, om te testen of mijn AOC (2x U.2 naar PCIe 8x) kaart stuk is/niet op mijn bord werkt.

[ Voor 58% gewijzigd door |sWORDs| op 31-03-2016 09:55 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Ik kende M.2 naar U.2 eigenlijk niet :P Maar dat is inderdaad een optie :)
Nadeel is weer dat ik M.2 Adaptertjes met ingebouwde powercap heb besteld, die zouden dan weer niet werken icm die converter.

[ Voor 46% gewijzigd door FireDrunk op 31-03-2016 10:19 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

Maar dan kun je toch gewoon voor een HHHL kaart gaan, of je nou een converter of een HHHL kaart in een slot stopt is toch precies hetzelfde? De Intel 750 heeft al een enhanced power loss capacitor.

De HHHL versie is 2 euro duurder, maar dat scheelt weer een paar euro voor een M.2 converter en 25 euro voor een U.2 converter.
  • Samsung M.2 willen gebruiken op bord zonder M.2 -> M.2 M key to PCIe converter (eventueel met cap)
  • M.2 slot op board willen gebruiken met Intel -> U.2 converter en retail 2.5" Intel 750
  • PCIe 8x of 16x slot willen splitsen -> Bifurcation of PLX naar multiple U.2 kaart en retail 2.5" Intel 750 (Let op, bifurcation werkt alleen op specifieke borden, PLX heeft geen hotswap! Intel heeft nog een x16 naar vier U.2 maar daar vind ik even geen link van.)
  • PCIe slot -> HHHL Intel 750
  • Per ongeluk al een 2.5" gekocht en eigenlijk toch HHHL willen -> PCIe naar U.2
  • Per ongeluk niet retail 2.5" gekocht -> SFF846 naar SFF8639 met SATA Power

[ Voor 145% gewijzigd door |sWORDs| op 31-03-2016 11:30 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Die link naar met caps voor M.2 heb ik al twee stuks van besteld :) Daarom juist.
Ik heb ook zitten kijken naar Intel 750 400GB PCIe SSD's, maar die vind ik toch nog best prijzig. Een 950 Pro is toch wel wat goedkoper.
#ProductPrijsSubtotaal
1Intel 750 SSD Half Height PCIe 3.0 x4 400GB€ 401,50€ 401,50
1Samsung 950 Pro 256GB€ 181,95€ 181,95
1Samsung 950 Pro 512GB€ 308,-€ 308,-
1Samsung SM951 (NVMe) 128GB€ 82,06€ 82,06
1Samsung SM951 (NVMe) 256GB€ 137,-€ 137,-
1Samsung SM951 (NVMe) 512GB€ 261,51€ 261,51
Bekijk collectie
Importeer producten
Totaal€ 1.372,02


Compare lijstje:
http://tweakers.net/price...643;463644;460886;460862/

Prijs per GB
Intel 750 400GB -> €1,004
Samsung 950 Pro 256GB -> €0,711
Samsung 950 Pro 512GB -> €0,602
Samsung 951 128GB -> €0,641
Samsung 951 256GB -> €0,535
Samsung 951 512GB -> €0,511

Als je dus kijkt naar Prijs per GB vs Snelheid is de 950Pro 512GB volgens mij de sweetspot.

Overigens hebben de 950's ook een veel hogere TBW dan de Intel, hoewel ik zeker geloof dat Intel bescheidener specced, weet ik het nog zo net niet...

Total Bytes Written (TBW)
Intel 750 -> 125TB
950Pro 256GB -> 200TB
950Pro 512GB -> 400TB

GB per dag:
Intel 750 -> 68,5GB
Samsugn 950 Pro 256GB -> 109,6GB
Samsung 950 Pro 512GB -> 219,2GB

Overigens komt de 951 hier best goed uit de bus:
http://www.thessdreview.c...256gb-nvme-performance/4/

Uiteraard is de 950 Pro sneller, maar de 951 doet het zeker niet slecht. Qua latency is de Intel 750 beter, maar qua average bandwith wint de 951.

[ Voor 14% gewijzigd door FireDrunk op 31-03-2016 13:46 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • prekz
  • Registratie: September 2008
  • Laatst online: 07:41
Firedrunk waarom heb je in bovenstaande vergelijking niet de SM951 512Gb (NVMe) variant meegenomen? Aangezien je wel de Samsung 950 pro 512Gb variant meeneemt?

pricewatch: Samsung SM951 (NVMe) 512GB

Deze heeft een prijs per GB van €0,511

EDIT: Volgens mij is deze 512Gb versie de afgelopen dagen ook flink in prijs geslonken :P

[ Voor 22% gewijzigd door prekz op 31-03-2016 13:38 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Scherp, ik had de 951 in eerste instantie alleen gekozen vanwege zijn lage absolute aanschafprijs.

Even niets...


Acties:
  • 0 Henk 'm!

  • prekz
  • Registratie: September 2008
  • Laatst online: 07:41
Oke, ik heb ook maar eens 2 lijstjes gemaakt.

Lijst 1
#ProductPrijsSubtotaal
1Supermicro X10SDV-4C-TLN2F€ 516,05€ 516,05
1Kingston ValueRAM KVR21R15D4/32€ 211,31€ 211,31
1Seasonic G-series 360 watt€ 57,95€ 57,95
1Samsung SM951 (NVMe) 512GB€ 261,51€ 261,51
Bekijk collectie
Importeer producten
Totaal€ 1.046,82


Lijst2
#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 60,-€ 60,-
1Gigabyte GA-B150M-DS3P€ 88,-€ 88,-
2Kingston ValueRAM KVR21N15D8/16€ 59,88€ 119,76
1Seasonic G-series 360 watt€ 57,95€ 57,95
1Samsung SM951 (NVMe) 512GB€ 261,51€ 261,51
Bekijk collectie
Importeer producten
Totaal€ 587,22


Het lijkt me logisch voor iedereen dat de eerste lijst mijn absolute voorkeur geniet. Alleen kijk ik dan naar de totaal prijs en dan 8)7 |:(

Een compromis dat ik gesloten heb is door minder maximaal werkgeheugen (128Gb lijst1 of 64Gb lijst2)
Ik denk dat ik voor de komende jaren meer dan voldoende heb.

Ik kom nu van een Intel nuc met een 4010u processor en een DS414 met 4x4TB als NAS. Hierop draait:
- 2x Windows Server
- 5x Ubuntu
- wat test machines die geregeld verwijderd worden

Wat ik straks wil gaan draaien is een alles in een systeem. De SM951 dient als datastore, en de harddisks worden gepassthrougt naar een VM die ZFS gaat draaien. Ga ik performance verlies krijgen in data througput ten opzichte van mijn Synology nas (circa 100mb per seconde over het interne netwerk)?

Qua CPU heb ik even gekeken wat een beetje in de richting van mijn 4010u komt. Ik merk dat deze snel genoeg performed. Ook als ik meerdere machines ga draaien verwacht ik dat er geen problemen ontstaan (kan iemand dit bevestigen? O-) )

Ham vraag natuurlijk in dit zuinige ESXi topic, wat verwachten jullie dat dit verbruikt met 3x8TB hdd of 4x4TB hdd? Mijn NUC + NAS gebruiken nu gezamelijk 45-55watt. Dus de keuze van bovenstaand moet wel te verantwoorden zijn.

Ik zal vast en zeker nog wel iets vergeten zijn.

Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
prekz schreef op donderdag 31 maart 2016 @ 16:39:
Oke, ik heb ook maar eens 2 lijstjes gemaakt.

Lijst 1
#ProductPrijsSubtotaal
1Supermicro X10SDV-4C-TLN2F€ 516,05€ 516,05
1Kingston ValueRAM KVR21R15D4/32€ 211,31€ 211,31
1Seasonic G-series 360 watt€ 57,95€ 57,95
1Samsung SM951 (NVMe) 512GB€ 261,51€ 261,51
Bekijk collectie
Importeer producten
Totaal€ 1.046,82


Lijst2
#ProductPrijsSubtotaal
1Intel Pentium G4400 Boxed€ 60,-€ 60,-
1Gigabyte GA-B150M-DS3P€ 88,-€ 88,-
2Kingston ValueRAM KVR21N15D8/16€ 59,88€ 119,76
1Seasonic G-series 360 watt€ 57,95€ 57,95
1Samsung SM951 (NVMe) 512GB€ 261,51€ 261,51
Bekijk collectie
Importeer producten
Totaal€ 587,22


Het lijkt me logisch voor iedereen dat de eerste lijst mijn absolute voorkeur geniet. Alleen kijk ik dan naar de totaal prijs en dan 8)7 |:(

Een compromis dat ik gesloten heb is door minder maximaal werkgeheugen (128Gb lijst1 of 64Gb lijst2)
Ik denk dat ik voor de komende jaren meer dan voldoende heb.

Ik kom nu van een Intel nuc met een 4010u processor en een DS414 met 4x4TB als NAS. Hierop draait:
- 2x Windows Server
- 5x Ubuntu
- wat test machines die geregeld verwijderd worden

Wat ik straks wil gaan draaien is een alles in een systeem. De SM951 dient als datastore, en de harddisks worden gepassthrougt naar een VM die ZFS gaat draaien. Ga ik performance verlies krijgen in data througput ten opzichte van mijn Synology nas (circa 100mb per seconde over het interne netwerk)?

Qua CPU heb ik even gekeken wat een beetje in de richting van mijn 4010u komt. Ik merk dat deze snel genoeg performed. Ook als ik meerdere machines ga draaien verwacht ik dat er geen problemen ontstaan (kan iemand dit bevestigen? O-) )

Ham vraag natuurlijk in dit zuinige ESXi topic, wat verwachten jullie dat dit verbruikt met 3x8TB hdd of 4x4TB hdd? Mijn NUC + NAS gebruiken nu gezamelijk 45-55watt. Dus de keuze van bovenstaand moet wel te verantwoorden zijn.

Ik zal vast en zeker nog wel iets vergeten zijn.
Met passthrough icm FreeNAS/Ubuntu ZFS (1CPU + 8GB mem) trek je makkelijk je lokale Gbit netwerk vol (avarage 118MB/s) net zoals je huidige NAS. De beperking zit in je netwerk wat dat betreft, niet je overige hardware.

Wil je leuk spelen kan je misschien een stapje hoger dan de G4400 gaan. Maar goed, als jij ervaart dat je 4010u al voldoende is moet je bij de G4400 blijven.

Naar verwachting zal je nieuwe setup ook 45/55 watt gaan trekken. Als je je schijven in spindown zet misschien iets lager. Verwacht echter geen wonderen, onder de 30W ga je niet redden met 7 VM's.

Verschil tussen 3x 8TB of 4x 4TB is nihil. Scheelt ongeveer 6W.


Als het gaat om die laatste watts te besparen op gebied van geld ga je de investering in nieuwe hardware nooit dekken.

Acties:
  • 0 Henk 'm!

  • prekz
  • Registratie: September 2008
  • Laatst online: 07:41
Extra besparen op stroom is niet mijn doel inderdaad, het moet alleen niet heel veel meer gaan verbruiken.

Dat van het netwerk heb je een punt, maar is het niet zo dat (voorbeeld:) je een download VM heb en een freenas VM dat hij de data over de interne vswitch gooit inplaats van naar buiten naar de reguliere switch en dan weer terug naar binnen?

Of is dit een rare beredenatie? :P

Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Nu online
Dat blijft intern, die vSwitch is een volwaardige switch en zal (mits het niet langs een router moet) het verkeer direct afleveren :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

FireDrunk schreef op donderdag 31 maart 2016 @ 12:50:
[...]

Overigens komt de 951 hier best goed uit de bus:
http://www.thessdreview.c...256gb-nvme-performance/4/

Uiteraard is de 950 Pro sneller, maar de 951 doet het zeker niet slecht. Qua latency is de Intel 750 beter, maar qua average bandwith wint de 951.
Vreemd, de testen door anderen hebben andere resultaten. Ik denk dat het komt omdat zij niet continu schrijven, maar een mixed test doen. Hier is Anandtech met een pure write:
Afbeeldingslocatie: http://images.anandtech.com/graphs/graph9702/78156.png

[ Voor 13% gewijzigd door |sWORDs| op 01-04-2016 09:25 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Dat is de pure Random Write performance, dat klopt. In mixed workloads wordt het verschil een stuk kleiner.
Vandaar de "Average Bandwith" benchmark.

Bovenstaande test vind ik sowieso raar, want de AHCI variant scoort hoger dan de NVMe variant 8)7

Hier zie je het duidelijk:

Hier scoort de 951 beter (mixed workloads):
Afbeeldingslocatie: http://tssdr1.thessdreview1.netdna-cdn.com/wp-content/uploads/2015/05/Samsung-SM951-NVMe-256GB-PCMark-8-Average-Bandwidth.png

Hier scoort de Intel beter (puur latency):
Afbeeldingslocatie: http://tssdr1.thessdreview1.netdna-cdn.com/wp-content/uploads/2015/05/Samsung-SM951-NVMe-256GB-PCMark-8-Average-Latency.png

Ter vergelijking, de 950 Pro:
Afbeeldingslocatie: http://tssdr1.thessdreview1.netdna-cdn.com/wp-content/uploads/2015/10/Samsung-950-Pro-512GB-AB.png

Hier zie je dat de 950 Pro nog weer beter scoort dan de 951.
Wat wel opvalt is dat in die laatste benchmark de Intel 750 400GB een stuk dichter bij de 950 Pro is gekomen, dan dat hij zat ten tijde van de test van de 951.

Goede kans dus dat Intel flink aan de firmware gesleuteld heeft in de tussentijd.

EDIT:
Nog even de review van AnandTech erbij gepakt:

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph9396/75318.png

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph9396/75319.png

Hier zie je waar het verschil zit. De Intel wint hands down met kleine transfer sizes (< 8KB), maar de Samsung is sneller bij grotere blokken (>128KB).

Als je dit dus ziet, zou ik denken dat de Intel beter is voor VM / Server workloads, en de SM951 beter is voor Consumenten.

(goh, daar zijn ze ook op getarget :+)

[ Voor 89% gewijzigd door FireDrunk op 01-04-2016 10:05 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • 3DDude
  • Registratie: November 2005
  • Laatst online: 23:21

3DDude

I void warranty's

|sWORDs| schreef op donderdag 31 maart 2016 @ 09:19:
Nog een tipje: Als IO performance echt belangrijk is ga dan voor een Intel 750. Als je naar consumer benchmarks kijkt dan zou je denken dat SM951>950>750. Maar verhoog de queuedepths (4K write op QD64 is direct al 617MB/s voor een 400GB Intel vs 433MB/s voor de 512GB 950) en benchmark langer dan een paar minuten (de Intel zit na een half uur nog steeds op 615MB/s, de Samsung 950 stort na 3 minuten in en zit dan rond de 120MB/s, de SM951 schijnt dat nog slechter te doen) en je kunt het rijtje omdraaien. Ook is de Intel veel consistenter.

Cijfers hierboven zijn al op een VM met de PVSCSI controller, native is het nog iets hoger.

edit, blijkbaar heeft Hardware.info vergelijkbare resultaten:
[afbeelding]

[afbeelding]

[afbeelding]
Klopt dat die Samsung M2 dingen issues hebben.
Het is dan ook zaak om te investeren in koeling van die SSD, fannetje erop en heatsink / koel elementen schijnen te werken.

http://linipc.com/blogs/n...thermal-throttling-solved

Be nice, You Assholes :)


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Daar had ik ook al wat over gelezen inderdaad. Ik dacht, misschien is het slim om wat RAM koelblokjes te kopen om er op te monteren :)

http://www.ebay.nl/itm/Bl...bad6e3:g:mVQAAOSw7NNUAYvD

[ Voor 36% gewijzigd door FireDrunk op 02-04-2016 08:19 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

Mijn grootste issue is de sustained write performance en die is zelfs met een fan direct er op 5x lager dan de Intel. Voor een desktop met normaal gebruik waarschijnlijk niet te merken, maar met veel VMs wel, de Intel is hier gewoon veel beter in. Vandaar dat ik maar 1 Samsung heb (verder voor Intels gegaan) en ik die voornamelijk voor reads gebruik (Intel ervoor als write cache, workloads met 90% read).

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Ik geloof je direct, maar ik zie dat niet terug in de reviews.
For our last benchmark, we have decided to use PCMark 8 Extended Storage Workload in order to determine steady state throughput of the SSD. This software is the longest in our battery of tests and takes just under 18 hours per SSD. As this is a specialized component of PCMark 8 Professional, its final result is void of any colorful graphs or charts typical of the normal online results and deciphering the resulting excel file into an easily understood result takes several more hours.
There are 18 phases of testing throughout the entire run, 8 runs of the Degradation Phase, 5 runs of the Steady State Phase and 5 runs of the Recovery Phase. In each phase, several performance tests are run of 10 different software programs; Adobe After Effects, Illustrator, InDesign, Photoshop Heavy and Photoshop Light, Microsoft Excel, PowerPoint and Word, as well as Battlefield 3 and World of Warcraft to cover the gaming element.
PRECONDITIONING -The entire SSD is filled twice sequentially with random data of a 128KB file size. The second run accounts for overprovisioning that would have escaped the first;
DEGRADATION PHASE – The SSD is hit with random writes of between 4KB and 1MB for 10 minutes and then a single pass performance test is done of each application. The cycle is repeated 8 times, and with each time, the duration of random writes increases by 5 minutes;
STEADY STATE PHASE – The drive is hit with random writes of between 4KB and 1MB for 45 minutes before each application is put through a performance test. This process is repeated 5 times;
RECOVERY PHASE – The SSD is allowed to idle for 5 minutes before and between performance tests of all applications. This is repeated 5 times which accounts for garbage collection; and
CLEANUP – The entire SSD is written with zero data at a write size of 128KB
In reading the results, the Degrade and Steady State phases represent heavy workload testing while the recovery phase represents typical consumer light workload testing.
Steady State testing is bij TheSSDReview.com 45 minuten lang.

Dat is best pittig. Als ik zie wat er daarna nog aan average bandwith langskomt, ben ik toch redelijk positief.

Stiekem zou ik het gewoon wel eens willen testen met mijn workloads. Een 950 Pro 512GB vs een Intel 750 400GB, en dan 40 VM's uitrollen, patchen, en weer afsluiten en verwijderen (allemaal via iSCSI).

Kijken wat het verschil is :)

Even niets...


Acties:
  • 0 Henk 'm!

  • MA-Please
  • Registratie: September 2013
  • Laatst online: 22-05-2022
Hoi allemaal

Na een hele tijd te hebben gevolgd in dit topic en er even tussen uit te zijn geweest toch terug beginnen te lezen en aan het denken om zelf ook eens iets te bouwen.

Eerst even wat achtergrond informatie, ik studeer momenteel ICT en ben dus bezig met o.a. Windows server, Cisco netwerken, Linux, embedded devices, app development, programmeren in Java en C# en webdesign.

Graag jullie mening en eventueel ideeën over volgende.
De bedoeling is om een systeempje te bouwen waarop o.a. volgende zaken zullen draaien voor eigen gebruik:
- fileserver (productie),
- webserver (school en eigen projectjes),
- win10 (passtrough van gpu, (gamen, office,...)),
- diverse testservers (linux, windows, ...).

Als fileserver ben ik van plan om voorlopig nog geen zfs te gebruiken maar hier op termijn naar over te schakelen (dus ofwel mobo met 2 hba's ofwel extra hba), de webserver zal waarschijnlijk een ubuntu vm worden met daarop een lamp stack, deze 2 zaken zullen permanent draaien. De win10 vm zal niet permanent aanstaan en de testservers zullen waarschijnlijk niet draaien in combinatie met de win10 vm.

Hiervoor was ik aan het denken aan het volgende van hardware:
- Intel Core i5-6400,
- 16GB DDR4 (uitbreidbaar naar 32),
- M.2 SSD van 265GB als datastore,
- Geforce GTX960,
en een aantal HDD's.

Wat denken jullie van bovenstaande hardware en hebben jullie enig idee van een bijpassend µATX mobo? Voorstellen voor een andere CPU mogen ook.

Alvast bedankt.

Freelance licht tech + operator


Acties:
  • 0 Henk 'm!

  • dannybeuker
  • Registratie: Juli 2012
  • Laatst online: 21-09 12:00
MA-Please schreef op zaterdag 02 april 2016 @ 19:09:
- win10 (passtrough van gpu, (gamen, office,...)),

- Geforce GTX960,
Ik ben er momenteel ook mee bezig, maar meer voor HTPC doel einden. Wat ik vaker tegen kom op verscheidene forums, is dat Nvidia passthrough vaker niet werkt dan wel. Dit omdat zij voor virtualisatie sturen op de aanschaf van Quadro/GRID kaarten. Ik merkte dat ATI over het algemeen vaker wel goed werkten met 5.1/5.5/6.0. Heb zo even geen links, maar google er eens naar.

http://www.eevblog.com/fo...sional-counterparts/1175/
http://www.pugetsystems.c...-VMWare-Gaming-Setup-564/

Ik heb momenteel een supermicro X8DTE-F draaien met een Geforce GT 730 en ik krijg de passthrough met geen mogelijkheid volledig werkend. Op de X8DTE-F zitten alleen PCIe2.0 8x slots in, dus heb al een "exotische" videokaart moeten aanschaffen. De passthrough van de kaart gaat wel, maar om deze in de VM werkend te krijgen niet. ESXi 5.5 en 6.0 met een Win10 VM geeft na de driver installatie alleen BSOD's.
Geen idee of het de BIOS van het mobo zelf al is die de ondersteuning weigert (is ook geen optie om voorkeur aan te geven voor onboard Maxtrox GPU of PCIe) of dat het een Nvidia ding is. Al met al is het verstandig om van te voren te checken of anderen een soort gelijke setup werkend hebben gekregen.

Acties:
  • 0 Henk 'm!

  • sphere
  • Registratie: Juli 2003
  • Laatst online: 08:31

sphere

Debian abuser

Quadro werkt ook, heb ervaring met k4200 en k6000 maar ja dat kost ook nog wat. Zelf heb ik met esxi dual 7870 aan de gang gekregen op een x79 ud5.

http://stackoverflow.com/questions/1732348/regex-match-open-tags-except-xhtml-self-contained-tags/1732454#1732454


Acties:
  • 0 Henk 'm!

  • dannybeuker
  • Registratie: Juli 2012
  • Laatst online: 21-09 12:00
Je was me net voor, de edit. Was de Quadro vergeten te melden idd.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

|sWORDs| schreef op zaterdag 28 november 2015 @ 16:52:
Je hoeft niets door te geven (behalve natuurlijk de kaart zelf), als jij een kaart hebt die werkt met vDGA (Veel ATI kaarten, Quadro, of Geforce gemod naar Quadro) en HDMI heeft dan werkt dat gewoon. Volgens mij zijn er best wat die een hackintosh op ESXi draaien en vDGA/USB passthrough gebruiken voor video, toetsenbord en muis.

YouTube: Esxi 5.5 mavericks gpu passthrough + win 7 + synergy

Vergelijk het met het doorgeven van een USB controller (ipv USB device). Je hoeft dan ook niet alle devices door te geven, met VT-d is dat ook zo, op PCIe niveau wordt de gehele GPU doorgegeven, dus ook de outputs.
En daar kan dan nu nog Haswell en Broadwell Intel bij, dan heb je het echt gehad. Dat Geforce niet werkt ligt echt aan de keuze van nVidia zelf.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • MA-Please
  • Registratie: September 2013
  • Laatst online: 22-05-2022
Zelf ook nog wat zitten rondzoeken en dat zal het dus niet worden.

Een mogelijke oplossing zou zijn om Hyper-V te draaien op mijn win10 machine en hier dan de overige zaken in te virtualiseren. Dit heeft dan weer het nadeel dat ik geen hba in passtrough kan zetten als ik zfs wil gaan gebruiken.
Andere oplossing is dus een ATI of Quadro kaart te kiezen wat eigenlijk geen oplossing is, Quadro zal waarschijnlijk het dubbele kosten van de hele server en een stroomvretende ATI kaart in een relatief zuinige server is nu ook niet bepaald optimaal.

Of natuurlijk de gemakkelijkste oplossing: 2 builds.

Freelance licht tech + operator


Acties:
  • 0 Henk 'm!

  • Wasp
  • Registratie: Maart 2001
  • Laatst online: 08:49
Ik heb inmiddels de volgende set-up draaien:

#ProductPrijsSubtotaal
1Intel Core i3-6100 Boxed€ 117,95€ 117,95
1Gigabyte GA-B150M-D3H€ 79,95€ 79,95
1Antec ISK600M€ 64,90€ 64,90
2Crucial CT2K8G4DFD8213€ 57,-€ 114,-
1Seasonic G-series 360 watt€ 57,95€ 57,95
1Crucial MX200 2,5" 250GB€ 80,95€ 80,95
Bekijk collectie
Importeer producten
Totaal€ 515,70


Zal even wat bevindingen delen.

VMware ESXi 6.0 U2 is geinstalleerd op een Sandisk Ultra USB stick, en de onboard Intel I219V NIC deed het direct. Dus geen custom ISO nodig!

Skylake moederbordje slikte het DDR4 geheugen ook direct, ondanks dat dit geheugen niet op de HCL staat van Gigabyte. Ik heb 32 GB geheugen (4x8GB), maar het bordje zou zelfs 64 GB ondersteunen.

Zowel het moederbord als de CPU ondersteunen VT-d, alleen daar heb ik dit moment nog geen noodzaak toe (ik heb onder FreeNSD een ZFS pool op mijn HP Microserver Gen8). In de vSphere client komen de GPU en de NIC al als mogelijke passthrough devices naar voren, dus volgens mij gaat dit wel werken.

Op het bord is een M.2 NVME aansluiting aanwezig waar ik wellicht in de toekomst een SM951 of 950 Pro ga bijprikken.

Weet niet of het al bekend was, maar in ESXi 6.0 U2 is de Host Client direct al geïnstalleerd, dus ook daar hoef je verder niets aan te doen.

Ik ben nu wel benieuwd naar het stroomverbruik, zal binnenkort even een wattmeter kopen. Zijn er ook wattmeters die je via een api kan uitlezen waardoor je dit historisch in Zabbix oid kan bijhouden?

Ryzen 9 5900X, MSI Tomahawk MAX, 32GB RAM, Nvidia RTX 4070 Ti | Mijn livesets


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
MA-Please schreef op zaterdag 02 april 2016 @ 20:43:
Zelf ook nog wat zitten rondzoeken en dat zal het dus niet worden.

Een mogelijke oplossing zou zijn om Hyper-V te draaien op mijn win10 machine en hier dan de overige zaken in te virtualiseren. Dit heeft dan weer het nadeel dat ik geen hba in passtrough kan zetten als ik zfs wil gaan gebruiken.
Andere oplossing is dus een ATI of Quadro kaart te kiezen wat eigenlijk geen oplossing is, Quadro zal waarschijnlijk het dubbele kosten van de hele server en een stroomvretende ATI kaart in een relatief zuinige server is nu ook niet bepaald optimaal.

Of natuurlijk de gemakkelijkste oplossing: 2 builds.
Als je van een avontuurtje houdt:
http://www.eevblog.com/fo...rofessional-counterparts/
Wasp schreef op zondag 03 april 2016 @ 10:19:
Ik ben nu wel benieuwd naar het stroomverbruik, zal binnenkort even een wattmeter kopen. Zijn er ook wattmeters die je via een api kan uitlezen waardoor je dit historisch in Zabbix oid kan bijhouden?
Als je server het stroomverbruik kan uitlezen kun je het in ESXi zien of bijvoorbeeld een iLO van HP.
Let wel, je server moet het zelf ook ondersteunen.

[ Voor 21% gewijzigd door renedis op 04-04-2016 11:22 ]


Acties:
  • 0 Henk 'm!

  • MA-Please
  • Registratie: September 2013
  • Laatst online: 22-05-2022
Nog wat zitten opzoeken en een paar interessante dingen ontdekt.

Het grootste probleem met Geforce kaarten is naast het niet ondersteunen van vDGA het niet ondersteunen van function level reset (FLR) waarvan esxi gebruik maakt om het device te resetten alvorens het door te geven.
Doormiddel van het aanpassen van de VMX file kunnen wel andere reset methodes gekozen worden, hier kan misschien een oplossing inzitten voor het doorgeven van de Geforce kaarten.

Wat meer uitleg over VMDirectPath van VMWare zelf:
http://www.vmware.com/fil...p_4_vmdirectpath_host.pdf

Freelance licht tech + operator


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
MA-Please schreef op maandag 04 april 2016 @ 21:22:
Nog wat zitten opzoeken en een paar interessante dingen ontdekt.

Het grootste probleem met Geforce kaarten is naast het niet ondersteunen van vDGA het niet ondersteunen van function level reset (FLR) waarvan esxi gebruik maakt om het device te resetten alvorens het door te geven.
Doormiddel van het aanpassen van de VMX file kunnen wel andere reset methodes gekozen worden, hier kan misschien een oplossing inzitten voor het doorgeven van de Geforce kaarten.

Wat meer uitleg over VMDirectPath van VMWare zelf:
http://www.vmware.com/fil...p_4_vmdirectpath_host.pdf
Zo ver ik weet heeft Nvidia hardwarematig dit geblokkeerd waardoor je resistors moet aanpassen.

Afbeeldingslocatie: http://this8bitlife.com/wp-content/uploads/2013/03/gtx-690-mod.jpg

Oudere kaarten kan je via een software-mod doen.

Misschien dat je net zoals de onboard SATA controller met de passthru.map wat succes kan boeken. Echter moet je dan eerst een kaart aanschaffen/lenen voordat je kan testen.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

Voor zo ver ik weet is het een functie in de bios die uitgezet wordt als het geen Quadro is. Weet alleen niet meer hoe die functie heette.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
|sWORDs| schreef op dinsdag 05 april 2016 @ 16:54:
Voor zo ver ik weet is het een functie in de bios die uitgezet wordt als het geen Quadro is. Weet alleen niet meer hoe die functie heette.
Bij de oude kaarten, ja. Nieuwe kaarten, nee. Daar hebben ze bij Nvidia een stokje voor gestoken.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

Dat blijft gewoon hetzelfde, het enige verschil is het herkennen van een Quadro.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Nee, Nvidia heeft echt moeite gedaan om het te blokkeren.
De weerstanden zorgen voor bepaalde waarden (straps) die de BIOS uitleest en aan de hand daarvan word een GPU profiel er aan vast gehangen. Voorheen werd dit digitaal in de BIOS gedaan, tegenwoordig analoog via weerstanden.
What NVidia has done is changed the way that it handles the straps, instead of just pulling the straps high or low to control the switches as they did previously, they are now read as analogue values. The scheme is as follows:

When pulling high:

5K = 8
10K = 9
15K = A
20K = B
25K = C
30K = D
35K = E
40K = F

When pulling low I expect this to be the same, but for 7 - 0, but I did not test this as the device ID I was targeting is >= 8.

There are two tiny SMD resistors on the board, one for each nibble of the PCI Device ID byte. Originally the GTX 690 has a device id of 0x1188, so to become a Quadro K5000 this has to be changed to 0x11BA, which equates to 20K and 15K resistors. If you wanted to change it to a Tesla K10, you would want to change it to 0x118F, which equates to 5K and 40K resistors.
Ander puntje :) Nu mijn data/programma's weer in ESXi zitten in plaats van Ubuntu.
De meter er bij gepakt en voila 8)
18W verbruik met 3 actieve (allen Ubuntu 14.04 LTS) VM's op:
- Xeon 1235Lv5
- Asus P10S-I
- 500GB SSD mSata Samsung (NVMe SSD is nog niet binnen helaas :( )

[ Voor 11% gewijzigd door renedis op 06-04-2016 22:48 . Reden: Verbruik toegevoegd. ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
18W?? Dat is echt netjes zeg... Niet slecht voor een ASUS :)

(Wat voor meter?)

Even niets...


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Ik heb een Conrad Energy logger 3500.
Heeft tot nu toe altijd goede resultaten gegeven :)

Zonder VM's trekt ie 14/15W

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Dat valt mij echt 100% mee zeg... Dat is substantieel beter dan welk ander Supermicro bord dan ook.
Dit veranderd mijn perspectief over ASUS ernstig :+

Even niets...


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
FireDrunk schreef op donderdag 07 april 2016 @ 09:45:
Dat valt mij echt 100% mee zeg... Dat is substantieel beter dan welk ander Supermicro bord dan ook.
Dit veranderd mijn perspectief over ASUS ernstig :+
Vergeet niet dat de IPMI functie default uitgeschakeld staat en deze pas actief is met een pricewatch: Asus ASMB8-iKVM . SuperMicro heeft dit onboard wat stroom vreet.

Wellicht dat het ondersteunen tot en met C8 state wel helpt. Geen idee of dat ie daadwerkelijk zo ver gaat.

Acties:
  • 0 Henk 'm!

  • ta_chi79
  • Registratie: Juli 2001
  • Laatst online: 21-09 00:35
Volgens http://buildwithbsd.org/hw/skylake_xeon_server.html zie ik dat een X11SHH-LN4F ook maar 21W trekt en dat is dan nog met 4 SSD's.
Als je daar dan 3 SSD's en 2 DIMMs afhaalt van elk 1,5W en 0,5W om te vergelijken met jou test, scheelt dat met 15,5W niet heel veel met de Asus. En het verschil tussen IPMI en een paar netwerkporten extra en 330W gold en picoPSU van 90W vind ik de supermicro ook niet helemaal verkeerd presteren!
Overweeg sterk om de X11SHH-F aan te schaffen nu ze wat betreft zuinigheid behoorlijk aan elkaar gewaagd lijken te zijn.

Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Vergeet niet dat die meting gedaan is op een Ubuntu 14.04 LTS en Ubuntu beter met zijn resources omgaat dan ESXi.

De Asus P10S-I trekt 11W op Ubuntu met 1 SSD en 1 DIMM.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Een moderne SSD doet idle echt geen 1.5W meer. Samsung SSD's zitten idle al snel onder de 0.2W.
Alleen Crucial's doen nog regelmatig >1W idle.

Ook geheugen trekt niet zomaar 0.5W, dat is zelfs nog minder (Mux heeft er een filmpje over, waar het dacht ik minder was, maar kan me vergissen).

Absoluut gezien lijkt 21W vs 11W niet veel, maar bedenk dus dat relatief gezien het bijna 100% meer is!

Even niets...


Acties:
  • 0 Henk 'm!

  • ta_chi79
  • Registratie: Juli 2001
  • Laatst online: 21-09 00:35
Zat te dubben tussen de Asus en de Supermicro. De P10S-M-DC lijkt dan een betere keus en als bonus 2 M.2 sloten. Wil er wel 64GB in kunnen prikken, dus de mITX variant valt dan af.

Met de 2 M.2 sloten en 2 SSD's aangesloten (geen plannen voor HDD's en begin eerst met 1 SSD) is de max power daarvan zo'n 25W als ze tegelijk belast worden.
Met een 1240v5 erin moet dit toch wel te draaien zijn met een 90/120W picoPSU?
Volgens http://www.servethehome.c...ation-motherboard-review/ verstookt een 1270v5 vol belast slechts 60W tov een idle systeem, dus het lijkt me niet nodig om voor de 1260Lv5 te gaan die max 45W TDP doet en zeker wel gaat lukken.
Andere optie is om voor een Seasonic G360W te gaan, maar die lijkt me relatief gezien veel te inefficient voor idle.

Wat denken jullie dat de betere keus zou zijn?

Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
De 1270v5 bij servethehome trekt 60W bij booten, niet onder load.
Hij trekt 100W onder load:

Afbeeldingslocatie: http://www.servethehome.com/wp-content/uploads/2016/02/Supermicro-X11SAT-F-Power-Test.png

Een PicoPSU is niet meer efficient onder zulke loads, idle kan die dat wel.
Je moet dus voor je zelf afwegen wat je belangrijker vindt.. Efficienter zijn onder load (seasonic) of onder idle (PicoPSU).

Acties:
  • 0 Henk 'm!

  • ta_chi79
  • Registratie: Juli 2001
  • Laatst online: 21-09 00:35
Ging eigenlijk uit van idle 40W (incl heel laag idle verbruik van CPU), dus dan 60W erbij voor de CPU zelf.
Dus dan ~15-20W idle +60W CPU +25W SSD =~15W marge voor de 120W picoPSU, maar er zijn ook nog 150/160W varianten.

Merendeel zal waarschijnlijk toch idle zijn, dus verstandige keus zou zijn 1260Lv5 die toch als het nodig is een speedburst kan geven. Heb alleen nog niet gevonden hoe lang die het volhoud op 3.5GHz en schijnt dat dan nog maar op 1 core te doen ook. Maar goed dat is het compromis tov de 1240v5.
Lastig keuzes maken...

Wellicht maar eens uitproberen met een (overbemeten) 520W PSU die in m'n huidige desktop zit om te meten wat het piekverbruik is en op basis daarvan een picoPSU of Seasonic aanschaffen.

Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Misschien handig om te melden wat je nu precies wilt.
Ik zag voorbij komen dat je een setup zoekt met een enkele M.2 SSD en 64GB geheugen?
In de toekomst een tweede M.2 SSD?

Als je het daarbij laat zal dit idle echt geen problemen opleveren. Maar ga jij van alles en nog wat uitvogelen met VSAN en 101+ (bij wijze van) VM's draaien dan is een PicoPSU simpelweg niet voldoende.

ESXi booten met mijn setup trekt max 34W. Echter heb ik een TDP van 25W. Een 1260L of 1240 zal met het booten echt niet veel meer gaan verbruiken. Idle zal het verbruik precies hetzelfde zijn.

Alleen onder load zijn die cijfers echt anders.

Vergeet ook niet dat het keerpunt van de efficientie van een PicoPSU op ongeveer 60W ligt. Bij langdurig gebruik daar boven kom je beter uit met een Seasonic.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

renedis schreef op woensdag 06 april 2016 @ 22:44:
Nee, Nvidia heeft echt moeite gedaan om het te blokkeren.
De weerstanden zorgen voor bepaalde waarden (straps) die de BIOS uitleest en aan de hand daarvan word een GPU profiel er aan vast gehangen. Voorheen werd dit digitaal in de BIOS gedaan, tegenwoordig analoog via weerstanden.


[...]


Ander puntje :) Nu mijn data/programma's weer in ESXi zitten in plaats van Ubuntu.
De meter er bij gepakt en voila 8)
18W verbruik met 3 actieve (allen Ubuntu 14.04 LTS) VM's op:
- Xeon 1235Lv5
- Asus P10S-I
- 500GB SSD mSata Samsung (NVMe SSD is nog niet binnen helaas :( )
Je mist mijn punt, ik zeg namelijk precies hetzelfde, het ging niet over het detecteren van welke kaart het is, maar over wat er nodig is voor VT-d.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • ta_chi79
  • Registratie: Juli 2001
  • Laatst online: 21-09 00:35
renedis schreef op donderdag 07 april 2016 @ 17:19:
Misschien handig om te melden wat je nu precies wilt.
Wat ik van plan ben is primair:
  • 1 Ubuntu GeoServer met PostgreSQL database (lichte load, maar wel veel kortdurende piekbelasting en 1x daags ~1 uur vollast om de updates te verwerken)
  • 1 Ubuntu development werkstation
Wil dit initieel op m'n Samsung 830 512GB opzetten en later doorschuiven naar 1 of 2 nieuwe SSD's (M.2 of PCIe).

Daarnaast wat Windows servertjes (ad-hoc, maar vaak wel een aantal tegelijk):
1 AD
1 SQL Server
1 Exchange
2 SharePoint farms
~5 applicatie servers
~2 Windows 7/10 clients
om diverse situaties mee te kunnen testen.
Deze zullen later opgezet worden op de vrijkomende 830 en een extra SSD voor de extra ruimte.

Dat initieel met 32GB of gelijk al met 64GB RAM en van 1 opschalen naar 3 of 4 SSD's (mix van 2.5", M.2 en PCIe).

Acties:
  • 0 Henk 'm!

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 10:29

OMX2000

By any means necessary...

Ik ben nu echt al een poos op zoek naar een waardige opvolger van mijn huidige ESXi doos.

VM's die ik draai hebben de volgende functie

Gitlab
Windows 20xx Server : Als experimentele Windows Server omgeving voor software development (.NET)
Ubuntu Server als NAS (mdadm RAID5) + Plex server.
Unifi Controller voor beheer van lokale AP's


Nu wil ik straks over gaan op ZFS RaidZ2 (FreeNAS of Ubuntu ben ik nog niet over uit) en wil ik een systeem wat via Plex meerdere streams kan serveren. Daarnaast wil ik ook wat meer ruimte hebben om te experimenteren met VM's voor development van onder andere node.js toepassingen.

Ik heb een tijd gekeken naar de Xeon D plankjes maar ik neig toch naar een Xeon E3 V5 systeem. De volgende configuratie heb ik voor ogen. Ik begin in eerste instantie nog met 32 GB, en upgrade eventueel als het nodig wordt.

#ProductPrijsSubtotaal
1Intel Xeon E3-1240 v5 Tray€ 289,50€ 289,50
1Supermicro X11SSH-LN4F€ 274,40€ 274,40
6HGST Deskstar NAS, 4TB€ 159,74€ 958,44
1Fractal Design Node 804€ 101,95€ 101,95
1Crucial CT2K16G4WFD824A€ 201,92€ 201,92
1Seasonic G-series 360 watt€ 59,95€ 59,95
1Samsung SM951 (NVMe) 512GB€ 251,-€ 251,-
Bekijk collectie
Importeer producten
Totaal€ 2.137,16


De vraag is of iemand hier met een soort gelijke configuratie heeft of wil gaan aanschaffen. En zijn er dus nog tips over wat wel of niet handig is. Ik wil trouwens ook de mogelijkheid openhouden om in de toekomst meer SATA poorten via een HBA kaart beschikbaar te krijgen.

Dè developers podcast in je moerstaal : CodeKlets Podcast


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Mooi systeempje!

Waarom geen 950 Pro? Is net weer een stukje sneller en nieuwer :)

Voor de rest geen opmerkingen, ziet er keurig uit!
Ik denk niet dat je met een Xeon D een beter systeem zou kopen, ze ontlopen elkaar niet heel ver denk ik. Xeon D is te krijgen met 10Gb en is ITX, maar als je dat niet perse nodig hebt, is een Xeon v5 een prima keuze!

Even niets...


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Nu online
FireDrunk schreef op maandag 11 april 2016 @ 07:01:
Waarom geen 950 Pro? Is net weer een stukje sneller en nieuwer :)
Die is wel 50 euro duurder. Ik vraag me af of je dat verschil echt merkt met een paar home-lab-VM's :) Ook omdat het M.2-slot op dat moederbord PCI-E 3.0 x2 is (ipv x4)
OMX2000 schreef op zondag 10 april 2016 @ 23:33:
En zijn er dus nog tips over wat wel of niet handig is.
Vergeet de koeler niet, je linkt naar een 'tray'-processor. Verder een leuke build :)

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Als je 2100 euro voor een server uitgeeft, maakt 50 euro voor een betere SSD ook niet zo veel meer uit :)

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

Paul schreef op maandag 11 april 2016 @ 10:18:
[...]
Die is wel 50 euro duurder. Ik vraag me af of je dat verschil echt merkt met een paar home-lab-VM's :) Ook omdat het M.2-slot op dat moederbord PCI-E 3.0 x2 is (ipv x4)
[...]
+ betere garantie en het kunnen krijgen van firmware updates.

Qua snelheid maakt het heel weinig uit (VM met een 512GB Samsung 950/480GB 843T):

InterfaceSeq Read QD1 Seq Write QD1Seq Read QD64 Seq Write QD644K Read QD14K Write QD14K Read QD644K Write QD64
3.0 x4 (3940MB/s)14001537239215214074901431
2.0 x4 (2000MB/s)126612061671154140751107429
2.0 x2 (1000MB/s)6826278315743363813333
SATA (600MB/s)4173215592742149298267

Score zal heel dicht op 2.0 x4 zitten met de 1970MB/s van 3.0 x2 en zal waarschijnlijk zelfs sneller zijn, de 2.0 lanes komen uit de chipset en die delen dus de DMI bus. De 950 is niet heel constant in zijn performance, bovenstaande zijn gemiddelden van 10 testen, maar je ziet dat er wat vreemde uitschieters bij zitten. Overal ga je echt geen performance verschil merken tussen x2 en x4 op PCIe 3.0.

[ Voor 75% gewijzigd door |sWORDs| op 11-04-2016 13:13 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • prekz
  • Registratie: September 2008
  • Laatst online: 07:41
Hoe zit het eigenlijk met M2 ssd's die niet via het NVMe protocol lopen maar nog het oudere sata600/ahci. Is dit ook een aparte controller of maakt hij gebruik van dezelfde controller als de reguliere sata poorten?

Ik wil de m2 namelijk als vm datastore gebruiken en de sata controller/poorten in passthrough zetten voor een ZFS VM. Maar de NVMe varianten zijn toch circa 2x zo duur als de oude sata600/ahci varianten.

Acties:
  • +1 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
SATA600 != AHCI. AHCI kan ook over PCIe lopen, dan haal je dus meer dan SATA snelheden, alleen is het protocol nog 'ouder'. (Niet alle AHCI M.2 SSD's doen dit, er zijn moederboren met een mixed M.2 / SATA AHCI aansluiting.

NVMe is in sommige gevallen ook 2-3x zo snel als een SATA SSD, dus duurder is relatief :)

Even niets...


Acties:
  • +1 Henk 'm!

  • prekz
  • Registratie: September 2008
  • Laatst online: 07:41
Dat van sata en ahci is mij bekend. Natuurlijk weet ik dat NVMe dus veel sneller is maar die snelheid heb ik eigenlijk niet nodig. Ik draai nu op een msata disk die qua snelheid ruim voldoet (ongeveer gelijk aan de 2,5" varianten).

Maar mijn vraag of dit over dezelfde sata controller loopt is nog niet helemaal beantwoord.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

Loopt over je onboard. In de manual staat meestal welke SATA poort shared is.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
@|sWORDs|,

Wel gek dat de Random Read QD64 sneller is op PCIe 2.0 x4. Dat lijkt me sterk eerlijk gezegd.

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

FireDrunk schreef op maandag 11 april 2016 @ 13:39:
@|sWORDs|,

Wel gek dat de Random Read QD64 sneller is op PCIe 2.0 x4. Dat lijkt me sterk eerlijk gezegd.
|sWORDs| schreef op maandag 11 april 2016 @ 11:45:
De 950 is niet heel constant in zijn performance, bovenstaande zijn gemiddelden van 10 testen, maar je ziet dat er wat vreemde uitschieters bij zitten. Overal ga je echt geen performance verschil merken tussen x2 en x4 op PCIe 3.0.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Al geprobeerd om het ding te koelen? Ik lees vaak dat dat zorgt voor een veel constantere performance.

Even niets...


Acties:
  • 0 Henk 'm!

  • nagasy
  • Registratie: Mei 2008
  • Laatst online: 29-11-2024

nagasy

Duck Duck Duck Goose

OMX2000 schreef op zondag 10 april 2016 @ 23:33:
Ik ben nu echt al een poos op zoek naar een waardige opvolger van mijn huidige ESXi doos.

VM's die ik draai hebben de volgende functie

Gitlab
Windows 20xx Server : Als experimentele Windows Server omgeving voor software development (.NET)
Ubuntu Server als NAS (mdadm RAID5) + Plex server.
Unifi Controller voor beheer van lokale AP's


Nu wil ik straks over gaan op ZFS RaidZ2 (FreeNAS of Ubuntu ben ik nog niet over uit) en wil ik een systeem wat via Plex meerdere streams kan serveren. Daarnaast wil ik ook wat meer ruimte hebben om te experimenteren met VM's voor development van onder andere node.js toepassingen.

Ik heb een tijd gekeken naar de Xeon D plankjes maar ik neig toch naar een Xeon E3 V5 systeem. De volgende configuratie heb ik voor ogen. Ik begin in eerste instantie nog met 32 GB, en upgrade eventueel als het nodig wordt.

#ProductPrijsSubtotaal
1Intel Xeon E3-1240 v5 Tray€ 289,50€ 289,50
1Supermicro X11SSH-LN4F€ 274,40€ 274,40
6HGST Deskstar NAS, 4TB€ 159,74€ 958,44
1Fractal Design Node 804€ 101,95€ 101,95
1Crucial CT2K16G4WFD824A€ 201,92€ 201,92
1Seasonic G-series 360 watt€ 59,95€ 59,95
1Samsung SM951 (NVMe) 512GB€ 251,-€ 251,-
Bekijk collectie
Importeer producten
Totaal€ 2.137,16


De vraag is of iemand hier met een soort gelijke configuratie heeft of wil gaan aanschaffen. En zijn er dus nog tips over wat wel of niet handig is. Ik wil trouwens ook de mogelijkheid openhouden om in de toekomst meer SATA poorten via een HBA kaart beschikbaar te krijgen.
Ga je kijken om je on-board controller via pci-passthrough mee te geven aan je freenas server?

Battle.net: NagaByrd#2844


Acties:
  • 0 Henk 'm!

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 10:29

OMX2000

By any means necessary...

FireDrunk schreef op maandag 11 april 2016 @ 11:17:
Als je 2100 euro voor een server uitgeeft, maakt 50 euro voor een betere SSD ook niet zo veel meer uit :)
Eens! Hoewel het nog langs de "dierectie" moet die een server van 1500 al goedgekeurd had. Dus ff wat verzinnen (we mogen de kinderfoto's niet kwijtraken) ;)

Maar serieus als ik dan toch upgrade dan liever een keer goed. Trouwens die ssd kan ook met zo'n pci-e adapter in het x4 slot, vreemde keus van Supermicro om het nvme slot niet x4 te maken zoals bij de Xeon D bordjes.

Dè developers podcast in je moerstaal : CodeKlets Podcast


Acties:
  • 0 Henk 'm!

  • Paul
  • Registratie: September 2000
  • Nu online
Mja, op het totaal is het misschien niet zo veel, maar het is wel € 50,-, en als dat niet nodig is... Ik kan niet in andermans portemonnee kijken, maar de meeste directies geven liever 50 euro minder uit dan 50 euro meer :P

"Your life is yours alone. Rise up and live it." - Richard Rahl
Rhàshan - Aditu Sunlock


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 18-09 18:41

|sWORDs|

vSphere/ESXi

FireDrunk schreef op maandag 11 april 2016 @ 14:01:
Al geprobeerd om het ding te koelen? Ik lees vaak dat dat zorgt voor een veel constantere performance.
Zit een giga airflow over de kaart. Ze zijn gewoon niet zo constant als de Intel's, het verschil tussen peak and steady state is ook enorm. Cijfers boven zijn peak.

[ Voor 14% gewijzigd door |sWORDs| op 11-04-2016 15:15 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Dat is zeker waar. De Intel's zijn veel geschikter voor Datacenter / VM workloads. Maar goed, die is nog weer iets duurder...

Even niets...


Acties:
  • 0 Henk 'm!

  • BertusG
  • Registratie: November 2003
  • Niet online
Ben ook in de oriënterende fase om een ESxi server te gaan bouwen. Belangrijkste doelen worden VM met Xpenology, VM met domoticz, VM met Sabnzbd, CP, TVHeadend enz en een Windows VM.

Voor de Windows VM wil ik GPU passtrough voor Steam in home Stream en bijv. foto/video editing. Begrijp dat ik onder ESxi dan ben aangewezen op een ATI GPU. Hoef zeker niet de laatste games te spelen, wat oudere games (2-4 jaar oud), die ik hooguit incidenteel wil spelen op de client in de woonkamer.

Zou dit een haalbare kaart zijn of vereist dit echt de top qua hardware?

Acties:
  • 0 Henk 'm!

  • VorCha
  • Registratie: November 2004
  • Laatst online: 11-06 21:15
BertusG schreef op dinsdag 12 april 2016 @ 20:28:
Ben ook in de oriënterende fase om een ESxi server te gaan bouwen. Belangrijkste doelen worden VM met Xpenology, VM met domoticz, VM met Sabnzbd, CP, TVHeadend enz en een Windows VM.

Voor de Windows VM wil ik GPU passtrough voor Steam in home Stream en bijv. foto/video editing. Begrijp dat ik onder ESxi dan ben aangewezen op een ATI GPU. Hoef zeker niet de laatste games te spelen, wat oudere games (2-4 jaar oud), die ik hooguit incidenteel wil spelen op de client in de woonkamer.

Zou dit een haalbare kaart zijn of vereist dit echt de top qua hardware?
Ik zou zeggen haalbaar, ik zou wel een quadcore i5 of i7 cpu kiezen op z'n minst ivm gaming. En 8GB toewijzen aan de windows VM. op baremetal werkt steam met 4GB net aan, ik merkte zeker een boost met een verdubbeling naar 8.

Ik heb zelf ooit de fout gemaakt door eerst een GTX 750 aan te schaffen, om er vervolgens achter te komen dat passthrough met NVidia's niet goed werkt in ESXi. Dus ik ben benieuwd naar je ervaringen.

Acties:
  • 0 Henk 'm!

  • BertusG
  • Registratie: November 2003
  • Niet online
VorCha schreef op dinsdag 12 april 2016 @ 20:46:
[...]

Ik zou zeggen haalbaar, ik zou wel een quadcore i5 of i7 cpu kiezen op z'n minst ivm gaming. En 8GB toewijzen aan de windows VM. op baremetal werkt steam met 4GB net aan, ik merkte zeker een boost met een verdubbeling naar 8.

Ik heb zelf ooit de fout gemaakt door eerst een GTX 750 aan te schaffen, om er vervolgens achter te komen dat passthrough met NVidia's niet goed werkt in ESXi. Dus ik ben benieuwd naar je ervaringen.
Dank!

Hoe zit het eigenlijk met stroomverbruik met een losse GPU. Als de enige VM die de losse GPU gebruikt (overige VM''s gebruiken integrated GPU) niet actief is (uitstaat), verbruikt de losse GPU dan ook geen stroom?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
Ik snap die drang om een GPU door te geven niet zo. Het is softwarematig best lastig en je moet heel goed opletten welke je koopt, bovendien gaat je verbruik er door omhoog.

Waarom kan je de 'client' in de huiskamer niet gewoon voorzien van dezelfde GPU? Voor het lawaai hoef je het tegenwoordig niet te doen, er zijn genoeg videokaarten die semi passief / onhoorbaar hun werk kunnen doen?

Tenzij je echt een hele dikke GPU wil gebruiken hiervoor en in de huiskamer muisstil wil kunnen gamen is het misschien leuk, maar dan heb je een ontzettend beefy ESXi server nodig...

[ Voor 3% gewijzigd door FireDrunk op 13-04-2016 08:16 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • BertusG
  • Registratie: November 2003
  • Niet online
FireDrunk schreef op woensdag 13 april 2016 @ 08:15:
Ik snap die drang om een GPU door te geven niet zo. Het is softwarematig best lastig en je moet heel goed opletten welke je koopt, bovendien gaat je verbruik er door omhoog.

Waarom kan je de 'client' in de huiskamer niet gewoon voorzien van dezelfde GPU? Voor het lawaai hoef je het tegenwoordig niet te doen, er zijn genoeg videokaarten die semi passief / onhoorbaar hun werk kunnen doen?

Tenzij je echt een hele dikke GPU wil gebruiken hiervoor en in de huiskamer muisstil wil kunnen gamen is het misschien leuk, maar dan heb je een ontzettend beefy ESXi server nodig...
Dat is nu de afweging die ik probeer te maken. Als het verbruik alleen omhoog gaat als de VM waarop de GPU aan gepasstroughed actief is, dan vind ik het niet zo'n probleem omdat het systeem dan 95% van de tijd nog steeds heel zuinig is omdat ik een incidentele gamer ben. Voor alle andere VM's is de integrated GPU van de nieuwe i5 namelijk voldoende.

Het is ook de uitdaging/proof of concept, hoef zeker niet de nieuwste externe GPU er in te hebben. Kortom; het zou moeten kunnen, maar wat wordt de impact op het energieverbruik als de VM in kwestie niet gebruikt wordt?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 20-09 11:06
VM's gebruiken geen GPU :) Die is ook gevirtualiseerd namelijk. Of de Dedicated GPU je verbruik laag houdt, hangt denk ik af of ASPM en andere power saving features nog werken tijdens het doorgeven via VT-d. Dat is maar de vraag.
Kans is redelijk groot dat als je de goede drivers laad in de VM die de GPU heeft, dat het wel goed gaat.

Ik ga er vanuit dat de GPU vrijwel niets doet op het moment dat er geen claim op ligt, maar soms heb je daar dus wel drivers voor nodig.

Even niets...

Pagina: 1 ... 93 ... 116 Laatste

Let op:
Let op: Dit is geen 'algemeen ESxi-topic'. Ook je algemene VT vragen horen hier niet thuis!

Lees voor je begint goed de start post en blijf ontopic.