Even niets...
Daarnaast zie ik heel veel Samsung drives sneuvelen (vanmorgen weer iemand met twee SM951’s binnen drie weken na elkaar) als VSAN cache drives en totaal geen Intel drives. Hier doen ze het alle vier nog perfect met zo’n 2-3% wearlevel per jaar. De Samsung 950 Pro’s die ik als capacity tier gebruik trouwens ook, maar die krijgen een stuk minder voor hun kiezen.FireDrunk schreef op zaterdag 4 november 2017 @ 21:18:
Tja, dan moet je dus een job doen van 3 * 60 * 600MB. Best veul.
En dan hebben we het nog niet over de temperatuur en throtteling gehad.
Ik zou die 70 euro geen gekke investering vinden.
[ Voor 31% gewijzigd door |sWORDs| op 05-11-2017 12:35 ]
Te Koop:24 Core Intel Upgradeset
# | Product | Prijs | Subtotaal |
1 | Intel Core i3-8100 Boxed | € 113,- | € 113,- |
1 | Gigabyte Z370M-D3H | € 123,50 | € 123,50 |
1 | Sandisk Cruzer Fit 16GB Zwart | € 8,95 | € 8,95 |
1 | Crucial CT2K16G4DFD824A | € 289,- | € 289,- |
1 | be quiet! System Power B8 300W | € 34,- | € 34,- |
1 | Intel 750 SSD Half Height PCIe 3.0 x4 400GB | € 296,99 | € 296,99 |
Bekijk collectie Importeer producten | Totaal | € 865,44 |
mobo GA-x48t-DQ6 mobo + 2x4gb ram + 256gb ssd + 4x4tb HD
pci intel netwerkkaart
Esxi 5.5 / Xpenology 6.0.2
Deze setup draait reeds +1maand zonder issues.
Naast het bovenstaande wil ik een server2012 virtuele machine toevoegen. Ik heb nog een intel netwerkkaart pci-x liggen.
De netwerkkaart wordt herkend door esxi en kan deze toevoegen aan een guest. Na het toevoegen van deze netwerkkaart heb ik problemen met de bestaande xpenology virtuele machine, die start op maar na 5tal minuten stopt deze met werken.
Ik heb een aantal keer deze melding op de esxi gezien:
"purple screen" Vmware Esxi 5.5.0
#gp exception 13 in world 40235:vmm2:server2 @ 0x41802b0a8716
Waarschijnlijk zal de oorzaak wel een probleem zijn met die 2de netwerkaart.
Na het verwijderen van de netwerkkaart blijft de xpenology vast lopen na 5min.
Enig idee hoe dit valt op de lossen?
Alvast bedankt
Uiteraard!Deem007492 schreef op zondag 5 november 2017 @ 15:24:
Onderstaande gaat het waarschijnlijk worden. Zodra de server online is, laat ik het direct weten. Willen jullie nog een testje zien straks?
# Product Prijs Subtotaal 1 Intel Core i3-8100 Boxed € 113,- € 113,- 1 Gigabyte Z370M-D3H € 123,50 € 123,50 1 Sandisk Cruzer Fit 16GB Zwart € 8,95 € 8,95 1 Crucial CT2K16G4DFD824A € 289,- € 289,- 1 be quiet! System Power B8 300W € 34,- € 34,- 1 Intel 750 SSD Half Height PCIe 3.0 x4 400GB € 296,99 € 296,99 Bekijk collectie
Importeer productenTotaal € 865,44
@Elkristo78
Je hebt een hele oude setup, met een hele oude versie van ESXi. Dat maakt het wel lastig. Probeer op zijn minst de laatste versie van ESXi eens.
[ Voor 90% gewijzigd door FireDrunk op 06-11-2017 08:16 ]
Even niets...
Wat voor CPU heb je? Mocht het een Yorkfield/Kentsfield/Wolfdale zijn dan zou deze met 6.5 u1 moeten werken. Conroe zou met 6.0 u3 nog moeten werken.Elkristo78 schreef op maandag 6 november 2017 @ 07:43:
My setup:
mobo GA-x48t-DQ6 mobo + 2x4gb ram + 256gb ssd + 4x4tb HD
pci intel netwerkkaart
Esxi 5.5 / Xpenology 6.0.2
Deze setup draait reeds +1maand zonder issues.
Naast het bovenstaande wil ik een server2012 virtuele machine toevoegen. Ik heb nog een intel netwerkkaart pci-x liggen.
De netwerkkaart wordt herkend door esxi en kan deze toevoegen aan een guest. Na het toevoegen van deze netwerkkaart heb ik problemen met de bestaande xpenology virtuele machine, die start op maar na 5tal minuten stopt deze met werken.
Ik heb een aantal keer deze melding op de esxi gezien:
"purple screen" Vmware Esxi 5.5.0
#gp exception 13 in world 40235:vmm2:server2 @ 0x41802b0a8716
Waarschijnlijk zal de oorzaak wel een probleem zijn met die 2de netwerkaart.
Na het verwijderen van de netwerkkaart blijft de xpenology vast lopen na 5min.
Enig idee hoe dit valt op de lossen?
Alvast bedankt
Sowieso heb je een VIB file voor je onboard NIC nodig. Voor de PCI-X kaart: Niet alle PCI-X kaarten werken goed in een standaard PCI slot.
Ook zou ik XPenology bijwerken naar DSM 6.1.3-15152 Update 8 en een nieuwe loader, het maar een X aantal minuten werken is een bekend probleem met bepaalde oudere versies.
Edit: Q9450 @ 3,4ghz 1,33Vcore staat in je inventaris. Dat zou met 6.5 u1 moet lukken. Is die overklok nog steeds actief?
[ Voor 25% gewijzigd door |sWORDs| op 06-11-2017 09:34 ]
Te Koop:24 Core Intel Upgradeset
Mogelijk kunnen er meerdere personen tegelijkertijd op werken. Gaat dat werken met de onderstaande configuratie? Wellicht een grotere SSD of 2x de Intel 750 400Gb.
1. pfSense (2 a 3 OpenVPN connecties)
2. Ubuntu 14.04 webservertje
3. W10 machine met SQl en BI software
4. W10 ook met SQL en een applicatie
5. W10 voor office en internet.
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1245 v6 Boxed | € 282,90 | € 282,90 |
1 | Supermicro X11SSH-F | € 225,- | € 225,- |
1 | Supermicro 731I-300 | € 96,50 | € 96,50 |
1 | Kingston KTH-PL424S/16G | € 199,73 | € 199,73 |
1 | Intel 750 SSD Half Height PCIe 3.0 x4 400GB | € 296,99 | € 296,99 |
Bekijk collectie Importeer producten | Totaal | € 1.101,12 |
Qua config zit je denk ik aardig goed, misschien iets meer geheugen? (ik weet het, het is duur momenteel
PS: overigens is Ubutun 14.04 wel echt oud, misschien 16.04 overwegen?
[ Voor 9% gewijzigd door FireDrunk op 08-11-2017 09:39 ]
Even niets...
2-3 gebruikers is inderdaad wat vaag gedefnieerd. In de Win 10 BI omgeving kan er eventjes tijdens het laden van data uit de datbase veel rescources gevraagd worden. Daarna valt het wel mee qua belasting.
Dat geldt eigenlijk voor de andere win10 met SQL ook zo. Dus ik denk dat de belasting wel meevalt.
Ik ga deze week de set bestellen. Dank je wel voor de adviezen!
Defineer ‘internet’ eens, omvat dat ook video?Deem007492 schreef op dinsdag 7 november 2017 @ 21:09:
Vanwege nieuwe ontwikkelingen, "defecte" pfsense machine (AES-ni ontbreekt), wil ik voor een all-in one server gaan.
Mogelijk kunnen er meerdere personen tegelijkertijd op werken. Gaat dat werken met de onderstaande configuratie? Wellicht een grotere SSD of 2x de Intel 750 400Gb.
1. pfSense (2 a 3 OpenVPN connecties)
2. Ubuntu 14.04 webservertje
3. W10 machine met SQl en BI software
4. W10 ook met SQL en een applicatie
5. W10 voor office en internet.
# Product Prijs Subtotaal 1 Intel Xeon E3-1245 v6 Boxed € 282,90 € 282,90 1 Supermicro X11SSH-F € 225,- € 225,- 1 Supermicro 731I-300 € 96,50 € 96,50 1 Kingston KTH-PL424S/16G € 199,73 € 199,73 1 Intel 750 SSD Half Height PCIe 3.0 x4 400GB € 296,99 € 296,99 Bekijk collectie
Importeer productenTotaal € 1.101,12
Te Koop:24 Core Intel Upgradeset
Dat gaat prima.Deem007492 schreef op vrijdag 10 november 2017 @ 20:23:
Video niet. Website aanpassen bijv.
Te Koop:24 Core Intel Upgradeset
Systeem besteld. Inderdaag 2x een reepje geheugen gekozen. Ik dacht dat ik al 32GB had gekozen... ongelooflijk wat duur tegenwoordig.FireDrunk schreef op woensdag 8 november 2017 @ 09:38:
Qua config zit je denk ik aardig goed, misschien iets meer geheugen? (ik weet het, het is duur momenteel)
PS: overigens is Ubutun 14.04 wel echt oud, misschien 16.04 overwegen?![]()
Ubutunu 14.04 is inderdaad een aadachtspunt. Ik wist niet dat het die versie was.
Idd Ubuntu 16.04 LTSDeem007492 schreef op zaterdag 11 november 2017 @ 08:26:
[...]
Systeem besteld. Inderdaag 2x een reepje geheugen gekozen. Ik dacht dat ik al 32GB had gekozen... ongelooflijk wat duur tegenwoordig.
Ubutunu 14.04 is inderdaad een aadachtspunt. Ik wist niet dat het die versie was.
Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R
Hoe kan ik mijn DL380G6 updaten via Vcenter als hij in maintenance mode moet?
Vcenter moet daarbij ook uitgeschakeld zijn toch? mijn G5 update hij prima omdat ik daar alle vm's gewoon uit kan schakelen. Maar op de G6 staat Vcenter en die kan niet uit want die heb ik toch nodig om te upgraden?
Eerst even mijn setup:
1 X MSA2312sa (12 X 300gb disk)
1 X DL380 G6 48gb mem (ESXi 6.5)
1 x DL360 G5 32GB mem 500GB SSD (ESXi 6.0) (6.5 kent deze CPU's niet meer helaas).
Er komt binnenkort een DL380 G6 bij dan kan het volgens mij heel simpel door de vcenter te moven oid? maar goed ik ben benieuwd hoe ik dit kan doen. Probeer te leren van VMWARE.
Op de ESXi bakjes draaien mijn vms natuurlijk zoals internet gw (pfsense) untangle als filter en unifi server (wifi disks) en xymon servertje (monitoring) en backup servers etc.
Ik hoor graag van jullie.
gr,
Tim
Als dat niet kan, moet je dus vanuit de CLI updaten. Alle VM's moeten altijd uit voor een update.
ESX Update package downloaden, en op een Datastore zetten.
Daarna kan je via de CLI updaten met zoiets als: esxcli software vib install -b update.zip (give or take).
Meteen even rebooten daarna.
[ Voor 7% gewijzigd door FireDrunk op 20-11-2017 09:17 ]
Even niets...
Met maar 1 host (of een niet verplaatsbare VC) kun je beter vanaf de commandline updaten.Timeku schreef op maandag 20 november 2017 @ 09:03:
Hoi Allemaal.
Hoe kan ik mijn DL380G6 updaten via Vcenter als hij in maintenance mode moet?
Vcenter moet daarbij ook uitgeschakeld zijn toch? mijn G5 update hij prima omdat ik daar alle vm's gewoon uit kan schakelen. Maar op de G6 staat Vcenter en die kan niet uit want die heb ik toch nodig om te upgraden?
Eerst even mijn setup:
1 X MSA2312sa (12 X 300gb disk)
1 X DL380 G6 48gb mem (ESXi 6.5)
1 x DL360 G5 32GB mem 500GB SSD (ESXi 6.0) (6.5 kent deze CPU's niet meer helaas).
Er komt binnenkort een DL380 G6 bij dan kan het volgens mij heel simpel door de vcenter te moven oid? maar goed ik ben benieuwd hoe ik dit kan doen. Probeer te leren van VMWARE.
Op de ESXi bakjes draaien mijn vms natuurlijk zoals internet gw (pfsense) untangle als filter en unifi server (wifi disks) en xymon servertje (monitoring) en backup servers etc.
Ik hoor graag van jullie.
gr,
Tim
6.0:
1
2
3
4
5
| esxcli system maintenanceMode set --enable true esxcli network firewall ruleset set -e true -r httpClient esxcli software profile install -p ESXi-6.0.0-20171104001-standard -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml esxcli network firewall ruleset set -e false -r httpClient reboot |
6.5:
1
2
3
4
5
| esxcli system maintenanceMode set --enable true esxcli network firewall ruleset set -e true -r httpClient esxcli software profile install -p ESXi-6.5.0-20171004001-standard -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml esxcli network firewall ruleset set -e false -r httpClient reboot |
[ Voor 11% gewijzigd door |sWORDs| op 20-11-2017 09:50 ]
Te Koop:24 Core Intel Upgradeset
Daar kunnen toch ook Xeon 5400's in? Die zouden het met 6.5 moeten doen en staan vast voor een prikkie op Ebay.Timeku schreef op maandag 20 november 2017 @ 09:03:
[...]
1 x DL360 G5 32GB mem 500GB SSD (ESXi 6.0) (6.5 kent deze CPU's niet meer helaas).
[...]
https://www.ebay.com/itm/...c6a9dd:g:sqwAAOSwMmBVxZWp
Alhoewel, als je de stroomkosten en prestaties gaat bekijken een nieuw systeempje met een enkele i3-8100 waarschijnlijk een betere investering is.
[ Voor 33% gewijzigd door |sWORDs| op 20-11-2017 10:08 ]
Te Koop:24 Core Intel Upgradeset
Als je een vSphere homelab wil gaan bouwen met HPE / Dell servers uit de 2de hands markt zou ik echt kijken naar machines met minimaal E5-26xx Vx cpu's. Die zullen mogelijk nog wel een paar jaar werken. Alles lager lijkt echt gokwerk te zijn met hoelang ze nog zullen werken.
Ik zat even de thread door te kijken, maar pas je met een setup als deze wel op voor je licensing? Bijv. Windows 10 mag je niet zomaar virtueel draaien, daar zijn speciale licenties / licentie programma's voor nodig (VDI / VDA), voor een hobby bob thuis oplossing misschien niet super belangrijk, maar als je deze setup zakelijk gaat inzetten zou ik mocht je hier nog niet over nagedacht hebben toch mee oppassenDeem007492 schreef op dinsdag 7 november 2017 @ 21:09:
Vanwege nieuwe ontwikkelingen, "defecte" pfsense machine (AES-ni ontbreekt), wil ik voor een all-in one server gaan.
Mogelijk kunnen er meerdere personen tegelijkertijd op werken. Gaat dat werken met de onderstaande configuratie? Wellicht een grotere SSD of 2x de Intel 750 400Gb.
1. pfSense (2 a 3 OpenVPN connecties)
2. Ubuntu 14.04 webservertje
3. W10 machine met SQl en BI software
4. W10 ook met SQL en een applicatie
5. W10 voor office en internet.
# Product Prijs Subtotaal 1 Intel Xeon E3-1245 v6 Boxed € 282,90 € 282,90 1 Supermicro X11SSH-F € 225,- € 225,- 1 Supermicro 731I-300 € 96,50 € 96,50 1 Kingston KTH-PL424S/16G € 199,73 € 199,73 1 Intel 750 SSD Half Height PCIe 3.0 x4 400GB € 296,99 € 296,99 Bekijk collectie
Importeer productenTotaal € 1.101,12
[ Voor 69% gewijzigd door Dennism op 20-11-2017 10:38 ]
Dat hangt een beetje van de leeftijd van de G5 af, sommige kan je niet upgraden naar quad cores|sWORDs| schreef op maandag 20 november 2017 @ 09:55:
[...]
Daar kunnen toch ook Xeon 5400's in? Die zouden het met 6.5 moeten doen en staan vast voor een prikkie op Ebay.
https://www.ebay.com/itm/...c6a9dd:g:sqwAAOSwMmBVxZWp
Alhoewel, als je de stroomkosten en prestaties gaat bekijken een nieuw systeempje met een enkele i3-8100 waarschijnlijk een betere investering is.
Uit de quickspecs:
"Upgradeability Upgradeable to quad or dual processing
NOTE: Future upgradeable to Xeon® Series 5400/5300 Quad-Core processors (Please contact your
regional sales support to determine quad core upgradeability. Some of the earlier shipping models may
not support this upgrade). 5100 Dual-Core models are not upgradeable to the 5200 Dual-Core
processors.
"
Me Tarzan, U nix!
En heeft misschien iemand een link met een soort handleiding voor vmware waar ik eens ff door kan bladeren? Ik kan al redelijk veel ermee via SSH esxcli en vlans opzetten etc maar weet nog lang niet alles.
gr, Tim
Een VM krijgt nooit meer aan geheugen dan je hem geeft.Timeku schreef op maandag 20 november 2017 @ 14:11:
Even een andere vraag. Ik heb het een stuk terug al iets over gelezen maar als je een vm bijvoorbeeld 1gb geeft aan memory en vm geeft vervolgens in vsphere aan dat hij geel / rood is (memory icoon) dan moet hij toch meer krijgen? of kan het ook nog zijn dat hij op dat moment niet meer kan geven (te weinig geheugen vrij?).
En heeft misschien iemand een link met een soort handleiding voor vmware waar ik eens ff door kan bladeren? Ik kan al redelijk veel ermee via SSH esxcli en vlans opzetten etc maar weet nog lang niet alles.
gr, Tim
Standaard werkt het zo:
Je wijst 1GB toe, Windows ziet 1GB aan geheugen en gaat dat gebruiken, alles wat gebruikt wordt door Windows wordt ook daadwerkelijk als geheugen op je host benut. Voor elke VM wordt een swap file aangemaakt en zodra er na compressie te weinig host geheugen is wordt de swap benut.
Zaken waarmee je dit gedrag kunt beïnvloeden:
Reservations: hiermee wordt direct een deel/alles van de VM memory als het host geheugen toegewezen en hiervoor geen swap aangemaakt.
TPS (Transparent Page Sharing): delen van common memory blocks tussen VMs.
Rood/Geel is in bepaalde gevallen (bijvoorbeeld met reserve all memory) een display bug in 6.5. En kijk nooit naar "Active Memory", dit is alleen voor de interne werking interessant (het is een schatting van geheugen dat gebruikt wordt, maar een gemiddelde tussen 3 momenten, waarbij niet gekeken wordt of dit ander geheugen was of niet), je kunt beter in de guest kijken naar het geheugen gebruik.
Google termen: "VMware TPS salt large pages" "VMware memory reservation" "VMware swap"
[ Voor 42% gewijzigd door |sWORDs| op 20-11-2017 14:27 ]
Te Koop:24 Core Intel Upgradeset
Super daar kom ik wel verder mee. Dat van die bug was ik niet van op de hoogte. Ik vond het al vreemd dat een simpel ubuntu server bakje opeens 2gb nodig had. Was namelijk met 6..0 512mb voldoende!|sWORDs| schreef op maandag 20 november 2017 @ 14:15:
[...]
Een VM krijgt nooit meer aan geheugen dan je hem geeft.
Standaard werkt het zo:
Je wijst 1GB toe, Windows ziet 1GB aan geheugen en gaat dat gebruiken, alles wat gebruikt wordt door Windows wordt ook daadwerkelijk als geheugen op je host benut. Voor elke VM wordt een swap file aangemaakt en zodra er na compressie te weinig host geheugen is wordt de swap benut.
Zaken waarmee je dit gedrag kunt beïnvloeden:
Reservations: hiermee wordt direct een deel/alles van de VM memory als het host geheugen toegewezen en hiervoor geen swap aangemaakt.
TPS (Transparent Page Sharing): delen van common memory blocks tussen VMs.
Rood/Geel is in bepaalde gevallen (bijvoorbeeld met reserve all memory) een display bug in 6.5. En kijk nooit naar "Active Memory", dit is alleen voor de interne werking interessant (het is een schatting van geheugen dat gebruikt wordt, maar een gemiddelde tussen 3 momenten, waarbij niet gekeken wordt of dit ander geheugen was of niet), je kunt beter in de guest kijken naar het geheugen gebruik.
Google termen: "VMware TPS salt large pages" "VMware memory reservation" "VMware swap"
Ik ga het even uitpluizen en kijken of ze nu niet veel te veel hebben wat ook jammer is natuurlijk.
Groet,
Tim
Nu zit ik vanaf afstand (werk) te kijken of ik er nog iets mee kan maar een reboot loste het probleem helaas niet op.
Nu zit de datastore met een https://tweakers.net/pric...size-2-x-sata-6-gb-s.html waar een https://tweakers.net/pric...amsung-850-evo-500gb.html op zit.
Ik kan ze beide niet vinden, kan ik nog iets volgens jullie bekijken/proberen om de controller danwel de disk zichtbaar te krijgen vanaf afstand?
---------------------
Extra edit- ASM1062 Serial ATA Controller is nu wel zichtbaar in ESXi. SSD alleen niet.
---------------------
Extra-extra edit- Alles losgehad en SSD getest, die was verder prima. Omdat controller achterop het moederbord zit toch nog een keer geprobeerd te booten en ESXi start weer door.
[ Voor 19% gewijzigd door stuffer op 29-11-2017 16:27 . Reden: Extra info ]
Schaamteloze verkoop van:
http://tweakers.net/aanbod/user/311422/
*** NIKS ***
Ik heb een esx server met daarop een Linux vm waarop ik een apparaat via usb passthrough door geef. Deze werkt, als in, Linux herkent het apparaat. Maar na een paar minuten werkt het niet meer. Device is nog steeds aanwezig, maar software kan niet meer mee communiceren.esxcli system module set -m=vmkusb -e=FALSE
Ik kreeg deze commando als tip, dat het dan wel werkt.
Maar wil wel weten wat ik doe
Edit: link naar ander forum
Edit: gevonden...
https://kb.vmware.com/s/article/2147650In ESXi 6.5, the legacy USB drivers, including xhci, ehci-hcd, usb-uhci, usb, usb-storage, and so on, are replaced with a single USB driver named vmkusb. The vmkusb driver is loaded by default and it is applied to all the USB Host Controllers (XHCI/EHCI/UHCI/OHCI), USB Keyboard, Mass Storage, and supported USB NIC devices connected to the host.
[ Voor 36% gewijzigd door iMars op 30-11-2017 23:38 ]
Even niets...
0x1E=mrcUnsupportedTechnology
Het lijkt erop dat er verkeerd geheugen inzit.
Up to 64GB Unbuffered ECC UDIMM DDR4 2400MHz; 4 DIMM slots.
Bron:
https://www.supermicro.co...on/C236_C232/X11SSH-F.cfm
# | Product | Prijs | Subtotaal |
1 | Intel Xeon E3-1245 v6 Boxed | € 293,45 | € 293,45 |
1 | Supermicro X11SSH-F | € 219,49 | € 219,49 |
2 | Kingston KTH-PL424S/16G | € 197,75 | € 395,50 |
1 | Intel 750 SSD Half Height PCIe 3.0 x4 400GB | € 391,05 | € 391,05 |
Bekijk collectie Importeer producten | Totaal | € 1.299,49 |
[ Voor 17% gewijzigd door Deem007492 op 02-12-2017 22:17 ]
Ik zie op meerdere sites staan dat het geheugen registered is. Foutje in de pricewatch?Deem007492 schreef op zaterdag 2 december 2017 @ 21:00:
Vandaag pas alle componenten ontvangen. Krijg de volgende foutmelding met opstarten.
0x1E=mrcUnsupportedTechnology
Het lijkt erop dat er verkeerd geheugen inzit.
Up to 64GB Unbuffered ECC UDIMM DDR4 2400MHz; 4 DIMM slots.
Bron:
https://www.supermicro.co...on/C236_C232/X11SSH-F.cfm
# Product Prijs Subtotaal 1 Intel Xeon E3-1245 v6 Boxed € 293,45 € 293,45 1 Supermicro X11SSH-F € 219,49 € 219,49 2 Kingston KTH-PL424S/16G € 197,75 € 395,50 1 Intel 750 SSD Half Height PCIe 3.0 x4 400GB € 391,05 € 391,05 Bekijk collectie
Importeer productenTotaal € 1.299,49
Edit, ja dus.
Kingston zelf:
KTH-PL424S/16G 16GB DDR4-2400MHz Reg ECC Single Rank Module
Pricewatch:
Wel ECC, niet Registered
[ Voor 128% gewijzigd door |sWORDs| op 02-12-2017 23:37 ]
Te Koop:24 Core Intel Upgradeset
Dus het staat fout op tweakers?
Dit geheugen staat op de
Tested Memory List. Dan hoop ik dat die webwinkel de Kingston wil omruilen. Ga er wel vanuit, omdat de product omschrijving onjuist is.
pricewatch: Samsung M391A2K43BB1-CRC
[ Voor 14% gewijzigd door FireDrunk op 04-12-2017 11:43 ]
Even niets...
Deze is misschien een idee?
pricewatch: Kingston ValueRAM KVR24E17D8/16MA
Even niets...
Misschien eens tijd voor een volledige update van de voorbeelden.FireDrunk schreef op donderdag 7 december 2017 @ 08:26:
Dat moet @|sWORDs| doen, ik mag zijn post niet wijzigen
Deze is misschien een idee?
pricewatch: Kingston ValueRAM KVR24E17D8/16MA
Te Koop:24 Core Intel Upgradeset
Mn testversie wil de raid-1 niet voorzien van een datastore
Hold. Step. Move. There will always be a way to keep on moving
Vanwege de goede service van de webshop waar ik de foutieve Kingston had gekocht, heb ik de eerder genoemde Samsung geheugen besteld.FireDrunk schreef op donderdag 7 december 2017 @ 08:26:
Dat moet @|sWORDs| doen, ik mag zijn post niet wijzigen
Deze is misschien een idee?
pricewatch: Kingston ValueRAM KVR24E17D8/16MA
Sinds een dag of 3 freezed hij compleet en gaat alles offline.
Als ik in de logs kijk, lijkt het mij weer related met de SSD datastore.
Is er hier iemand die misschien iets meer duidelijkheid kan scheppen over waarom die juist faalt?
In het begin had ik dit ook voor. SSD geformatteerd en opnieuw begonnen en toen waren de problemen weg.
Heb al een andere SATA poort en kabel geprobeerd momenteel..
Sta ergens op het punt van een Intel 750 400GB aan te schaffen vermits deze hier precies wel veel gebruikt wordt en blijkbaar zonder problemen..
https://pastebin.com/kE2QwVjX
Intel Xeon e5-2650 V3 ES
2x 32GB Kingston EEC, REG
Asus Z10PA-D8
Samsung 850 Pro 256GB
HP NC364T
Welke build gebruik je en staat er bij je storage adapters in de host client vmw_ahci of ahci?Cookiezzz schreef op vrijdag 8 december 2017 @ 09:49:
Heb ondertussen al verschillende maanden thuis een ESXi draaien zonder problemen.
Sinds een dag of 3 freezed hij compleet en gaat alles offline.
Als ik in de logs kijk, lijkt het mij weer related met de SSD datastore.
Is er hier iemand die misschien iets meer duidelijkheid kan scheppen over waarom die juist faalt?
In het begin had ik dit ook voor. SSD geformatteerd en opnieuw begonnen en toen waren de problemen weg.
Heb al een andere SATA poort en kabel geprobeerd momenteel..
Sta ergens op het punt van een Intel 750 400GB aan te schaffen vermits deze hier precies wel veel gebruikt wordt en blijkbaar zonder problemen..
https://pastebin.com/kE2QwVjX
Intel Xeon e5-2650 V3 ES
2x 32GB Kingston EEC, REG
Asus Z10PA-D8
Samsung 850 Pro 256GB
HP NC364T
Als het een build ouder dan 6765664 is, update dan eerst eens.
1
2
3
4
5
| esxcli system maintenanceMode set --enable true esxcli network firewall ruleset set -e true -r httpClient esxcli software profile install -p ESXi-6.5.0-20171004001-standard -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml esxcli network firewall ruleset set -e false -r httpClient reboot |
Mocht dat niet helpen en als het vmw_ahci is probeer dan eens het volgende + een reboot:
1
| esxcli system module set -e=false -m=vmw_ahci |
Als dat niet helpt, wat zegt SMART?
[ Voor 23% gewijzigd door |sWORDs| op 08-12-2017 10:33 ]
Te Koop:24 Core Intel Upgradeset
Is allemaal ahci. 6.0.0 Update 3 (Build 6921384)|sWORDs| schreef op vrijdag 8 december 2017 @ 10:18:
[...]
Welke build gebruik je en staat er bij je storage adapters in de host client vmw_ahci of ahci?
Als het een build ouder dan 6765664 is, update dan eerst eens.
code:
1 2 3 4 5 esxcli system maintenanceMode set --enable true esxcli network firewall ruleset set -e true -r httpClient esxcli software profile install -p ESXi-6.5.0-20171004001-standard -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml esxcli network firewall ruleset set -e false -r httpClient reboot
Mocht dat niet helpen en als het vmw_ahci is probeer dan eens het volgende + een reboot:
code:
1 esxcli system module set -e=false -m=vmw_ahci

[ Voor 9% gewijzigd door Cookiezzz op 08-12-2017 10:33 ]
Dan vrees ik voor je disk. Wat zegt SMART?Cookiezzz schreef op vrijdag 8 december 2017 @ 10:27:
[...]
Is allemaal ahci. 6.0.0 Update 3 (Build 6921384)
[afbeelding]
En hoeveel VMs draai je op die SSD? En hoeveel CMD/s doen die VMs ongeveer?
[ Voor 10% gewijzigd door |sWORDs| op 08-12-2017 10:36 ]
Te Koop:24 Core Intel Upgradeset
|sWORDs| schreef op vrijdag 8 december 2017 @ 10:34:
[...]
Dan vrees ik voor je disk. Wat zegt SMART?
En hoeveel VMs draai je op die SSD? En hoeveel CMD/s doen die VMs ongeveer?


Schijf is een paar maanden oud, dus zou straf zijn.
9 VMs. 1 vcenter, 6 linux en 2 Windows.
Kan je geen exact nummer geven maar die Linux doen volgens mij niet veel. (Mail, MariaDB, irc client, nextcloud, Unifi controller,...)
Windows is fileserver en backup, maar de files zelf staan niet op de SSD.
[ Voor 21% gewijzigd door Cookiezzz op 08-12-2017 10:46 ]
En wat geeft deze:Cookiezzz schreef op vrijdag 8 december 2017 @ 10:41:
[...]
[afbeelding]
[afbeelding]
Schijf is een paar maanden oud, dus zou straf zijn.
9 VMs. 1 vcenter, 6 linux en 2 Windows.
Kan je geen exact nummer geven maar die Linux doen volgens mij niet veel. (Mail, MariaDB, irc client, nextcloud, Unifi controller,...)
Windows is fileserver en backup, maar de files zelf staan niet op de SSD.
https://www.virten.net/20...-values-in-esxi-smartctl/
En hier zie je hoe je CMD/s kan zien (bekijk dat even terwijl je op je piek zit en niet idle):
https://kb.vmware.com/s/article/1008205
[ Voor 8% gewijzigd door |sWORDs| op 08-12-2017 11:03 ]
Te Koop:24 Core Intel Upgradeset
https://pastebin.com/mLWGNWit|sWORDs| schreef op vrijdag 8 december 2017 @ 10:56:
[...]
En wat geeft deze:
https://www.virten.net/20...-values-in-esxi-smartctl/
En hier zie je hoe je CMD/s kan zien:
https://kb.vmware.com/s/article/1008205
Als ik even reken kom ik uit op 4,136 TBW.
Schijf heeft een TBW van 150TB
CRC_Error_Count zie ik er een paar, maar eigenlijk geen idee of die de boosdoener zijn.
Iets wat me wel optvalt is onderstaande:
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 1.5 Gb/s)
Mobo heeft alleen sata 6GB/s poorten, dus dit is wel raar.
CMD/s

Ik heb er nu wel al enkele VMs afgehaald, maar dan nog is het weinig denk ik?
[ Voor 13% gewijzigd door Cookiezzz op 08-12-2017 11:09 ]
CRC Error Count is echt niet ok (CRC errors tussen controller en disk). SATA kabel vervangen en anders disk (controller issue) vervangen (en hopen dat het geen moederbord issue is).Cookiezzz schreef op vrijdag 8 december 2017 @ 11:04:
[...]
https://pastebin.com/mLWGNWit
Als ik even reken kom ik uit op 4,136 TBW.
Schijf heeft een TBW van 150TB
CRC_Error_Count zie ik er een paar, maar eigenlijk geen idee of die de boosdoener zijn.
Iets wat me wel optvalt is onderstaande:
SATA Version is: SATA 3.1, 6.0 Gb/s (current: 1.5 Gb/s)
Mobo heeft alleen sata 6GB/s poorten, dus dit is wel raar.
Je hebt niet toevallig ook nog een andere drive aan het bord zitten, zo ja wat is de Error Count daarvan?
Ik weet niet hoe druk de machine was ten opzichte van piek load. Maar 20CMD/s en QD van 31 kan best krap zijn als dat idle usage was.Cookiezzz schreef op vrijdag 8 december 2017 @ 11:04:
[...]
CMD/s
[afbeelding]
Ik heb er nu wel al enkele VMs afgehaald, maar dan nog is het weinig denk ik?
[ Voor 31% gewijzigd door |sWORDs| op 08-12-2017 11:15 ]
Te Koop:24 Core Intel Upgradeset
Nog 2 oude HDDs...|sWORDs| schreef op vrijdag 8 december 2017 @ 11:11:
[...]
CRC Error Count is echt niet ok. SATA kabel vervangen en anders disk vervangen (en hopen dat het geen moederbord issue is).
Je hebt niet toevallig ook nog een andere drive aan het bord zitten, zo ja wat is de Error Count daarvan?
Beide hebben er blijkbaar ook last van..
UDMA_CRC_Error_Count 286
UDMA_CRC_Error_Count 184
No bueno vrees ik nu
De SATA kabel van de SSD heb ik gisteren al is vervangen. En ook een andere SATA poort genomen.
Een andere SSD heb ik niet meer.
Die CMD/s was idle ja.. Alles stond wel aan, maar was geen speciale zaken aan het doen.
Asl ik nu kijk is het +- 10 idle met piekjes naar 19CMD/s
Vermits een Intel 750 niet op SATA zit, en sneller, zou het mijn probleem evt verhelpen?
[ Voor 17% gewijzigd door Cookiezzz op 08-12-2017 11:20 ]
Start eens een los topic, ik ben een beetje bang dat er iets met je Z10 bord mis is.Cookiezzz schreef op vrijdag 8 december 2017 @ 11:15:
[...]
Nog 2 oude HDDs...
Beide hebben er blijkbaar ook last van..
UDMA_CRC_Error_Count 286
UDMA_CRC_Error_Count 184
No bueno vrees ik nu![]()
De SATA kabel van de SSD heb ik gisteren al is vervangen. En ook een andere SATA poort genomen.
Een andere SSD heb ik niet meer.
Die CMD/s was idle ja.. Alles stond wel aan, maar was geen speciale zaken aan het doen.
Cookiezzz schreef op donderdag 3 augustus 2017 @ 16:54:
Even wat snelle raad zoeken bij de experts hier.
Zojuist allle VMs unresponsive.
Inloggen in vCenter gaat niet meer.
Als ik inlog op de ESXi zelf zie ik dat de VMs inaccessible zijn, ik krijg ook mijn Samsung 850 PRO nergens meer te zien.
Heeft die juist de geest gegeven?![]()
Klein stukje van de log
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 2017-08-03T13:00:46.912Z cpu6:33055)NMP: nmp_ThrottleLogForDevice:3303: Cmd 0x2a (0x43b5cff4d500, 217913) to dev "t10.ATA_____ST500DM0022D1BD142___________________________________Z6ELZN4A" on path "vmhba38:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense$ 2017-08-03T13:00:46.912Z cpu6:33055)ScsiDeviceIO: 2613: Cmd(0x43b5cff4d500) 0x2a, CmdSN 0x80000028 from world 217913 to dev "t10.ATA_____ST500DM0022D1BD142___________________________________Z6ELZN4A" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0xb 0x0 0x$ 2017-08-03T13:00:47.039Z cpu2:32834)HBX: 283: 'Data': HB at offset 4034560 - Reclaimed heartbeat [Timeout]: 2017-08-03T13:00:47.039Z cpu2:32834) [HB state abcdef02 offset 4034560 gen 453 stampUS 248254024541 uuid 597f54db-04b0bc04-a8af-2c56dc7231f1 jrnl <FB 347000> drv 14.61 lockImpl 3] 2017-08-03T13:00:48.022Z cpu18:36314)VSCSI: 2590: handle 8583(vscsi0:0):Reset request on FSS handle 10816507 (3 outstanding commands) from (vmm0:Skylon) 2017-08-03T13:00:48.022Z cpu6:32993)VSCSI: 2868: handle 8583(vscsi0:0):Reset [Retries: 0/0] from (vmm0:Skylon) 2017-08-03T13:00:48.455Z cpu13:33317)<3>ata5: COMRESET failed (errno=-16) 2017-08-03T13:00:48.455Z cpu13:33317)<3>ata5: reset failed, giving up 2017-08-03T13:00:48.455Z cpu13:33317)<4>ata5.00: disabled 2017-08-03T13:00:48.455Z cpu13:33317)<6>ata5: EH complete 2017-08-03T13:00:48.551Z cpu13:219460)<6>ata5: ahci_port_reset: SUCCEEDED 2017-08-03T13:00:48.551Z cpu13:219460)<6>ahci_scsi_abort: cmd 0x2a (0x43b5d0653440), SUCCEEDED 2017-08-03T13:00:48.551Z cpu12:33245)NMP: nmp_ThrottleLogForDevice:3253: last error status from device t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____ repeated 1 times 2017-08-03T13:00:48.551Z cpu12:33245)NMP: nmp_ThrottleLogForDevice:3303: Cmd 0x28 (0x43b5d03e4d00, 35725) to dev "t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____" on path "vmhba1:C0:T0:L0" Failed: H:0x1 D:0x0 P:0x0 Possible sens$ 2017-08-03T13:00:48.551Z cpu12:33245)WARNING: NMP: nmp_DeviceRetryCommand:133: Device "t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____": awaiting fast path state update for failover with I/O blocked. No prior reservation$ 2017-08-03T13:00:48.551Z cpu12:32815)NMP: nmp_ThrottleLogForDevice:3253: last error status from device t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____ repeated 3 times 2017-08-03T13:00:48.551Z cpu12:32815)NMP: nmp_ThrottleLogForDevice:3303: Cmd 0x2a (0x43b5c0cd3dc0, 32794) to dev "t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____" on path "vmhba1:C0:T0:L0" Failed: H:0x0 D:0x2 P:0x0 Valid sense d$ 2017-08-03T13:00:48.551Z cpu12:32815)ScsiDeviceIO: 2613: Cmd(0x43b5c0cd3dc0) 0x2a, CmdSN 0x152e6a from world 32794 to dev "t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0xb 0x0 0x0. 2017-08-03T13:00:48.551Z cpu0:218075)ScsiDevice: 4565: Device state of t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____ set to APD_START; token num:1 2017-08-03T13:00:48.551Z cpu0:218075)StorageApdHandler: 1204: APD start for 0x4301fb093810 [t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____] 2017-08-03T13:00:48.551Z cpu9:33003)StorageApdHandler: 421: APD start event for 0x4301fb093810 [t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____] 2017-08-03T13:00:48.551Z cpu9:33003)StorageApdHandlerEv: 110: Device or filesystem with identifier [t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____] has entered the All Paths Down state. 2017-08-03T13:00:48.551Z cpu6:33257)WARNING: NMP: nmpDeviceAttemptFailover:603: Retry world failover device "t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____" - issuing command 0x43b5d03e4d00 2017-08-03T13:00:48.551Z cpu6:33257)WARNING: NMP: nmpDeviceAttemptFailover:678: Retry world failover device "t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____" - failed to issue command due to Not found (APD), try again... 2017-08-03T13:00:48.551Z cpu6:33257)WARNING: NMP: nmpDeviceAttemptFailover:728: Logical device "t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____": awaiting fast path state update... 2017-08-03T13:00:48.571Z cpu13:32833)<7>ata5: reset completed 2017-08-03T13:00:48.571Z cpu13:32833)<6>ata5: ahci_port_reset: SUCCEEDED 2017-08-03T13:00:48.571Z cpu13:32833)<6>ahci_scsi_abort: cmd 0x2a (0x43b5d2366080), SUCCEEDED 2017-08-03T13:00:48.571Z cpu13:32833)<6>ahci_scsi_abort: cmd 0x2a (0x43b5c1bc4c80), entering... 2017-08-03T13:00:48.571Z cpu13:32833)<7>ata5: ahci_port_reset, entering... 2017-08-03T13:00:48.571Z cpu13:32833)<6>ata5: ahci_port_reset: SUCCEEDED 2017-08-03T13:00:48.571Z cpu13:32833)<6>ahci_scsi_abort: cmd 0x2a (0x43b5c1bc4c80), SUCCEEDED 2017-08-03T13:00:48.571Z cpu12:32815)ScsiDeviceIO: 2613: Cmd(0x43b5c0c73f40) 0x2a, CmdSN 0x80000050 from world 36312 to dev "t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____" failed H:0x0 D:0x2 P:0x0 Valid sense data: 0xb 0x0 0x0. 2017-08-03T13:00:48.571Z cpu13:32833)ScsiDeviceIO: 2595: Cmd(0x43b5d03e4d00) 0x28, CmdSN 0x152e6b from world 35725 to dev "t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____" failed H:0x8 D:0x0 P:0x0 2017-08-03T13:00:48.571Z cpu13:32833)ScsiDeviceIO: 2595: Cmd(0x43b5c0c84780) 0x2a, CmdSN 0x80000011 from world 89237 to dev "t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____" failed H:0x8 D:0x0 P:0x0 2017-08-03T13:00:48.571Z cpu13:32833)ScsiDeviceIO: 2595: Cmd(0x43b5c0c8d4c0) 0x2a, CmdSN 0x8000002a from world 89237 to dev "t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____" failed H:0x8 D:0x0 P:0x0 2017-08-03T13:00:48.571Z cpu13:32833)ScsiDeviceIO: 2595: Cmd(0x43b5cff4e400) 0x2a, CmdSN 0x800e0017 from world 36341 to dev "t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____" failed H:0x8 D:0x0 P:0x0 2017-08-03T13:00:48.571Z cpu13:32833)WARNING: NMP: nmp_DeviceStartLoop:725: NMP Device "t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____" is blocked. Not starting I/O from device. 2017-08-03T13:00:48.572Z cpu13:32833)WARNING: HBX: 3460: 'OS': HB at offset 4034560 - Reclaiming timed out HB failed: No connection: 2017-08-03T13:00:48.572Z cpu13:32833)WARNING: [HB state abcdef02 offset 4034560 gen 165 stampUS 248194293193 uuid 597f54db-04b0bc04-a8af-2c56dc7231f1 jrnl <FB 231800> drv 14.61 lockImpl 3] 2017-08-03T13:00:48.572Z cpu17:32946)BC: 4997: Failed to flush 1 buffers of size 8192 each for object 'vmware.log' f530 28 3 5929b0a1 2c659a80 562c1372 f13172dc 29c02044 5d93 0 0 0 0 0: No connection 2017-08-03T13:00:48.572Z cpu17:32946)BC: 4997: Failed to flush 1 buffers of size 8192 each for object 'vmware.log' f530 28 3 5929b0a1 2c659a80 562c1372 f13172dc 29c02044 5d93 0 0 0 0 0: No connection 2017-08-03T13:00:48.572Z cpu1:35516)Vol3: 3147: Failed to get object 28 type 2 uuid 5929b0a1-2c659a80-1372-2c56dc7231f1 FD 4 gen 1 :No connection 2017-08-03T13:00:48.572Z cpu1:35516)Vol3: 3147: Failed to get object 28 type 2 uuid 5929b0a1-2c659a80-1372-2c56dc7231f1 FD 4 gen 1 :No connection 2017-08-03T13:00:48.572Z cpu5:35472)Vol3: 3147: Failed to get object 28 type 2 uuid 5929b0a1-2c659a80-1372-2c56dc7231f1 FD 4 gen 1 :No connection 2017-08-03T13:00:48.573Z cpu1:35516)Vol3: 3147: Failed to get object 28 type 2 uuid 5929b0a1-2c659a80-1372-2c56dc7231f1 FD 4 gen 1 :No connection 2017-08-03T13:00:48.573Z cpu5:35472)Vol3: 3147: Failed to get object 28 type 2 uuid 5929b0a1-2c659a80-1372-2c56dc7231f1 FD 4 gen 1 :No connection 2017-08-03T13:00:48.573Z cpu5:35472)Vol3: 3147: Failed to get object 28 type 2 uuid 5929b0a1-2c659a80-1372-2c56dc7231f1 FD 4 gen 1 :No connection 2017-08-03T13:00:48.591Z cpu6:32993)VSCSI: 2661: handle 8583(vscsi0:0):Completing reset (0 outstanding commands) 2017-08-03T13:00:48.991Z cpu6:33257)WARNING: NMP: nmpDeviceAttemptFailover:566: Retry world restore device "t10.ATA_____Samsung_SSD_850_PRO_256GB_______________S39KNX0J546067V_____" - no more commands to retry 2017-08-03T13:00:51.231Z cpu7:32835)WARNING: HBX: 3460: 'OS': HB at offset 4034560 - Reclaiming timed out HB failed: No connection: 2017-08-03T13:00:51.231Z cpu7:32835)WARNING: [HB state abcdef02 offset 4034560 gen 165 stampUS 248194293193 uuid 597f54db-04b0bc04-a8af-2c56dc7231f1 jrnl <FB 231800> drv 14.61 lockImpl 3] 2017-08-03T13:00:51.680Z cpu1:34857)Vol3: 3147: Failed to get object 28 type 2 uuid 5929b0a1-2c659a80-1372-2c56dc7231f1 FD 4 gen 1 :No connection 2017-08-03T13:00:51.680Z cpu1:34857)Vol3: 3147: Failed to get object 28 type 2 uuid 5929b0a1-2c659a80-1372-2c56dc7231f1 FD 4 gen 1 :No connection 2017-08-03T13:00:51.680Z cpu1:34857)Vol3: 3147: Failed to get object 28 type 2 uuid 5929b0a1-2c659a80-1372-2c56dc7231f1 FD 4 gen 1 :No connection 2017-08-03T13:00:51.680Z cpu1:34857)Vol3: 3147: Failed to get object 28 type 2 uuid 5929b0a1-2c659a80-1372-2c56dc7231f1 FD 4 gen 1 :No connection 2017-08-03T13:00:51.680Z cpu1:34857)Vol3: 3147: Failed to get object 28 type 2 uuid 5929b0a1-2c659a80-1372-2c56dc7231f1 FD 4 gen 1 :No connection
Ja dat zou heel goed kunnen. Een pricewatch: Intel 750 SSD Half Height PCIe 3.0 x4 400GB of pricewatch: Intel Optane SSD 900P PCI-e 280GB zijn ook wel even een upgrade met queue depths van 2048 (maar de latency neemt wel flink toe boven de 256-384, toch hebben we het dan nog steeds over 12x de QD van SATA op een Intel controller).Cookiezzz schreef op vrijdag 8 december 2017 @ 11:15:
[...]
Vermits een Intel 750 niet op SATA zit, en sneller, zou het mijn probleem evt verhelpen?
De 750 heeft als voordeel dat je meer capaciteit voor je geld hebt, de 900p vooral lagere latency (maar de 750 is ook al extreem laag) en een gigantisch verschil in TBW (41x Intel 750). Voor beide raad ik aan om VMFS6 (veel sneller met snapshots) te gebruiken en de inbox VMware NVME driver (stabiel met VMFS6, snelheid inmiddels gelijk aan intel-nvme driver).
Op mijn systeem merk ik eigenlijk geen snelheidsverschil tussen de twee, sowieso heb je belachelijke hoeveelheden CPU nodig om ze vol te trekken (29GHz met 4K writes om de 900p vol, 541K IOPS, te trekken). Zelfs met de 400GB Intel 750's heb ik maar 3% wearlevel per jaar in mijn best drukke lab.
Een Samsung 960 Pro zou ook een goed alternatief kunnen zijn, echter weet ik niet hoe degelijk ze zijn. De 950/951 series sneuvelen bij bosjes. Silicon Motion based drives (zoals de Intel 600p) of Samsung EVO drives zou ik niet aanraden.
Als je de verzendkosten heen en terug wil betalen dan mag je best een maandje met mijn LSI 9211-8i testen of je zou een 750 400GB over kunnen nemen, die mag dan wel weer terug als het geen oplossing is (dan ook alleen de verzendkosten).
Dit waren mijn wearlevels een maand geleden:
1
2
3
4
5
| Drive Model Wear Level In use since Wear Level per year Intel 750 1.2TB HHHL SSDPEDMW012T4 3% January 2016 1.64% Intel 750 400GB 2.5" SSDPE2MW400G4 2% January 2017 2.40% Intel 750 400GB HHHL SSDPEDMW400G4 8% August 2015 3.69% Intel 750 400GB 2.5" SSDPE2MW400G4 5% March 2016 3.00% |
vCenter kan er wel wat van. Op mijn management cluster doet alleen de vCenter al 15 CMD/s, maar dat is dan voor 271VMs op 4 hosts met VSAN, DVS, etc.Cookiezzz schreef op vrijdag 8 december 2017 @ 11:15:
[...]
Die CMD/s was idle ja.. Alles stond wel aan, maar was geen speciale zaken aan het doen.
Asl ik nu kijk is het +- 10 idle met piekjes naar 19CMD/s
[ Voor 255% gewijzigd door |sWORDs| op 08-12-2017 12:28 ]
Te Koop:24 Core Intel Upgradeset
Met ESXi virtualiseren wij hier thuis vooral streaming media. Mijn vader ontvangt graag erherpiraten en zet dat weer door via zijn tuners naar de VM’s die ik voor ‘m gemaakt heb. Pap is nog van Windows XP, Aureal en Creative. Heb een tweedehands Delta op de kop getikt. Kan ‘ie tenminste Windows 7 gebruiken. Ik vind Windows 10 iets te zwaar.
Een ander punt was de videokaart. Mijn doel is om met vMix webcambeelden van verschillende plekken op de wereld uit te zenden. Dit onder de noemer ‘WorldView’ (waar ik later met mijn bedrijf wat marketing voor wil doen). ESXi en GPU passthrough gaat lastig. Ik maakte de fout een GeForce consumentenkaart te kopen. Deze hebben we vervangen met een Quadro K2200. Werkt prima. vMix heeft als eis dat er iets op de kaart moet zijn aangesloten. Dus hebben we een DSUB-dongle gemaakt.
Alleen nog even kijken hoe het beeld bestuurd moet worden. De manier waarop je multiple monitors bedient in vSphere web client is natuurlijk helemaal ruk. Cursor en muispositie zijn niet gelijk aan elkaar. Suggesties zijn welkom. Ik zelf dacht aan VNC op monitor 2.
Voorts nog een XPenology (OVA van @|sWORDs| gebruikt).
Al met al 1300 euro verder. Maar dan kunnen we wel allemaal weer vooruit in dit gezin. Pap en broer doen de hardware (geluidskabels etc) en ik doe de software. Perfect team.
Thanks voor de info en hulp.|sWORDs| schreef op vrijdag 8 december 2017 @ 11:19:
[...]
Start eens een los topic, ik ben een beetje bang dat er iets met je Z10 bord mis is.
[...]
[...]
Ja dat zou heel goed kunnen. Een [URL="https://tweakers.net/pricewatch/440419/intel-750-ssd-half-height-*snip*
Ik heb momenteel alles van de SSD gehaald en op SAN gezet. Ga zo meteen is in mijn PC met Samsung Magician kijken of die iets zegt. Als alles nu wel stabiel draait ga ik gewoon een Intel 750 400GB kopen en die gebruiken.
Moest het nog niet stabiel zijn zal ik even een nieuwe topic maken, want dan ligt de issue dieper vrees ik.
Kan die een volledige systemcenter/Exchange/sql aan? Dit is enkel als LAB?
Ik heb al een zelf samen gesteld sys-5028d maar wou nog ene erbij zetten.
Het model dat ik op het oog heb zijn de volgende:
https://www.supermicro.co...r/5029/SYS-5029A-2TN4.cfm
Of
https://www.supermicro.co.../Mini-ITX/SYS-E300-9A.cfm
https://www.servethehome....er-16-core-atom-platform/
staan wel wat benches van de nieuwe Atom vs Xeon-D.
Even niets...
Ik heb hier een oude pc met een Asus P6X58D-E moederbord. Wat ik zover kan vinden zou deze ondersteund zijn. Nu kreeg ik als eerst al de melding dat er geen network controller gevonden kon worden. Ik heb dus een custom iso gemaakt met powershell:
ESXi-Customizer-PS-v2.5.1.ps1 -vft -load net-sky2,net-sky2-1
Toen kon ik verder met installatie tot ik storage moet aangeven waar te installeren. Daar krijg ik dus totaal geen disks gevonden. Ik heb op dit moment 2 SSD's. Heb ze in verschillende poorten gehad, via de Intel ICH10R poorten en ook via de marvell 9128. Zonder RAID en met. Maar krijg nog steeds geen disks te zien. Via powershell custom iso gemaakt: ESXi-Customizer-PS-v2.5.1.ps1 -vft -load net-sky2,net-sky2-1,sata-xahci
maar kan nog steeds niet verder..
Wordt RAID wel ondersteund, want daar lees ik verschillende verhalen over. Iemand dezelfde ervaringen?
Nu wil ik graag de Samsung 960 EVO nvme gebruiken voor de datastore, maar deze krijg ik niet zichtbaar in BIOS of ESXi.
Moet ik daar nog iets speciaal voor doen of is die nvme stuk?
Edit: nadat ik ook een sata ssd had toegevoegd, werd de nvme pas zichtbaar. Intel gevraagd of dit een bug is.
[ Voor 17% gewijzigd door loyske op 04-01-2018 13:54 ]
Momenteel heb ik 3 nodes met allemaal 2x 800GB SSD (1600GB).
Daar wil ik nog 2 nodes bijplaatsen maar met 1x 1.92TB (1920GB) SSD per node.
Je kunt geen VSAN draaien met een enkele disk, ik denk dat je het hier alleen over de capacity tier hebt?webgangster schreef op zaterdag 30 december 2017 @ 17:39:
Weet iemand wat er gebeurt (nadelen) als je storage (VSAN) niet op elke node precies dezelfde hoeveelheid heeft?
Momenteel heb ik 3 nodes met allemaal 2x 800GB SSD (1600GB).
Daar wil ik nog 2 nodes bijplaatsen maar met 1x 1.92TB (1920GB) SSD per node.
Voor VSAN maakt disk grootte niet uit. Je kunt de volledige 1.92TB gebruiken.
Te Koop:24 Core Intel Upgradeset
Ik heb het hier inderdaad alleen over de capacity tier.|sWORDs| schreef op zaterdag 30 december 2017 @ 19:06:
[...]
Je kunt geen VSAN draaien met een enkele disk, ik denk dat je het hier alleen over de capacity tier hebt?
Voor VSAN maakt disk grootte niet uit. Je kunt de volledige 1.92TB gebruiken.
Maar het feit dat je 'unbalanced' bent (voor 300GB per node) kan dus alleen issue's geven als je volledig 'vol' bent en je op een moment komt dat er gerebuild moet worden omdat een node niet meer opkomt na 60 min?
Eigenlijk moet je gewoon rekenen dat de FTT overhead met 300GB (mits vol) omhoog gaat. Als een ‘grote’ node plat gaat dan moeten de blocks op de kleine units passen.webgangster schreef op zaterdag 30 december 2017 @ 19:38:
[...]
Ik heb het hier inderdaad alleen over de capacity tier.
Maar het feit dat je 'unbalanced' bent (voor 300GB per node) kan dus alleen issue's geven als je volledig 'vol' bent en je op een moment komt dat er gerebuild moet worden omdat een node niet meer opkomt na 60 min?
Te Koop:24 Core Intel Upgradeset
Hij geeft een foutmedling: unable to import ssl cert.
Ik heb via het generate FQDN signing request een crt gemaakt en die laten valideren.
Als ik nu het crt wil importeren geeft esxi die foutmelding.
Ik zag een video dat je de crtm service op custom moet zetten?
Die optie heb ik helemaal niet in mijn ESXi.
Plaats je deze bij voor capaciteit in cluster of voor capaciteit op VSAN? Je kunt de SSD's ook bij je andere hosts plaatsen en een 2de diskgroup aanmaken.webgangster schreef op zaterdag 30 december 2017 @ 19:38:
[...]
Ik heb het hier inderdaad alleen over de capacity tier.
Maar het feit dat je 'unbalanced' bent (voor 300GB per node) kan dus alleen issue's geven als je volledig 'vol' bent en je op een moment komt dat er gerebuild moet worden omdat een node niet meer opkomt na 60 min?
[ Voor 0% gewijzigd door Froos op 16-01-2018 22:35 . Reden: tikfout ]
Ik plaatst ze bij omdat ik graag HA wil zijn, geheugen loopt snel vol.Froos schreef op dinsdag 16 januari 2018 @ 22:32:
[...]
Plaats je deze bij voor capaciteit in cluster of voor capaciteit op VSAN? Je kunt de SSD's ook bij je andere hosts plaatsen en een 2de diskgroup aanmaken.
Gebruik je een VC? Zo nee:emiliospam schreef op woensdag 3 januari 2018 @ 14:56:
Ik heb wat hulp nodig met het importeren van een certificaat in mijn ESXi.
Hij geeft een foutmedling: unable to import ssl cert.
Ik heb via het generate FQDN signing request een crt gemaakt en die laten valideren.
Als ik nu het crt wil importeren geeft esxi die foutmelding.
Ik zag een video dat je de crtm service op custom moet zetten?
Die optie heb ik helemaal niet in mijn ESXi.
https://kb.vmware.com/kb/2113926 vanaf "Installing and configuring the certificate on the ESXi host", werkt ook prima op 6.5.
Indien ja, HA/DRS uitschakelen, eerst een cert op de VC en dan die stappen op elke host, daarna kunnen HA/DRS weer aan. Mocht je VSAN gebruiken, niet de management services herstarten, maar de host herstarten.
Gebruik je een wildcard cert dan moet je beginnen met een oudere 6.5 VC en die upgraden.
[ Voor 28% gewijzigd door |sWORDs| op 17-01-2018 12:28 ]
Te Koop:24 Core Intel Upgradeset
Ik heb momenteel een zelfbouw ESXi server (i5-3550, 32GB RAM, 256GB SSD, 4x2TB HDD, 1x500GB HDD), maar zou eigenlijk graag de mogelijkheid hebben tot meer geheugen. Aangezien ik nu op het maximum zit, zit ik zodoende met een schuin oog naar een nieuwe server te kijken
De volgende zaken wil ik onder andere graag kunnen doen met de server (naast wat experimenteer VM's):
- Firewall (pfSense)
- Domein Controller / Print Server / DFS Server(Server 2016)
- NAS (XPenology)
- Ubuntu web/mail/sql server (ISPConfig)
- Ubuntu Download/Stream server (SABnzbd, Transmission, Sonarr, Couchpotato, PLEX, enz)
- WDS Server (Server 2016)
- Exchange (Server 2016)
- Terminal Server (Server 2016)
- Indien mogelijk virtueel werkstation (Windows 10)
CPU Verbruik doet de huidige server ook met 3 vingers in de neus (tenzij Plex aan het werk moet...

Kwa specs voor hardware zit ik te denken aan de volgende zaken:
- SSD opslag voor VM's (weet nog niet wat voor soort SSD, heb nu een 256GB Samsung 840, maar dit is te weinig opslag voor VM's)
- Minimaal 64GB EEC RAM
- Xeon processor (want: veel PCI-e lanes, tenzij Intel core "X" dit ook goed ondersteund)
- Mogelijkheid tot passthrough van 2 videokaart, 1 voor Plex en 1 voor virtueel werkstation (ik weet dat dit gedeelte "tricky" is)
Weten jullie wat voor setup en componenten wijsheid is?
Zit mijzelf nog puur te oriënteren of ik wel of niet een nieuwe (zelfbouw) server ga kopen / bouwen namelijk

Even niets...
Wil de server, indien mogelijk, graag gebruiken als "normale computer", met name taken als mediacenter / gaming wil ik er onder andere graag op doen.FireDrunk schreef op zondag 21 januari 2018 @ 13:32:
Waarom wil je GPU Passthrough voor je virtuele workstation?
Dit met de reden dat hij toch al naast mijn TV kast staat en ik zodoende niet een extra device nodig heb.
Er zijn vele wegen die naar rome leiden. Echter met de eisen voor veel lanes en ECC zit je vrijwel automatisch aan een Xeon Scalable of AMD EPYC, waarbij de laatste best een gokje is (vrij onbewezen met ESXi, maar de 7351P en 7401P lijken wel super CPUs voor de prijs). Warmte, energie rekening en herrie zijn wel iets om rekening mee te houden, zeker naast een TV.Chrisiesmit93 schreef op zondag 21 januari 2018 @ 13:12:
Graag vraag ik jullie hulp voor het volgende:
Ik heb momenteel een zelfbouw ESXi server (i5-3550, 32GB RAM, 256GB SSD, 4x2TB HDD, 1x500GB HDD), maar zou eigenlijk graag de mogelijkheid hebben tot meer geheugen. Aangezien ik nu op het maximum zit, zit ik zodoende met een schuin oog naar een nieuwe server te kijken.
De volgende zaken wil ik onder andere graag kunnen doen met de server (naast wat experimenteer VM's):Op het moment draai ik alleen de laatste 3 opties / VM's nog niet, de rest draait redelijk probleemloos
- Firewall (pfSense)
- Domein Controller / Print Server / DFS Server(Server 2016)
- NAS (XPenology)
- Ubuntu web/mail/sql server (ISPConfig)
- Ubuntu Download/Stream server (SABnzbd, Transmission, Sonarr, Couchpotato, PLEX, enz)
- WDS Server (Server 2016)
- Exchange (Server 2016)
- Terminal Server (Server 2016)
- Indien mogelijk virtueel werkstation (Windows 10)
CPU Verbruik doet de huidige server ook met 3 vingers in de neus (tenzij Plex aan het werk moet...)
Kwa specs voor hardware zit ik te denken aan de volgende zaken:Verdere eisen zijn eigenlijk zelfde als mijn huidige server, doordat deze in mijn kamer staat moet ie redelijk stil zijn en zuinig is ook mooi meegenomen (zit nu op 80 Watt gemiddeld met huidige setup).
- SSD opslag voor VM's (weet nog niet wat voor soort SSD, heb nu een 256GB Samsung 840, maar dit is te weinig opslag voor VM's)
- Minimaal 64GB EEC RAM
- Xeon processor (want: veel PCI-e lanes, tenzij Intel core "X" dit ook goed ondersteund)
- Mogelijkheid tot passthrough van 2 videokaart, 1 voor Plex en 1 voor virtueel werkstation (ik weet dat dit gedeelte "tricky" is)
Weten jullie wat voor setup en componenten wijsheid is?
Zit mijzelf nog puur te oriënteren of ik wel of niet een nieuwe (zelfbouw) server ga kopen / bouwen namelijk.
Met Plex op Linux is het misschien logischer om voor een CPU met Intel IGP te gaan, maar dan heb je geen ECC (i7 8700?), of betaal je een flinke premium voor een oudere generatie (Xeon E3 v6), zonder HEVC 10-bit decoding support.
Ik zie niet waarom je veel lanes nodig zou hebben. 4-8 lanes zijn zat voor de meeste videokaarten, zelfs een 1080 Ti verliest nauwelijks op PCIe 3.0 x8.
Over videokaarten:
Je hebt een derde videokaart nodig voor de console (mag ook IPMI/iLo graphics zijn).
AMD kaarten zijn makkelijk door te geven (maar geen support in Plex).
Intel IGP is makkelijk door te geven.
De niet low end nVidia Quadro/Tesla kaarten zijn makkelijk door te geven (geen HW decoding met Plex).
Geforce/Low end Quadro/Titan kaarten zijn lastiger door te geven, het kan wel met wat trucjes, maar VM reboots vereisen vaak een host reboot (en geen HW decoding met Plex).
In het algemeen zou ik mediacenter/'workstation thuis' niet virtueel doen. Als je iets als een nVidia Shield met Kodi gebruikt en alleen op TV kijkt kun je Plex ook nog eens droppen. Lijkt me een zuinigere, stillere, beter werkende en goedkopere optie. Ook zou je games kunnen spelen via GameStream vanaf een desktop met Geforce (werkt niet met een Quadro/Tesla) ergens anders in huis of Geforce NOW vanuit de cloud. Voor de 'workstation' zou ik het pas overwegen als je er sowieso een Quadro voor zou gebruiken. Hier is dat net iets anders omdat ik Grid K2, Tesla M60, Tesla P40 en FirePro S7150 MxGPU kaarten heb die je met meerdere virtuele machines kunt delen.
Storage:
Als het je om snelheid gaat dan is een Intel 750 of 900p aan te bevelen. Gaat het om capaciteit met goede performance dan zou ik eens naar de Crucial MX500 serie kijken.
[ Voor 10% gewijzigd door |sWORDs| op 21-01-2018 15:28 ]
Te Koop:24 Core Intel Upgradeset
Bedankt voor bovenstaande zeer nuttige info!|sWORDs| schreef op zondag 21 januari 2018 @ 14:59:
[...]
Er zijn vele wegen die naar rome leiden. Echter met de eisen voor veel lanes en ECC zit je vrijwel automatisch aan een Xeon Scalable of AMD EPYC, waarbij de laatste best een gokje is (vrij onbewezen met ESXi, maar de 7351P en 7401P lijken wel super CPUs voor de prijs). Warmte, energie rekening en herrie zijn wel iets om rekening mee te houden, zeker naast een TV.
Met Plex op Linux is het misschien logischer om voor een CPU met Intel IGP te gaan, maar dan heb je geen ECC (i7 8700?), of betaal je een flinke premium voor een oudere generatie (Xeon E3 v6).
Ik zie niet waarom je veel lanes nodig zou hebben. 4-8 lanes zijn zat voor de meeste videokaarten.
Over videokaarten:
Je hebt een derde videokaart nodig voor de console (mag ook IPMI/iLo graphics zijn).
AMD kaarten zijn makkelijk door te geven (maar geen support in Plex).
Intel IGP is makkelijk door te geven.
De niet low end nVidia Quadro kaarten zijn makkelijk door te geven.
Geforce/Low end Quadro/Titan kaarten zijn lastiger door te geven, het kan wel met wat trucjes, maar VM reboots vereisen vaak een host reboot.
Storage:
Als het je om snelheid gaat dan is een Intel 750 of 900p aan te bevelen. Gaat het om capaciteit met goede performance dan zou ik eens naar de Crucial MX500 serie kijken.
Ik heb ergens gelezen (edit: hier dus) dat Intel IGP's door te geven zijn aan een VM, maar geld dat voor elke (nieuwe CPU)? Gaat in mijn geval eigenlijk vooral om Intel QuickSync wat ik wil gebruiken voor Plex / transcoding software.
Nog een vraagje met betrekking tot de CPU en moederbord:
Graag zou ik ook (in de toekomst) gebruik willen maken van 2x 10Gbit (SFP+) adapter (was ik vergeten te vermelden).
Ik zie dat als ik het volle potentieel van 2x 10Gbit wil gebruiken, ik een x8 slot nodig ben hiervoor (onboard zal ook wel zoiets zijn gok ik zo).
Hiernaast komt er zeer waarschijnlijk nog 1 AMD videokaart bij voor het "GPU project / virtueel workstation" (ben ik echter nog niet zeker van, in verband met mogelijke stabiliteitsproblemen van die desbetreffende VM...

Bovenstaande combi is meer dan x16 lanes, gaat dit problemen opleveren, of kijk ik er nu verkeerd tegen aan, anders is een i5 of een i7 ook nog wel een optie inderdaad (alhoewel ECC wel mooi meegenomen is aangezien ik misschien ook met ZFS ga spelen).
Alles vanaf Haswell zou moeten lukken, zolang de CPU graphics heeft, de chipset graphics support en de console niet op de IGP draait, maar vanaf Skylake heb je ook HEVC 8-bit decoding en 10-bit vanaf Kaby Lake.Chrisiesmit93 schreef op zondag 21 januari 2018 @ 15:28:
[...]
Bedankt voor bovenstaande zeer nuttige info!
Ik heb ergens gelezen dat Intel IGP's door te geven zijn aan een VM, maar geld dat voor elke (nieuwe CPU)? Gaat in mijn geval eigenlijk vooral om Intel QuickSync wat ik wil gebruiken voor Plex / transcoding software.
|sWORDs| in "Zuinige ESXi Server"
PCIe 2.0 = 500MB/s per lane, PCIe 3.0 = 985MB/s per lane, 10Gbit = 1280MB/s.Chrisiesmit93 schreef op zondag 21 januari 2018 @ 15:28:
[...]
Nog een vraagje met betrekking tot de CPU en moederbord:
Graag zou ik ook (in de toekomst) gebruik willen maken van 2x 10Gbit (SFP+) adapter (was ik vergeten te vermelden).
Ik zie dat als ik het volle potentieel van 2x 10Gbit wil gebruiken, ik een x8 slot nodig ben hiervoor (onboard zal ook wel zoiets zijn gok ik zo).
Hiernaast komt er zeer waarschijnlijk nog 1 AMD videokaart bij voor het "GPU project / virtueel workstation" (ben ik echter nog niet zeker van, in verband met mogelijke stabiliteitsproblemen van die desbetreffende VM...
Bovenstaande combi is meer dan x16 lanes, gaat dit problemen opleveren, of kijk ik er nu verkeerd tegen aan, anders is een i5 of een i7 ook nog wel een optie inderdaad (alhoewel ECC wel mooi meegenomen is aangezien ik misschien ook met ZFS ga spelen).
De dual 10Gbit kaarten zijn meestal PCIe 2.0 x8 (Intel X540) of PCIe 3.0 x4 (Intel X550). Vooral die laatste kun je prima sharen met de DMI lanes naar de chipset. Sommige oudere borden hebben ook een PCIe 2.0 x8 vanaf de chipset, hierbij mis je dan wel wat bandbreedte (Door de DMI x4 2.0), maar in de praktijk merk je daar niets van.
De meesten halen sowieso maar zo'n 7.8 Gbit per 10Gbit NIC. En twee keer 10Gbit thuis vullen is best knap, mij lukt het hier met een gigantisch lab onder normale omstandigheden niet. (Waar mee ik dus niet zeg dat 10Gbit thuis niet nuttig is, maar de volle 20 heb je waarschijnlijk niet nodig.)
Waar je wel nog even naar moet kijken is NVMe of SAS/SATA controllers. Meestal wil je voor een virtuele NAS passthrough gebruiken en dan kun je dezelfde controller niet voor boot/datastore gebruiken. Vanaf hier zie je een tiental posts daarover met XPenology:
|sWORDs| in "Het Grote XPenology Topic"
[ Voor 23% gewijzigd door |sWORDs| op 21-01-2018 16:11 ]
Te Koop:24 Core Intel Upgradeset
Nogmaals bedankt voor de info, wordt zeer gewaardeerd!|sWORDs| schreef op zondag 21 januari 2018 @ 15:33:
[...]
Alles vanaf Haswell zou moeten lukken, maar vanaf Skylake HEVC 8-bit decoding en 10-bit vanaf Kaby Lake.
|sWORDs| in "Zuinige ESXi Server"
[...]
PCIe 2.0 = 500MB/s per lane, PCIe 3.0 = 985MB/s per lane, 10Gbit = 1280MB/s.
De dual 10Gbit kaarten zijn meestal PCIe 2.0 x8 (Intel X540) of PCIe 3.0 x4 (Intel X550). Vooral die laatste kun je prima sharen met de DMI lanes naar de chipset. Sommige oudere borden hebben ook een PCIe 2.0 x8 vanaf de chipset, hierbij mis je dan wel wat bandbreedte (Door de DMI x4 2.0), maar in de praktijk merk je daar niets van.
De meesten halen sowieso maar zo'n 7.8 Gbit per 10Gbit NIC. En twee keer 10Gbit thuis vullen is best knap, mij lukt het hier met een gigantisch lab onder normale omstandigheden niet. (Waar mee ik dus niet zeg dat 10Gbit thuis niet nuttig is, maar de volle 20 heb je waarschijnlijk niet nodig.)
Waar je wel nog even naar moet kijken is NVMe of SAS/SATA controllers. Meestal wil je voor een virtuele NAS passthrough gebruiken en dan kun je dezelfde controller niet voor boot/datastore gebruiken. Vanaf hier zie je een tiental posts daarover met XPenology:
|sWORDs| in "Het Grote XPenology Topic"
Ik had jouw post van de doorgegeven P530 gezien inderdaad, maar gaat dit op voor alle Intel IGP's of alleen specifieke varianten denk je?
(anders zou ik misschien voor een Kaby Lake willen gaan met de UHD graphics
10Gbit zal ik bij lange na ook niet gaan voltrekken (laat staan 20Gbit
(Misschien dat ik ooit nog ga spelen met iSCSI en SSD storage, misschien dat het dan wel gaat lukken
Ik heb nu een M1015 voor de 4x2 TB's die aan XPenology hangen, die kan ik gewoon meenemen.
Eventueel kan ik ook goed kijken of een moederbord meerdere controllers aan bord heeft zodat ik die kan doorschuiven richting XPenology .
Nog een vraagje met betrekking tot (Xeon) CPU's:
op Ebay zie ik goedkope pull cpu's van servers staan, is zoiets ook betrouwbaar (voor een thuis hobby omgeving), of moet ik hier ver van weg blijven?

(Ik snap dat er altijd wel risico's aan hangen omdat je niets kan controleren en ook met verzending zit).
Het zal met alle varianten wel gaan verwacht ik.Chrisiesmit93 schreef op zondag 21 januari 2018 @ 16:11:
[...]
Nogmaals bedankt voor de info, wordt zeer gewaardeerd!
Ik had jouw post van de doorgegeven P530 gezien inderdaad, maar gaat dit op voor alle Intel IGP's of alleen specifieke varianten denk je?
(anders zou ik misschien voor een Kaby Lake willen gaan met de UHD graphics)
Qua throughput misschien, maar je latency gaat dusdanig omhoog dat thuis local storage (+backup) vaak logischer is, zeker met een enkele host. Welke switches heb je eigenlijk?Chrisiesmit93 schreef op zondag 21 januari 2018 @ 16:11:
[...]
10Gbit zal ik bij lange na ook niet gaan voltrekken (laat staan 20Gbit), maar heb de switches er al wel voor, vandaar dat ik gelijk de mogelijkheid wil dat het ook allemaal kan met een eventuele nieuwe server
.
(Misschien dat ik ooit nog ga spelen met iSCSI en SSD storage, misschien dat het dan wel gaat lukken)
NVMe (zeker degene met datacenter controllers zoals 750 en 900p, maar ook 960Pro) is ook een zeer goede optie (hogere queue depth, lagere latency, hogere throughput, meer en consistentere IOPS), als je dat als datastore en boot gebruikt kun je de Intel controller gewoon doorgeven en heb je ook geen gezeur meer met LSI firmware en drivers. Mijn LSI ligt al tijden op de plank.Chrisiesmit93 schreef op zondag 21 januari 2018 @ 16:11:
[...]
Ik heb nu een M1015 voor de 4x2 TB's die aan XPenology hangen, die kan ik gewoon meenemen.
Eventueel kan ik ook goed kijken of een moederbord meerdere controllers aan bord heeft zodat ik die kan doorschuiven richting XPenology .
Er staan meerdere soorten CPU's op Ebay: Retail, QS en ES.Chrisiesmit93 schreef op zondag 21 januari 2018 @ 16:11:
[...]
Nog een vraagje met betrekking tot (Xeon) CPU's:
op Ebay zie ik goedkope pull cpu's van servers staan, is zoiets ook betrouwbaar (voor een thuis hobby omgeving), of moet ik hier ver van weg blijven?
(Ik snap dat er altijd wel risico's aan hangen omdat je niets kan controleren en ook met verzending zit).
ES zou ik momenteel weg blijven, deze krijgen niet de microcode update voor Spectre en werken alleen in borden die de microcode in de BIOS stoppen (Intel, Asrock, SuperMicro, Asus en Gigabyte). QS geen idee, als deze retail microcode gebruiken zit je goed, maar als het niet retail is dan vrijwel zeker niet.
De risico's van Ebay i.c.m. PayPal zijn zeer gering, je bent in de meeste gevallen alleen tijdelijk je geld kwijt. En als je een verkoper met een hoge rating pakt zit je vrijwel altijd goed. Je kunt ook nog een drie dubbele zekerheid inbouwen Ebay->PayPal->Creditcard.
Een ander probleem is dat je vrijwel alleen goedkope Haswell en Broadwell CPU's ziet, maar deze hebben een flinke impact met Spectre.
[ Voor 23% gewijzigd door |sWORDs| op 21-01-2018 16:55 ]
Te Koop:24 Core Intel Upgradeset
Zo heb ik het al jaren en is inderdaad een aanrader|sWORDs| schreef op zondag 21 januari 2018 @ 16:17:
Je kunt ook nog een drie dubbele zekerheid inbouwen Ebay->PayPal->Creditcard.
Heb je daar ergens benchmarks van gezien ?Een ander probleem is dat je vrijwel alleen goedkope Haswell en Broadwell CPU's ziet, maar deze hebben een flinke impact met Spectre.
En hoe zit het me de patches aan de VMWare kant als je de gratis ESXi versie draait ?
Onlangs een reinstall gedaan en het was al een uitdaging om de ISO te downloaden in tegenstelling tot vroeger : Wil VMWare stiekem van de gratis versie af

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ik heb zelf wat getest wat niet zo ver van Microsoft af zit:nero355 schreef op zondag 21 januari 2018 @ 18:44:
[...]
Zo heb ik het al jaren en is inderdaad een aanrader
[...]
Heb je daar ergens benchmarks van gezien ?
En hoe zit het me de patches aan de VMWare kant als je de gratis ESXi versie draait ?
Onlangs een reinstall gedaan en het was al een uitdaging om de ISO te downloaden in tegenstelling tot vroeger : Wil VMWare stiekem van de gratis versie af![]()
With Windows 10 on newer silicon (2016-era PCs with Skylake, Kabylake or newer CPU), benchmarks show single-digit slowdowns, but we don’t expect most users to notice a change because these percentages are reflected in milliseconds.
With Windows 10 on older silicon (2015-era PCs with Haswell or older CPU), some benchmarks show more significant slowdowns, and we expect that some users will notice a decrease in system performance.
Met significanter dan single digit ben ik het eens.
Voor zover ik weet zijn er in de verste verte geen plannen om de free versie te stoppen.
De patches zijn er al een paar weken, ook voor free.
Te Koop:24 Core Intel Upgradeset
Totdat Intel daadwerkelijk een werkende microcode update uitbrengt is er nog niet echt wat van te zeggen. In het veld hoor ik alles tussen "onmerkbaar" en 40%.|sWORDs| schreef op zondag 21 januari 2018 @ 19:52:
With Windows 10 on newer silicon (2016-era PCs with Skylake, Kabylake or newer CPU), benchmarks show single-digit slowdowns, but we don’t expect most users to notice a change because these percentages are reflected in milliseconds.
With Windows 10 on older silicon (2015-era PCs with Haswell or older CPU), some benchmarks show more significant slowdowns, and we expect that some users will notice a decrease in system performance.
Met significanter dan single digit ben ik het eens.
Er staat nog wat in de wachtkamer totdat de laatste fix van Intel wordt uitgebracht. Pas dan weten we wat de totale impact gaat worden. Er is nogal wat ophef in de markt over de kwaliteit van de door Intel afgeleverde patches.De patches zijn er al een paar weken, ook voor free.
Wat stabiliteits issues, maar qua performance weinig verandering. De huidige microcodes moeten dus zeker de performance impact laten zien.Froos schreef op maandag 22 januari 2018 @ 16:54:
[...]
Totdat Intel daadwerkelijk een werkende microcode update uitbrengt is er nog niet echt wat van te zeggen. In het veld hoor ik alles tussen "onmerkbaar" en 40%.
[...]
Er staat nog wat in de wachtkamer totdat de laatste fix van Intel wordt uitgebracht. Pas dan weten we wat de totale impact gaat worden. Er is nogal wat ophef in de markt over de kwaliteit van de door Intel afgeleverde patches.
Over een paar weken/maanden is er misschien een verbetering, maar met Haswell/Broadwell zou ik er niet op rekenen.
[ Voor 8% gewijzigd door |sWORDs| op 22-01-2018 19:40 ]
Te Koop:24 Core Intel Upgradeset
Ik ben benieuwd of alle Intel IGP's werken, persoonlijk een beetje hard hoofd in haha|sWORDs| schreef op zondag 21 januari 2018 @ 16:17:
[...]
Het zal met alle varianten wel gaan verwacht ik.
[...]
Qua throughput misschien, maar je latency gaat dusdanig omhoog dat thuis local storage (+backup) vaak logischer is, zeker met een enkele host. Welke switches heb je eigenlijk?
[...]
NVMe (zeker degene met datacenter controllers zoals 750 en 900p, maar ook 960Pro) is ook een zeer goede optie (hogere queue depth, lagere latency, hogere throughput, meer en consistentere IOPS), als je dat als datastore en boot gebruikt kun je de Intel controller gewoon doorgeven en heb je ook geen gezeur meer met LSI firmware en drivers. Mijn LSI ligt al tijden op de plank.
[...]
Er staan meerdere soorten CPU's op Ebay: Retail, QS en ES.
ES zou ik momenteel weg blijven, deze krijgen niet de microcode update voor Spectre en werken alleen in borden die de microcode in de BIOS stoppen (Intel, Asrock, SuperMicro, Asus en Gigabyte). QS geen idee, als deze retail microcode gebruiken zit je goed, maar als het niet retail is dan vrijwel zeker niet.
De risico's van Ebay i.c.m. PayPal zijn zeer gering, je bent in de meeste gevallen alleen tijdelijk je geld kwijt. En als je een verkoper met een hoge rating pakt zit je vrijwel altijd goed. Je kunt ook nog een drie dubbele zekerheid inbouwen Ebay->PayPal->Creditcard.
Een ander probleem is dat je vrijwel alleen goedkope Haswell en Broadwell CPU's ziet, maar deze hebben een flinke impact met Spectre.
Qua externe iSCSI/NFS storage heb je wel een punt inderdaad, extra "vertaalslag + apparaten" wat benodigd is, misschien niet de beste oplossing.
Wel leuk om mee te experimeteren als "alternatieve storage" (wel dure hobby...

Voor een 10Gbit netwerk bezit ik op het moment 2x de Dell N2024P met elk 2 SFP+ aansluitingen & (40Gbit) stacking mogelijkheid + kabels hiervoor. Deze combi zit op dit moment helaas nog in de doos wegens geluidsproductie en iets met een studentenkamer (herrie
Op het gebied van storage heb je ook een paar mooie suggesties, op het moment heb ik snelheid echter *nog* niet zo zeer niet nodig, maar misschien veranderd dit in de toekomst wanneer ik wat meer wil gaan experimenteren
Met het puntje van de recente patches voor CPU's heb je wel een goed punt inderdaad, nog niet bedacht dat Engineering Samples niet geüpdatet worden
In ieder geval bedankt voor de informatie, ik ga de komende dagen/weken eens bedenken of ik ga upgraden en zo ja naar wat voor hardware
Het neigt ernaar dat Intel ons een mooi ei heeft gelegd. Wel eentje waar 25 jaar op is gebroed. Het is vooral lullig voor mensen/bedrijven die NET een nieuwe infra hebben gekocht en nu aankijken tegen een nog onbekende performance impact.|sWORDs| schreef op maandag 22 januari 2018 @ 19:37:
Over een paar weken/maanden is er misschien een verbetering, maar met Haswell/Broadwell zou ik er niet op rekenen.
Wat ik hoor, maar de berichten zijn nog erg wisselend, is dat vooral SBC en Citrix omgevingen een gemene performence-reductie laten zien.
SBC en VDI iets minder dan SDDC voor zo ver ik zie en zijn nu gratis tot eind maart op impact te testen met LoginVSI.Froos schreef op maandag 22 januari 2018 @ 19:52:
[...]
Het neigt ernaar dat Intel ons een mooi ei heeft gelegd. Wel eentje waar 25 jaar op is gebroed. Het is vooral lullig voor mensen/bedrijven die NET een nieuwe infra hebben gekocht en nu aankijken tegen een nog onbekende performance impact.
Wat ik hoor, maar de berichten zijn nog erg wisselend, is dat vooral SBC en Citrix omgevingen een gemene performence-reductie laten zien.
Te Koop:24 Core Intel Upgradeset
Verwijderd
Nu nog alleen Meltdown, waarschijnlijk wachten ze op de nieuwe microcode voor Spectre. RDSH (grotere impact) resultaten volgen ook later.Verwijderd schreef op vrijdag 26 januari 2018 @ 11:11:
Overigens is men bij LoginVSI ook bezig met het testen van performance impact: respectievelijk windows 7 en windows 10. De resultaten van deze testen zijn te vinden op de volgende pagina: https://www.loginvsi.com/blog-alias/login-vsi
RDSH (wel even opletten dat het erg oude CPU's op oudere OS-en met synthetische browser tests zijn):
https://www.lakesidesoftw...-server-—-and-association
[ Voor 18% gewijzigd door |sWORDs| op 26-01-2018 11:21 ]
Te Koop:24 Core Intel Upgradeset
Is er een andere manier om aan de custom CIM provider te komen zodat ik temperaturen en smart waardes kan uitlezen?
Whatever.
Helpt dit niet?Harmen schreef op vrijdag 26 januari 2018 @ 11:36:
Sinds een week aan het experimenteren met ESX 6.5 op een 'oude' Intel desktop board icm i5, 8GB geheugen. Helaas ben ik er achter gekomen dat de hardware niet 'out of the box' uit te lezen is.
Is er een andere manier om aan de custom CIM provider te komen zodat ik temperaturen en smart waardes kan uitlezen?
Zet alle VM's uit.
1
2
3
4
5
| esxcli system maintenanceMode set --enable true esxcli system wbem set --ws-man false esxcli system wbem set --enable true reboot esxcli system maintenanceMode set --enable false |
En welke build draai je?
[ Voor 10% gewijzigd door |sWORDs| op 26-01-2018 12:37 ]
Te Koop:24 Core Intel Upgradeset
Nee, op de een of andere rare manier zijn de VMUGs altijd tegelijk met de trainingen voor VMware Sales of PSO die wij geven. Ik vlieg in maart al naar Toronto, Parijs, Londen en mogelijk nog Macau.Froos schreef op vrijdag 26 januari 2018 @ 16:06:
Vraagje: zijn er hier mensen die naar de NL VMUG Usercon bijeenkomst gaan op 20 maart?
VMworld US en EU ben ik waarschijnlijk wel weer.
Te Koop:24 Core Intel Upgradeset
Het is eigenlijk een community evenement waar een hoop mensen veel tijd in stoppen om een leuke afwisselende gebeurtenis van te maken. Zo is er dit jaar een hackathon, een VCDX workshop en een middag met VMware R&D.|sWORDs| schreef op vrijdag 26 januari 2018 @ 16:33:
Nee, op de een of andere rare manier zijn de VMUGs altijd tegelijk met de trainingen voor VMware Sales of PSO die wij geven. Ik vlieg in maart al naar Toronto, Parijs, Londen en mogelijk nog Macau.
Privilege van tech marketing, denk ikVMworld US en EU ben ik waarschijnlijk wel weer.
Ook wij moeten twee accepteerde sessies hebben. Vorig jaar ben ik wel in Barcelona, maar niet in Vegas geweest, jaar daarvoor beide.
Te Koop:24 Core Intel Upgradeset
Neen, ik ga naar Nutanix dit jaar (toch bootcamp). Helaas beide op dezelfde dag..Froos schreef op vrijdag 26 januari 2018 @ 16:06:
Vraagje: zijn er hier mensen die naar de NL VMUG Usercon bijeenkomst gaan op 20 maart?
Computer games don't affect kids; I mean if Pac-Man affected us as kids, we'd all be running around in darkened rooms, munching magic pills and listening to repetitive electronic music.
Thanks voor je antwoord, helaas geen verschil.|sWORDs| schreef op vrijdag 26 januari 2018 @ 12:24:
[...]
Helpt dit niet?
Zet alle VM's uit.
code:
1 2 3 4 5 esxcli system maintenanceMode set --enable true esxcli system wbem set --ws-man false esxcli system wbem set --enable true reboot esxcli system maintenanceMode set --enable false
En welke build draai je?
Krijg nog steeds de melding: 'This system has no IPMI capabilities, you may need to install a driver to enable sensor data to be retrieved. '
Draai 6.5.0 Update 1 (Build 7388607)
Whatever.
Geen idee dan.
Te Koop:24 Core Intel Upgradeset
Dankzij de gewaardeerde hulp van |sWORDs| en dit topic, staat er sinds dit weekend een ESXi server te zoemen op ESXi 6.5
Zeker niet goedkoop, maar ik wou iets degelijks en ook voor langere tijd.
# | Product | Prijs | Subtotaal |
1 | HGST Deskstar NAS (2017), 6TB | € 183,74 | € 183,74 |
1 | Sandisk Ultra Fit 32GB Zwart | € 13,90 | € 13,90 |
1 | Supermicro SYS-5028D-TN4T | € 1.345,- | € 1.345,- |
2 | Samsung M393A4K40BB1-CRC | € 321,50 | € 643,- |
Bekijk collectie Importeer producten | Totaal | € 2.185,64 |
Hoe kun je het meest eenvoudig remote een update doen van VMware ESXi standalone op een server Dell PE series server met custom Dell image.
Ik zie iets met VMware vSphere Update Manager, maar dat is vast niet voor de VMware ESXi standalone servers, toch!?
Dan wordt het esxcli of de 'Update' optie via de web-interface, maar dan loop ik vast op hoe ik te weten kan komen welke keuzes ik heb vanaf https://hostupdate.vmware.../main/vmw-depot-index.xml
Dit is toch even wat anders dan Hyper-V waar ik al jaren mee werk
Voordeel van VMware over Hyper-V is dat je niet elke week moet patchen en rebooten.
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
Ik zou inderdaad ook zeggen Laatste compatible Dell ISO downloaden, mounten in iDrac en gaan met de banaan.Ethirty schreef op maandag 29 januari 2018 @ 23:21:
Heeft je server een remote oplossing? Bij Dell heet het geloof ik Drac (ben zelf meer een HPE man). Anders is esxcli inderdaad een optie.
Voordeel van VMware over Hyper-V is dat je niet elke week moet patchen en rebooten.
Vind dat laatste niet echt een argument trouwens, als je kijkt naar VMware patch releases en MS haar patch schedule zit je wanneer je beide up-to-date houd op vrij regelmatige reboots. MS iets strikter dan VMware door patch tuesday, maar heel erg veel ontloopt het elkaar ook weer niet. Wel kom ik veel vaker in het wild VMware implementaties tegen die totaal niet up-to-date zijn itt tot MS Hyper-V opstellingen.
Maar ik denk wel dat de attacksurface voor VMware een stuk kleiner is dan die van Windows/Hyper-V.
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
/off-topic: Hyper-V server of Windows Server Core met Hyper-V role zijn anders vrijwel vergelijkbaar met VMware. Stuk minder updates en net zo beperkt benaderbaar als VMWare. Dan nog niet eens gesproken over NANO server.
Ik wist niet eens dat er nog servers zonder iDrac uitgeleverd werden, Basic/Express uiteraard wel. Misschien toch eens goed afstemmen met je sales bij komende projecten of nu aanbieden aan de klant als upgrade, zo duur is een upgrade naar Express / Enterprise ook weer niet en je wint er een flink stuk beheersbaarheid mee wat de klant op den duur ook weer kosten uitspaartrookie no. 1 schreef op dinsdag 30 januari 2018 @ 21:05:
De meeste Dell servers bij onze klanten zijn echt vrij basic helaas (en geheel tegen mijn wens) zonder iDrac of hooguit iDrac essentials, dus dan wordt het in die gevallen toch esxcli verwacht ik. Maar hoe weet ik welke VIB/update ik kan kiezen? Is er een lijst op te vragen met een commando?
/off-topic: Hyper-V server of Windows Server Core met Hyper-V role zijn anders vrijwel vergelijkbaar met VMware. Stuk minder updates en net zo beperkt benaderbaar als VMWare. Dan nog niet eens gesproken over NANO server.
Voor het updaten kan je de volgende commando's gebruiken:
esxcli software sources profile list -d https://hostupdate.vmware.../main/vmw-depot-index.xml | grep ESXi-<versie>
(na grep de juiste versie opgeven bij grep ESXI-6.5.0)
En dan de image die je kiest uit de lijst installeren met:
esxcli software profile update -d https://hostupdate.vmware.../main/vmw-depot-index.xml -p <naam van versie>-standard
Moet wel zeggen dat ik niet echt weg ben van deze methode daar bepaalde compatibiliteit checks overgeslagen worden die met een upgrade via ISO wel gedaan worden. Ook mis je op deze wijze de Dell customisations. Ik weet natuurlijk niet hoeveel haast je hebt om te upgraden, maar als je geen iDrac hebt, zou ik eigenlijk toch echt aanraden de server op locatie te updaten. Je wil bijv. ook niet dat je op zaterdag morgen de upgrade aan het doen bent en door een incompatibiliteit komt de server niet meer up. Ben je mogelijk nog verder "van huis" en kun je alsnog in de auto stappen.
Ik moet m'n eerste fatsoenlijk werkende HyperV implementatie nog tegenkomen maar dat gaat, denk ik, niet meer gebeurenDennism schreef op dinsdag 30 januari 2018 @ 08:18:
[...]
Vind dat laatste niet echt een argument trouwens, als je kijkt naar VMware patch releases en MS haar patch schedule zit je wanneer je beide up-to-date houd op vrij regelmatige reboots. MS iets strikter dan VMware door patch tuesday, maar heel erg veel ontloopt het elkaar ook weer niet. Wel kom ik veel vaker in het wild VMware implementaties tegen die totaal niet up-to-date zijn itt tot MS Hyper-V opstellingen.
De attack surface van ESXi is veel kleiner dan van HyperV. Ten eerste moet je al een specifiek geknutselde executable hebben (niet bijzonder afwijkend, maar toch), ten tweede moet SSH of de console open staan om erbij te kunnen en ten derde kunnen ongesigneerde executables net zonder meer uitgevoerd worden. Daarmee is 't best een dingetje om iets van een virus op de host te krijgen. Dat is geen vrijbrief om niks te patchen of om er maar vanuit te gaan dat 't altijd goed gaat, maar men moet er wel extra moeite voor doen en dan haken de meesten alweer af.
Hyper-V is ook niet mijn specialiteit, maar ik kom er genoeg tegen. Heb een paar zeer mooie, redelijke grote clusters zien draaien. Maar ik denk vooral dat Hyper-V in het MKB aan klanten gaat winnen die niet altijd naar de cloud willen of kunnen. Je begint in Hyper-V toch steeds meer features te krijgen waar bij VMware de Enterprise Plus kant voor op moet qua licenties. VMware mag eigenlijk van mij wel redelijk snel wat meer functionaliteit gaan opnemen in Essentials Plus om zo competitief te blijven in kleine clusters.Froos schreef op woensdag 31 januari 2018 @ 15:51:
[...]
Ik moet m'n eerste fatsoenlijk werkende HyperV implementatie nog tegenkomen maar dat gaat, denk ik, niet meer gebeuren![]()
De attack surface van ESXi is veel kleiner dan van HyperV. Ten eerste moet je al een specifiek geknutselde executable hebben (niet bijzonder afwijkend, maar toch), ten tweede moet SSH of de console open staan om erbij te kunnen en ten derde kunnen ongesigneerde executables net zonder meer uitgevoerd worden. Daarmee is 't best een dingetje om iets van een virus op de host te krijgen. Dat is geen vrijbrief om niks te patchen of om er maar vanuit te gaan dat 't altijd goed gaat, maar men moet er wel extra moeite voor doen en dan haken de meesten alweer af.
Verder zeker gelijk, de attack surface is over het algemeen altijd kleiner geweest, al wordt dat ook steeds minder en ik vraag me eigenlijk af of dit met Windows Server Nano / Server core nog het geval is.
Even niets...
Ik denk dat je nou behoorlijk ver voor de muziek uitloopt.FireDrunk schreef op woensdag 31 januari 2018 @ 16:25:
Ze moeten sowieso gewoon de prijzen verlagen. Er zijn veel te veel open source alternatieven. Met de extreme opkomst van Docker en Kubernetes, is het draaien van gigantische clusters wel een beetje voorbij. Voor die paar machientjes waar speciale zorg aan gespendeerd moet worden, ga je geen gigantisch duur cluster product nemen zou ik denken...
Op termijn zullen containers zeker het betere alternatief worden voor applicatie distributie en onderhoud. Het is echter niet gezegd dat daarmee een hypervisor obsolete wordt. Sterker nog, met vSphere Integrated Containers is dat juist niet het geval. De Die-hard container fans zullen het daar niet mee eens zijn, maar een infra moet ook beheerd worden en daar is het containerhost idee (men neme een giga host en pleurt er maar raak in) een totaal onbeheer(s)baar concept. Daar maakt het ook niet uit of het on premises of in de cloud draait.
En wie weet wat daar de toekomst in brengt. Met de huidige insteek moet ik nog maar zien of Docker het einde van 2018 haalt. Het zou me niet verbazen als we 2019 ingaan met als erfenis het Docker format en verder niks.
Daarnaast zal de migratie van alle bedrijfsapplicaties in de wereld naar containers nog wel een hele tijd gaan duren. Hoeveel bedrijfssoftware heeft de stap naar webbased nog niet eens gemaakt?
Kortom, mijn verwachting is dat de hypervisor voorlopig nog wel de lakens uit zal blijven delen als het gaat om hardware resource toegang.
Wel zie ik meer KVM en afgeleiden in de wereld. Op zich prima, maar geen weldenkend bedrijf zal zich in een KVM avontuur storten zonder support contract. Dan moet je je nog maar afvragen hoe goedkoop het avontuur wordt, nog even los van alle op VMware ingrijpende management en andere applicaties. Ja er zijn vast open source alternatieven, maar wie gaat dat dan weer supporten? FTE's kosten ook geld en in de toekomst alleen maar meer. Als je dat allemaal meeneemt, is VMware zo duur nog niet
Nano is toch helemaal geen hypervisor? Heb me er eerlijk gezegd nog niet heel erg in verdiept. Heb een ongefundeerde diepe haat richting alles non-ESXiDennism schreef op woensdag 31 januari 2018 @ 16:15:
[...]
Hyper-V is ook niet mijn specialiteit, maar ik kom er genoeg tegen. Heb een paar zeer mooie, redelijke grote clusters zien draaien. Maar ik denk vooral dat Hyper-V in het MKB aan klanten gaat winnen die niet altijd naar de cloud willen of kunnen. Je begint in Hyper-V toch steeds meer features te krijgen waar bij VMware de Enterprise Plus kant voor op moet qua licenties. VMware mag eigenlijk van mij wel redelijk snel wat meer functionaliteit gaan opnemen in Essentials Plus om zo competitief te blijven in kleine clusters.
Verder zeker gelijk, de attack surface is over het algemeen altijd kleiner geweest, al wordt dat ook steeds minder en ik vraag me eigenlijk af of dit met Windows Server Nano / Server core nog het geval is.
#team_UTC+1
An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper Mini '12 i7/16/256 Air '13 i5/8/256 iPad mini 5 64GB iPhone SE 128GB
Nano server in de Semi Annual branch 1709 versie is uit mijn hoofd alleen als container te gebruiken, de versie daarvoor is voor zover ik weet nog wel te gebruiken als Hypervisor, de laatste keer dat ik het getest heb was in de Beta, en toen was het een zeer mooie oplossing, Hyper-V met een 500MB footprint en volledig dezelfde functionaliteit als een Server 2016 Core installatie of installatie met Gui. MS lijkt Hyper-V voor Nano echter wel de nek om te gaan draaien daar de huidige release die Hyper-V kan draaien uit mijn hoofd eind 2018 uit support gaat en je dan wel moet migreren van Nano naar Core.Ethirty schreef op woensdag 31 januari 2018 @ 16:51:
[...]
Nano is toch helemaal geen hypervisor? Heb me er eerlijk gezegd nog niet heel erg in verdiept. Heb een ongefundeerde diepe haat richting alles non-ESXi