Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

  • Domino
  • Registratie: juli 1999
  • Nu online

Domino

30 Watts and overheating...

quote:
Clavat schreef op donderdag 6 september 2018 @ 09:06:
[...]
Volgens mij kan je met de appliance wel poorten aanpassen zodat ik hem buiten mijn netwerk om kan beheren en benaderen toch of zie ik dat verkeerd?
Nooit (nooit!!!!) beheer interfaces los aan het internet knopen.

Geen iLo, iDRAC en/of andere IPMI interfaces.
Geen RDP, vCenter, Webmin en/of Shell In A Box.

Altijd via een VPN of SSH tunnel (SSH uiteraard alleen met certificaat authenticatie).

An IPv6 packet walks into a bar. Nobody talks to him.


  • Clavat
  • Registratie: augustus 2008
  • Laatst online: 10:08
Oke dan gaan we het op die manier doen.
Thnx
Dan laat ik de standaard poorten ongemoeid

PSN: McMillan0984


  • Aschtra
  • Registratie: juni 2012
  • Laatst online: 12:30
Hmm heb nu toch een raar dingetje.
Ik heb op mijn ESXi server 4 Ubuntu VM's draaien. Na een week gaven 3 van de 4 VM's dit soort meldingen:



Beetje in paniek uiteraard, net nieuwe server en de VM's draaien op een Samsung evo 970 M.2 SSD.
Google leert mij dat dit fouten zijn in de SSD, Ik heb de SSD toen in mijn desktop gedaan en via crystaldisk uitgelezen, deze gaf geen fouten.
Via Google kwam ik uit op het 'voma' commando. Een soort chckdsk utulity heb ik begrepen. Deze gaf geen fouten aan, niets kunnen vinden en fixen.

Toch krijgen ik deze meldingen. Momenteel op 1 VM en dat is mijn Plex server, hij kwam echter ook op andere VM's. Plex draait op Ubuntu 18.04 en de rest op Ubuntu 16.04, server variant.

Iemand een idee wat dit kan zijn?

Nu zie ik op de host via dmesg de volgende meldingen:

Aschtra wijzigde deze reactie 10-09-2018 19:26 (6%)


  • Domino
  • Registratie: juli 1999
  • Nu online

Domino

30 Watts and overheating...

Welke versie van esx draai je?

Heb pas geleden ook zo een probleem gezien op het internet, daar bleek het uiteindelijk de ondersteuning tov pcie storage te zijn meen ik.

Na wat googlen kom ik verschillende oorzaken tegen. Van hitte problemen tot het ontbreken van trim support.

Domino wijzigde deze reactie 10-09-2018 19:55 (24%)

An IPv6 packet walks into a bar. Nobody talks to him.


  • Aschtra
  • Registratie: juni 2012
  • Laatst online: 12:30
quote:
Domino schreef op maandag 10 september 2018 @ 19:37:
Welke versie van esx draai je?

Heb pas geleden ook zo een probleem gezien op het internet, daar bleek het uiteindelijk de ondersteuning tov pcie storage te zijn meen ik.

Na wat googlen kom ik verschillende oorzaken tegen. Van hitte problemen tot het ontbreken van trim support.
6.5 Update 2. Kan best zijn dat het de ondersteuning is voor de storage. Draai het op een Deskmini 310:

#ProductPrijsSubtotaal
1Intel Core i5-8400 Boxed€ 193,-€ 193,-
1ASRock DeskMini 310€ 144,50€ 144,50
1Crucial CT16G4SFD824A€ 140,99€ 140,99
1Samsung 970 Evo 500GB€ 145,-€ 145,-
Bekijk collectie
Importeer producten
Totaal€ 623,49


Die meldingen op ESXi heb ik ook gegoogled en blijkt niet echt wat te zijn.

  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
Welke versie van VMFS en welke virtuele controller gebruik je?

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • Harmen
  • Registratie: oktober 1999
  • Laatst online: 19-04 08:23
Na een half jaar toch maar eens een backup gemaakt van de machines (Sophos XG, Pi-Hole debian, Unifi debian). Na wat speurwerk kwam ik HPE VM Explorer tegen. Geinstalleerd en een backup gemaakt.
Mooi programma, lekker simpel en doet wat het moet doen. :+

Whatever.


  • Pantagruel
  • Registratie: februari 2000
  • Laatst online: 19-04 15:25

Pantagruel

Mijn 80486 was snel,....was!

Harmen schreef op dinsdag 11 september 2018 @ 11:44:
Na een half jaar toch maar eens een backup gemaakt van de machines (Sophos XG, Pi-Hole debian, Unifi debian). Na wat speurwerk kwam ik HPE VM Explorer tegen. Geinstalleerd en een backup gemaakt.
Mooi programma, lekker simpel en doet wat het moet doen. :+
Jaja, 15 dagen gratis trial versie en niet direct duidelijk wat er na de 15 dagen nog kan met je gemaakte back-up. Vervolgens $699,- of meer afhankelijk v.d. versie die je wenst.

Asrock Z77 Extreme6, Intel i7-3770K, Corsair H100i, 32 GB DDR-3, 256 GB Samsung SSD + 2 x 3TB SATA, GeForce GTX 660 Ti, Onboard NIC and sound, SyncMaster 24"&22" Wide, Samsung DVD fikkertje, Corsair 500R


  • Harmen
  • Registratie: oktober 1999
  • Laatst online: 19-04 08:23
@Pantagruel Heb gelijk de enterprise licentie gedowngrade naar de free variant. Daarna een backup gemaakt, neem aan dat ik dan wel kan restoren. ;)

Whatever.


  • Craven
  • Registratie: februari 2007
  • Laatst online: 15:53
@Harmen ik gok dat we je dan over 15 dagen weer terugzien :D

Veeam heeft toch nog wel een gratis versie of niet?

  • Domino
  • Registratie: juli 1999
  • Nu online

Domino

30 Watts and overheating...

Craven schreef op dinsdag 11 september 2018 @ 14:35:
@Harmen ik gok dat we je dan over 15 dagen weer terugzien :D

Veeam heeft toch nog wel een gratis versie of niet?
Ja: https://www.veeam.com/nl/...backup-solution-free.html

Die doet gegarandeerd wat je wil @Harmen

An IPv6 packet walks into a bar. Nobody talks to him.


  • Harmen
  • Registratie: oktober 1999
  • Laatst online: 19-04 08:23
Zal wel ff zien hoe het loopt. :+
@Domino Veeam naar gekeken, maar deze werkt enkel met een betaalde versie van ESX.

Whatever.


  • Aschtra
  • Registratie: juni 2012
  • Laatst online: 12:30
|sWORDs| schreef op dinsdag 11 september 2018 @ 10:53:
Welke versie van VMFS en welke virtuele controller gebruik je?
VMFS 6
De SCSI Controller 0 bedoel je? LSI Logic Parallel. Niets aan veranderd.

  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
Aschtra schreef op dinsdag 11 september 2018 @ 16:57:
[...]


VMFS 6
De SCSI Controller 0 bedoel je? LSI Logic Parallel. Niets aan veranderd.
Probeer het eens met Paravirtual SCSI of LSI SAS.

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • Aschtra
  • Registratie: juni 2012
  • Laatst online: 12:30
|sWORDs| schreef op dinsdag 11 september 2018 @ 17:18:
[...]

Probeer het eens met Paravirtual SCSI of LSI SAS.
Nu aangepast naar LSI SAS. Kijk het even aan.

  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
Aschtra schreef op dinsdag 11 september 2018 @ 17:22:
[...]


Nu aangepast naar LSI SAS. Kijk het even aan.
Anders zou je ook nog even naar powersavings kunnen kijken. Niet alle PCIe controllers kunnen daar even goed tegen.

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • Aschtra
  • Registratie: juni 2012
  • Laatst online: 12:30
Die staat op balanced zo te zien.

  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
Aschtra schreef op dinsdag 11 september 2018 @ 19:21:
Die staat op balanced zo te zien.
High performance proberen en in de bios ook nog even naar de HW states kijken.

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • Jazzy
  • Registratie: juni 2000
  • Laatst online: 16:00

Jazzy

Moderator SWS/PB

Moooooh!

Harmen schreef op dinsdag 11 september 2018 @ 15:59:
@Domino Veeam naar gekeken, maar deze werkt enkel met een betaalde versie van ESX.
Weet je het zeker? Als ze zeggen dat het met ESXi werkt, dan bedoelen ze toch de gratis versie van vSphere?

https://www.veeam.com/nl/...backup-solution-free.html

Exchange en Office 365 specialist. Mijn blog.


  • Crahsystor
  • Registratie: februari 2009
  • Laatst online: 17:23
Jazzy schreef op woensdag 12 september 2018 @ 10:33:
[...]
Weet je het zeker? Als ze zeggen dat het met ESXi werkt, dan bedoelen ze toch de gratis versie van vSphere?

https://www.veeam.com/nl/...backup-solution-free.html
Blijkbaar niet (meer):
Veeam Backup Free Edition "Let op: De gratis vSphere Hypervisor (gratis ESXi) wordt niet ondersteund. vSphere Essentials of hoger licentieniveau vereist."

edit bron:
De opmerking staat op de downloadpagina van Veeam Backup Free Edition (https://www.veeam.com/nl/...load.html?ad=in-text-link login vereist)

Crahsystor wijzigde deze reactie 12-09-2018 12:29 (16%)

Addicted to silent computing


  • Jazzy
  • Registratie: juni 2000
  • Laatst online: 16:00

Jazzy

Moderator SWS/PB

Moooooh!

Ik geloof je direct, maar waar lees je dat?

Exchange en Office 365 specialist. Mijn blog.


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 18:48
ESXi != Gratis versie van vSphere.
Er is een gratis versie van ESXi als je de goede License pakt (je krijgt gratis een key van vmware).
ESXi zelf is niet per definitie gratis.

Even niets...


  • magneet
  • Registratie: juli 2001
  • Laatst online: 09:47

magneet

Magnetic enhanced

Bij gebruik van de key voor de gratis variant (installer is hetzelfde) wordt bepaalde functionaliteit waaronder de api's die vereist zijn voor backups onbeschikbaar gemaakt vandaar dat het niet werkt. Dat is al jaren zo.

You have the right to remain silent
everything you say will be misquoted
and used against you in a court of law


  • Jazzy
  • Registratie: juni 2000
  • Laatst online: 16:00

Jazzy

Moderator SWS/PB

Moooooh!

Ah, dat verklaart. Dat dacht het bij VMware hetzelfde werkt als bij Microsoft, dat je bij de gratis variant gewoon alle functionaliteit krijgt die ook in het betaalde product zit. Weer wat geleerd. :)

Zou van Veeam eigenlijk verwachten dat ze die beperking nog even melden bij de systeemvereisten: https://www.veeam.com/nl/...-system-requirements.html

Exchange en Office 365 specialist. Mijn blog.


  • zeroday
  • Registratie: mei 2007
  • Laatst online: 20-04 07:57

zeroday

Dream within a dream

ik heb tijden trileads (HPE VM Explorer) gebruikt .. alleen ik wil wat anders (heb geen beschikking over een windows server meer .. en wil dus via een VM een backup kunnen maken naar een SMB / NFS share (extern).

Zijn er goede alternatieven die niet 1-2-3 via scripting plaats kan vinden? dus met een GUI
en die ook na 30 dagen 15 VMS kan blijven backuppen?

USG, 2x Unifi AP-LR, 1x Unifi Pro, 4x HP Microserver Gen8 (1x Vmware) 3x OpenMediavault. (en nog veel meer andere meuk)


  • Zwelgje
  • Registratie: november 2000
  • Laatst online: 08:15
FireDrunk schreef op donderdag 6 september 2018 @ 09:03:
vCenter appliance kan je naderhand prima iets kleiner zetten. Volgens mij doet hij het ook wel met 4GB assigned. Sowieso neemt hij na een paar dagen draaien al veel minder geheugen in, en gaat je ESXi server netjes het ongebruikte geheugen uitswappen.

Ik had (toendertijd) ~1GB actief geheugen voor de vCenter nodig.
inderdaad, ik installeer hem altijd 'tiny' en zet daarna het geheugen op 4gb. werkt prima voor thuis. heel af en toe tikt hij die 4gb eens aan (en geeft dan een memory pressure melding)

A wise man's life is based around fuck you


  • Valen_76
  • Registratie: oktober 2009
  • Laatst online: 28-03 12:26
Jazzy schreef op woensdag 12 september 2018 @ 12:37:
Ah, dat verklaart. Dat dacht het bij VMware hetzelfde werkt als bij Microsoft, dat je bij de gratis variant gewoon alle functionaliteit krijgt die ook in het betaalde product zit. Weer wat geleerd. :)
De eerste 60 dagen tijdens de trial periode, kun je alles doen. Die relatief makkelijk te resetten is. Maar met de gratis licentie code is het uitgekleed. En werken veel 3rd party applicaties niet.


P.s. Veeam "Free ESXi for VMware is not supported":
https://www.veeam.com/kb1435

Valen_76 wijzigde deze reactie 17-09-2018 16:45 (12%)


  • bombarie18
  • Registratie: februari 2018
  • Laatst online: 19-04 13:07
Ik zit al een poosje te stoeien met ESXI 6 en kom er qua dns forwarding/resolving nog niet helemaal uit.
Ik heb meerdere (sub)domeinen die naar diverse vm's op 1 host moeten wijzen voor remote acces.
Ik heb nu een PfsenseVM met Haproxy draaien maar ik vind dit vanuit verschillende perspectieven niet ideaal.
Aangezien ik op dit gebied nog niet zo thuis ben vraag ik maar eens om jullie hulp/ideeën.
is Pfsense de oplossing hiervoor en/of kan ik hier bijvoorbeeld ook de DNS resolving optie voor gebruiken? (tot nu toe weinig succes) of zijn er simpelere oplossingen?

Situatie is:
Kabel => Router (T-Mobile draytek glasvezel ding, IP-adres van pfsense in DMZ) => pfsense => LAN => vm's

  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
bombarie18 schreef op vrijdag 12 oktober 2018 @ 11:17:
Ik zit al een poosje te stoeien met ESXI 6 en kom er qua dns forwarding/resolving nog niet helemaal uit.
Ik heb meerdere (sub)domeinen die naar diverse vm's op 1 host moeten wijzen voor remote acces.
Ik heb nu een PfsenseVM met Haproxy draaien maar ik vind dit vanuit verschillende perspectieven niet ideaal.
Aangezien ik op dit gebied nog niet zo thuis ben vraag ik maar eens om jullie hulp/ideeën.
is Pfsense de oplossing hiervoor en/of kan ik hier bijvoorbeeld ook de DNS resolving optie voor gebruiken? (tot nu toe weinig succes) of zijn er simpelere oplossingen?

Situatie is:
Kabel => Router (T-Mobile draytek glasvezel ding, IP-adres van pfsense in DMZ) => pfsense => LAN => vm's
Ik heb XS4ALL glasvezel met extra /29 subnet.

NTU->pfSense->NSX

De pfSense box doet PPPoE en NAT/igmpproxy voor gast netwerk plus de routing (dus geen NAT) voor het public subnet. De IPTV boxen zitten in mijn gast netwerk (VLAN 1003) welke ik ook trunk naar mijn accesspoints (Airport Extreme). Ook draait hier SNORT als edge firewall.

Het publieke subnet (8 IPs) gaan elk naar een eigen router welke NAT doet. Dit kan NSX zijn of pfSense of whatever. Elke omgeving heeft dan weer zijn eigen netwerken zoals external facing DMZ, internal facing DMZ, management en LAN. Ik gebruik een reverse proxy (Unified Access Gateway) als gatekeeper tussen external en internal facing DMZ en kan hierdoor meerdere zaken op een enkele poort draaien (als de FQDN of suburl maar anders is). Omdat alles subdomeinen zijn en intern en extern dezelfde dnsnaam hebben kan ik met een enkele wildcard alles signen.

Voor interne loadbalancing kan ik of HAproxy op pfSense of een virtuele Kemp/F5 load balancer gebruiken voor één of meerdere omgevingen. Elke omgeving heeft zijn eigen DNS server maar de pfSense box als forwarder. Public DNS doe ik via een dynamic DNS provider, maar je kunt natuurlijk ook je eigen zone via een eigen name server doen.

Dit geeft me maximale flexibiliteit, maar het blijft ook beheersbaar doordat ik bijvoorbeeld elke omgeving zijn eigen router kan geven. Ook kan ik zo het maximale aantal IPs (9) benutten en elk IP volledig benutten zonder zaken op alternatieve poorten te zetten en geeft dit de maximale performance (geen dubbel NAT, etc).

Snelheid vanaf een sub omgeving (vrijwel alles direct aan de AIX geeft 2.6ms average):


Voorbeeld:
Subnet 2.0.0.0/29 via 1.1.1.2

Guest netwerk - 1.1.1.2

demo1.company.com - 2.0.0.1 (XS4ALL stuurt dit naar 1.1.1.2)
demo8.company.com - 2.0.0.8 (XS4ALL stuurt dit naar 1.1.1.2)

Pakken we dan demo1.company.com dan kan ik via de reverse proxy (NAT op 192.168.1.2) het volgende doen:
https://demo1.company.com/myweb - 192.168.1.10
https://demo1.company.com/admin - 192.168.1.11
Of via dynamic DNS provider:
https://database.company.com (2.0.0.1) - 192.168.1.12

Waarbij .10-.12 door de interne loadbalancer weer uit 2+ servers bestaan. (net als dat de reverse proxy natuurlijk ook achter een loadbalancer zit).

Het interne domein van elke omgeving is ook company.com dus een enkel *.company.com wildcard werkt voor alle omgevingen zo wel intern als extern.

De hoofd url (https://demo1.company.com) wijst naar de broker (VMware View) welke via tunnel vanaf de reverse proxy connecties naar desktops opzet.

Daarnaast heb ik nog een forwarder voor workspace.company.com plus connectors in elke omgeving welke naar Identity Manager gaat en single sign on en single pane of glass voor alle omgevingen geeft (icons voor webservices/remote desktops/remote apps). Iets zoals dit:

|sWORDs| wijzigde deze reactie 12-10-2018 12:30 (21%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • webgangster
  • Registratie: juli 2006
  • Laatst online: 15:31
@bombarie18 Is een Sophos UTM waar je de Web Application Proxy gebruikt niet een alternatief?

  • jwvdst
  • Registratie: augustus 2010
  • Laatst online: 17:19
Vraagje
Ik heb door overlijden van de voeding mn esxi bak over gezet naar een andere server. Nu heeft die een lynx point ahci sata controller en heb deze in pass through modus gezet voor mn xpenology vm. Dit is alleen mogelijk met een hack die werkt tot esxi 6.0. Bij esxi 6.5 en 6.7 werkt deze hack niet https://communities.vmware.com/thread/458324?
Is iemand van jullie bekend met een hack waarbij ik de de lynx point ahci wel succesvol in pass through modus kan zetten in esxi 6.5 en of 6.7?

jwvdst wijzigde deze reactie 22-10-2018 00:56 (7%)


  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
Bij 6.5 en 6.7u1 kan dat, alleen met 6.7 niet.

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • Harmen
  • Registratie: oktober 1999
  • Laatst online: 19-04 08:23
Iemand ervaringen met het volgende?
Valt mij op dat de leds van de connectbox en ESX host altijd knipperen, ook als ik naar bed ga. 's morgens het zelfde verhaal. Iemand bekend met dit 'probleem'?

Ik heb een ESX 6.5 machine in gebruik met oa:
Sophos XG firewall, Pi-Hole, Unifi, gekoppeld aan Connectbox en AC Lite.
Zie in de logboeken veel de volgende meldingen voorbij komen:
(ne1000): false RX hang detected on vmnic0

Destijds heb ik mijn Firewall geinstalleerd met de ne1000 adapter ipv de vmnet adapter.

Whatever.


  • MvL
  • Registratie: juni 2012
  • Laatst online: 13:28
Ondersteund esxi nu ook containers (Docker) zoals Proxmox lxc containers ondersteund?

  • Ethirty
  • Registratie: september 2007
  • Laatst online: 18:51

Ethirty

Who...me?

MvL schreef op dinsdag 23 oktober 2018 @ 15:59:
Ondersteund esxi nu ook containers (Docker) zoals Proxmox lxc containers ondersteund?
https://www.vmware.com/pr...ntegrated-containers.html

#team_UTC+1

An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 2 32GB  iPhone 8 64GB


  • MvL
  • Registratie: juni 2012
  • Laatst online: 13:28
Het antwoord is ja. Top!

Ik wil nu graag een test server opzetten is er ergens documentatie hoe ik dit het best kan aanpakken (bv. blog). Ik heb hier een Supermicro met 32gb en een 1270v6 voor de test.

  • Ethirty
  • Registratie: september 2007
  • Laatst online: 18:51

Ethirty

Who...me?

MvL schreef op dinsdag 23 oktober 2018 @ 16:09:
Het antwoord is ja. Top!

Ik wil nu graag een test server opzetten is er ergens documentatie hoe ik dit het best kan aanpakken (bv. blog). Ik heb hier een Supermicro met 32gb en een 1270v6 voor de test.
Ik had het antwoord op je eerste vraag binnen 3 seconde gevonden met Google. Je vraagt ons toch niet nog een keer om te Googlen hè? ;)

Er wordt wel wat eigen inzet verwacht op Tweakers.

#team_UTC+1

An investment in knowledge always pays the best interest - Benjamin Franklin
You can call me McOverloper  Mini '12 i7/16/256  Air '13 i5/8/256  iPad mini 2 32GB  iPhone 8 64GB


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 18:48
@MvL Het antwoord interpreteren als "ja" is wat kort door de bocht.
VMware zegt dus kort door de bocht: "We kunnen je docker containers opstarten, maar dat doen we dan wel in een VM met Docker geinstalleerd".

Dus nee, ESXi ondersteund zelf geen Docker. VMware heeft wel een integratie oplossing die Docker voor je aan ESXi knoopt dmv VM's.

Even niets...


  • MvL
  • Registratie: juni 2012
  • Laatst online: 13:28
Oke, duidelijk. Dat is eigenlijk niet helemaal wat ik zoek. Misschien moet ik eens kijken naar een Docker OS. Ik vond net al wat linkje tijdens mijn Google sessie..

  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
Harmen schreef op maandag 22 oktober 2018 @ 16:10:
Iemand ervaringen met het volgende?
Valt mij op dat de leds van de connectbox en ESX host altijd knipperen, ook als ik naar bed ga. 's morgens het zelfde verhaal. Iemand bekend met dit 'probleem'?

Ik heb een ESX 6.5 machine in gebruik met oa:
Sophos XG firewall, Pi-Hole, Unifi, gekoppeld aan Connectbox en AC Lite.
Zie in de logboeken veel de volgende meldingen voorbij komen:
(ne1000): false RX hang detected on vmnic0

Destijds heb ik mijn Firewall geinstalleerd met de ne1000 adapter ipv de vmnet adapter.
De ne1000 driver zijn meerdere problemen mee (ook fysiek) ik zou de e1000e driver gebruiken.

code:
1
esxcli system module set --enabled=false --module=ne1000


Traffic is er hier in huis de hele dag en nacht, altijd wel een telefoon/VM/PC/apparaat wat voor een update checkt.

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • Harmen
  • Registratie: oktober 1999
  • Laatst online: 19-04 08:23
Dankje, zal ff moeten kijken of ik on the fly de nic kan aanpassen, anders wordt het een kwestie van opnieuw installeren en backup teruglezen.

Whatever.


  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
Harmen schreef op dinsdag 23 oktober 2018 @ 16:51:
Dankje, zal ff moeten kijken of ik on the fly de nic kan aanpassen, anders wordt het een kwestie van opnieuw installeren en backup teruglezen.
Weet je zeker dat het in de VM is en niet je host?

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • Harmen
  • Registratie: oktober 1999
  • Laatst online: 19-04 08:23
Heb de andere machines op vmxnet3 ingesteld, dat gaat prima.

Edit, de oude firewall met e1000 kaarten even offline gezet en de nieuwe Sophos XG aangezet en backup terug gelezen. Ging super! Kwartiertje werk.

Weer up and running. :o

Harmen wijzigde deze reactie 23-10-2018 20:17 (57%)

Whatever.


  • sheeppower
  • Registratie: november 2007
  • Laatst online: 17:18
|sWORDs| schreef op maandag 22 oktober 2018 @ 10:18:
Bij 6.5 en 6.7u1 kan dat, alleen met 6.7 niet.
Dit heb ik de harde manier ondervonden.

Ik had vorige maand een upgrade van 6.5 naar 6.7 gedaan zonder eerst genoeg research te doen. Ik heb een FreeNAS vm waarin ik de Intel AHCI controller doorgeef en na de upgrade was ie verdwenen. Omdat ik de vm nog niet intensief gebruik besloten te wachten op 6.7u1. Deze vanmorgen geinstalleerd, de AHCI was weer beschikbaar en deze toegekend aan de vm. Werkte direct na een reboot weer als een zonnetje. :)

  • jwvdst
  • Registratie: augustus 2010
  • Laatst online: 17:19
sheeppower schreef op dinsdag 23 oktober 2018 @ 20:21:
[...]


Dit heb ik de harde manier ondervonden.

Ik had vorige maand een upgrade van 6.5 naar 6.7 gedaan zonder eerst genoeg research te doen. Ik heb een FreeNAS vm waarin ik de Intel AHCI controller doorgeef en na de upgrade was ie verdwenen. Omdat ik de vm nog niet intensief gebruik besloten te wachten op 6.7u1. Deze vanmorgen geinstalleerd, de AHCI was weer beschikbaar en deze toegekend aan de vm. Werkte direct na een reboot weer als een zonnetje. :)
dan toch maar 6.7u1 een kans geven. heb nog wel een usb stick liggen dus als het niet werkt kan ik zo weer terug

  • Obscurax
  • Registratie: februari 2008
  • Niet online

Obscurax

carpe noctem

Fijn om te horen dat 'passthru.map' het terug doet in 6.7 U1. Zat hier ook op te wachten.

  • jwvdst
  • Registratie: augustus 2010
  • Laatst online: 17:19
|sWORDs| schreef op maandag 22 oktober 2018 @ 10:18:
Bij 6.5 en 6.7u1 kan dat, alleen met 6.7 niet.
Heb esxi 6.7u1 geprobeerd en ik kan met die hack wel de lynx point sata controller in pass through modus zetten. De desbetreffende vm (xpenology) kan ik gewoon starten maar de vm schakelt zich na 10 seconden ongeveer weer uit. het lijkt erop dat als de drivers voor de sata controller geladen worden dat de vm zich dan uit schakelt. Weet iemand hier een oplossing voor?

Edit: Het gaat om een hpe ml310e v2 en ik heb de sata controller in ahci modus staan

jwvdst wijzigde deze reactie 04-11-2018 22:53 (7%)


  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
Even de controller verwijderen van de VM en weer toevoegen. Verder even testen zonder overig hardware. Post anders even de VMX en een screenshot van de passthrough.

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • jwvdst
  • Registratie: augustus 2010
  • Laatst online: 17:19
|sWORDs| schreef op zondag 4 november 2018 @ 23:18:
Even de controller verwijderen van de VM en weer toevoegen. Verder even testen zonder overig hardware. Post anders even de VMX en een screenshot van de passthrough.
Het is een vers geinstalleerde host waar nog niks anders mee gedaan is. Ook moet ik de pass through.map file aanpassen om überhaupt de sata controller in pass through modus te kunnen zetten. Maar ik zal morgen even de vmx file posten

  • webgangster
  • Registratie: juli 2006
  • Laatst online: 15:31
Binnenkort ESX op een Raspbery Pi hoorde ik op VMworld. Dat is wel vet :)

Wie is er nog meer op VMworld?

  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
Ik, loop morgen anders om 13:00 na mijn laatste sessie (negende item op VMworld dit jaar, vandaag vier achter elkaar met slechts 15 minuten er tussen waarin ik nog vragen sta te beantwoorden en naar een andere ruimte moet lopen, pffff) even langs (of kom naar de sessie).
In het vliegtuig zat iemand naast me die in elk geval hier mee leest.

|sWORDs| wijzigde deze reactie 07-11-2018 22:00 (23%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • webgangster
  • Registratie: juli 2006
  • Laatst online: 15:31
Iemand enig idee hoe ik dit voor elkaar krijg?

ISCSI service op VSAN cluster biedt een LUN aan op vmk4 (mijn iscsi vlan).
Ik wil deze LUN aanbieden aan een niet VSAN host die ook een kernel adapter heeft in dat ISCSI VLAN.

Op deze niet VSAN host activeer ik de software ISCSI controller en vul ik het IP adres in van de VSAN host die de ISCSI LUN host. Ik zie vervolgens ook netjes dat de LUN gezien wordt. Ik heb een groep aangemaakt met toegestaande iniatiors en ik gebruik geen authenticatie.

Ik heb een LUN van 20GB maar die LUN krijg ik niet te zien als ik Storage wil toevoegen.
Meerdere rescans uitgevoerd maar helaas...

  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
webgangster schreef op woensdag 5 december 2018 @ 22:55:
Iemand enig idee hoe ik dit voor elkaar krijg?

ISCSI service op VSAN cluster biedt een LUN aan op vmk4 (mijn iscsi vlan).
Ik wil deze LUN aanbieden aan een niet VSAN host die ook een kernel adapter heeft in dat ISCSI VLAN.

Op deze niet VSAN host activeer ik de software ISCSI controller en vul ik het IP adres in van de VSAN host die de ISCSI LUN host. Ik zie vervolgens ook netjes dat de LUN gezien wordt. Ik heb een groep aangemaakt met toegestaande iniatiors en ik gebruik geen authenticatie.

Ik heb een LUN van 20GB maar die LUN krijg ik niet te zien als ik Storage wil toevoegen.
Meerdere rescans uitgevoerd maar helaas...
SCSI masking zorgt er voor dat je het niet kunt koppelen en ik mag je helaas niet vertellen hoe je daar omheen kunt, mocht je het zelf uitdokteren bedenk dan dat dit niet supported is.

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 15:57
@|sWORDs| in augustus had je een Epyc machine draaiende, wat is de state of the union mbt SMT en vooral passthrough?

Ik zit namelijk met een specifieke use case waarbij meer dan gemiddeld PCIe lanes en sloten nodig zijn (48 lanes netto). Naar dual-CPU gaan is omwille van stroomverbruik en kost de last resort...

Vandaag even niets


  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
SMT werkt, onboard SATA passthrough niet en sinds U1 heb ik random hard reboots die ik nog moet uitzoeken.

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 15:57
|sWORDs| schreef op zondag 9 december 2018 @ 21:18:
SMT werkt, onboard SATA passthrough niet en sinds U1 heb ik random hard reboots die ik nog moet uitzoeken.
En krijg je iets anders well gepassthrough’ed? Wat ik wil zeggen: denk je dat het aan de SATA controller ligt of aan passthrough in general?

Vandaag even niets


  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
HyperBart schreef op zondag 9 december 2018 @ 23:00:
[...]


En krijg je iets anders well gepassthrough’ed? Wat ik wil zeggen: denk je dat het aan de SATA controller ligt of aan passthrough in general?
LSI en NVIDIA werken prima.
En ik zou geen Gigabyte B2B bord nemen, meest waardeloze support ooit, echt om te huilen.

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • HyperBart
  • Registratie: maart 2006
  • Laatst online: 15:57
Het plan is om sowieso voor SuperMicro te gaan qua MB.

Vandaag even niets


  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

Heej ESXi Experts,

Ik zit met een dilemma/vraag.

Momenteel draaien we S2016 op onze server
#ProductPrijsSubtotaal
2Intel Xeon E5-2620 v4 Boxed€ 441,95€ 883,90
1Supermicro X10DRH-CT (Retail Pack)€ 726,81€ 726,81
7HGST Deskstar NAS, 3TB€ 189,90€ 1.329,30
1Supermicro SuperChassis 826BE1C-R920LPB€ 1.006,36€ 1.006,36
1Qlogic QLE3442-CU-CK€ 183,23€ 183,23
1Supermicro MCP-220-00043-0N€ 9,08€ 9,08
4Samsung M393A2G40EB1-CRC€ 185,51€ 742,04
2Crucial MX300 2,5" 525GB€ 145,90€ 291,80
1Ewent EW7056 Zwart€ 23,95€ 23,95
Bekijk collectie
Importeer producten
Totaal€ 5.196,47

De SSD draaid in RAID1 als OS schijf en 4x 3TB in RAID5 als data opslag.
Onze file-storage gebeurt hier in S2016 samen met de DC, DHCP, DNS en één Hyper-V met Win7 RDP-server.

Nu komt er een redelijke software verandering aan en moet er nog het volgende bij:
SQL Server
Snelle File server (vanaf SSD-Sata of SSD-NVMe)
Application server

Omdat het toch al niet optimaal is dat S2016 bare-metal draait en zowel DC als DHCP als Hyper-V server is, zit ik er aan te denken om de server om te zetten in een ESXi server.
En, mocht het niet omzetten worden, dan een nieuwe server aanschaffen waar ESXi op komt.

Hier heb ik echter nog een paar vragen over.
De OS data store en de File data store wil ik uiteraard veilig hebben, Dus een RAID1 en/of RAID5 (toch?) (uiteraard inc, de nodige backups)

De 2x SSD RAID1 wordt momenteel hardwarematig opgelost. blijft dit werken binnen ESXi?
Als ik voor de nieuwe Storage 2x een 2TB SSD toevoeg in RAID1 is dit dan verstandig, of verlies ik een hoop performance daardoor?
En ga ik dit Hardwarematig door (via mobo) of kan ik beter 2x een datastore toevoegen in deze 2x in de VM's (3x S2016) toekennen en in S2016 dan softwarematig een RAID1 geven?

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • Renderz
  • Registratie: december 2018
  • Laatst online: 02-04 14:28
Als je maar één host hebt, moet je het OS storage inderdaad best via RAID1 'beveiligen'. Of er nu bare metal Server 2016 draait, of ESXi, concept blijft hetzelfde. Nu snap ik niet waar je met 2x 2TB SSD naartoe wil? Er komt enkel een OS op, in geval van ESXi kom je zelfs met 32GB toe..

Misschien verkeerd topic maar als je al bare-metal Server 2016 hebt draaien.. waarom dan niet gewoon hyper-v erop? Je hebt de licentie namelijk al..

  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

Renderz schreef op woensdag 12 december 2018 @ 16:35:
Als je maar één host hebt, moet je het OS storage inderdaad best via RAID1 'beveiligen'. Of er nu bare metal Server 2016 draait, of ESXi, concept blijft hetzelfde. Nu snap ik niet waar je met 2x 2TB SSD naartoe wil? Er komt enkel een OS op, in geval van ESXi kom je zelfs met 32GB toe..

Misschien verkeerd topic maar als je al bare-metal Server 2016 hebt draaien.. waarom dan niet gewoon hyper-v erop? Je hebt de licentie namelijk al..
De 2x 2TB er bij is omdat de data opslag voor nieuwe Snelle data store server er nog niet was en er bij moet.
Die 3 services/servers (SQL/File en App) is hetgene wat er nieuw bij moet gaan komen.
De App server heeft een USB port nodig ivm licentie, wat in Hyper-V niet gaat.
En op je bare-metal OS zowel DC als Hyper-V als DHCP als normale file storage draaien is ook niet echt de bestel oplossing.

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • Renderz
  • Registratie: december 2018
  • Laatst online: 02-04 14:28
Dat van die app server met USB snap ik, maar als je dan de ESXi toer opgaat, dan moet je best practice toch wat zaken wijzigen. Bare-metal enkel het OS en de rest als VM's, ook de DC, DHCP & file server. Of wil je zo'n grote wijzigingen niet doen?

  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

Renderz schreef op donderdag 13 december 2018 @ 07:50:
Dat van die app server met USB snap ik, maar als je dan de ESXi toer opgaat, dan moet je best practice toch wat zaken wijzigen. Bare-metal enkel het OS en de rest als VM's, ook de DC, DHCP & file server. Of wil je zo'n grote wijzigingen niet doen?
Dat is inderdaad de richting die ik op wil.
ESXi installeren (op de huidige server hardware).
Huidig OS (S2016) virtualiseren en alleen de DC daar op houden.
En losse VM's voor al de andere functies. (Dus DHCP en DNS in een VM, File server in een VM, Application server in een VM, SQL in een VM.)

De hoofdvraag is echter,
Hoe ga ik dat qua opslag doen.
de 525GB in Hardware RAID1 (op Intel C612) houden en de 4x 3TB HDD in Hardware RAID5 (op LSI 3108 2GB) houden?

ESXi op de 525GB RAID1 installeren? (Kan ik die 525GB RAID1 dan ook nog gebruiken om de VM's op te installeren?)

De nieuwe, Snelle, datastore moet data bevatten welke nu al 1,3TB is, dus een 2TB SSD lijkt mij t minimum dat ik moet gebruiken.
En ga ik deze dan ook in HW RAID1 (op Intel C612) gebruiken of beter beide los aanbieden en dan in het VM host deze als SW RAID1 aansturen? (zonder VT-D, VT-X of SR-IOV)

Of kan ik nog beter een ZFS bak bouwen voor de snelle data store?

EDIT:
De snelle data store wordt trouwens gebruikt om 3D CAD (inventor) bestanden op te slaan waar 5 constructeurs tegelijk vanaf werken met samenstellingen van 50.000 tot 200.000 items.
Verder zullen er daarnaast nog 17 gebruikers office documenten vanaf halen. (al kunnen die office documenten ook op de RAID5. In dat geval is er 655GB al aan data nu en is 2TB sowieso ruim genoeg)

HellStorm666 wijzigde deze reactie 13-12-2018 08:19 (12%)

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
HellStorm666 schreef op donderdag 13 december 2018 @ 08:15:
[...]

Dat is inderdaad de richting die ik op wil.
ESXi installeren (op de huidige server hardware).
Huidig OS (S2016) virtualiseren en alleen de DC daar op houden.
En losse VM's voor al de andere functies. (Dus DHCP en DNS in een VM, File server in een VM, Application server in een VM, SQL in een VM.)

De hoofdvraag is echter,
Hoe ga ik dat qua opslag doen.
de 525GB in Hardware RAID1 (op Intel C612) houden en de 4x 3TB HDD in Hardware RAID5 (op LSI 3108 2GB) houden?

ESXi op de 525GB RAID1 installeren? (Kan ik die 525GB RAID1 dan ook nog gebruiken om de VM's op te installeren?)

De nieuwe, Snelle, datastore moet data bevatten welke nu al 1,3TB is, dus een 2TB SSD lijkt mij t minimum dat ik moet gebruiken.
En ga ik deze dan ook in HW RAID1 (op Intel C612) gebruiken of beter beide los aanbieden en dan in het VM host deze als SW RAID1 aansturen? (zonder VT-D, VT-X of SR-IOV)

Of kan ik nog beter een ZFS bak bouwen voor de snelle data store?

EDIT:
De snelle data store wordt trouwens gebruikt om 3D CAD (inventor) bestanden op te slaan waar 5 constructeurs tegelijk vanaf werken met samenstellingen van 50.000 tot 200.000 items.
Verder zullen er daarnaast nog 17 gebruikers office documenten vanaf halen. (al kunnen die office documenten ook op de RAID5. In dat geval is er 655GB al aan data nu en is 2TB sowieso ruim genoeg)
Intel C612 heeft geen hardware RAID, maar software RAID en kan dus niet als RAID met ESXi gebruikt worden. Dus als je RAID1 wil gebruiken moeten de SSDs ook op de 3108.
Persoonlijk heb ik meer vertrouwen in een enkele enterprise grade NVMe controller dan consumer SATA drives in RAID1. Intel verkoopt ook ook enterprise grade componenten als pro-sumer devices (900/905p, 750, etc), zelfde PCB, zelfde controller, zelfde flash chips, eigenlijk alleen wat features die je toch niet gebruikt uit in de firmware.

Hoeveel users maken gebruik van de services?

|sWORDs| wijzigde deze reactie 13-12-2018 11:01 (10%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

|sWORDs| schreef op donderdag 13 december 2018 @ 10:54:
[...]

Intel C612 heeft geen hardware RAID, maar software RAID en kan dus niet als RAID met ESXi gebruikt worden. Dus als je RAID1 wil gebruiken moeten de SSDs ook op de 3108.
Persoonlijk heb ik meer vertrouwen in een enkele enterprise grade NVMe controller dan consumer SATA drives in RAID1.

Hoeveel users maken gebruik van de services?
5 constructeurs, 1 jobserver en 17 office users.
Waarbij het office deel gewoon op de 4x 3TB RAID5 blijft.

Alle files worden via een SVN vault methode benaderd (dus eerst door t systeem lokaal opgeslagen).

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
HellStorm666 schreef op donderdag 13 december 2018 @ 11:02:
[...]

5 constructeurs, 1 jobserver en 17 office users.
Waarbij het office deel gewoon op de 4x 3TB RAID5 blijft.

Alle files worden via een SVN vault methode benaderd (dus eerst door t systeem lokaal opgeslagen).
Ik maak me een beetje zorgen over de configuratie:
  • Consumer SATA drives
  • RAID5 (eigenlijk nooit een goed idee)
  • Single Node
  • Backend/Frontend gecombineerd met weinig cores op lage frequency, oude arch (hoge Meltdown/Spectre/L1TF impact
Hardware P states wel aan gezet? Zo niet draai je altijd op 2100MHz:
Frequency 2,100 MHz
Turbo Frequency
3,000 MHz (1 core),
3,000 MHz (2 cores),
2,800 MHz (3 cores),
2,700 MHz (4 cores),
2,600 MHz (5 cores),
2,500 MHz (6 cores),
2,400 MHz (7 cores),
2,300 MHz (8 cores)

|sWORDs| wijzigde deze reactie 13-12-2018 11:18 (28%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

|sWORDs| schreef op donderdag 13 december 2018 @ 11:11:
[...]

Ik maak me een beetje zorgen over de configuratie:
  • Consumer SATA drives
  • RAID5 (eigenlijk nooit een goed idee)
  • Single Node
Geheel terecht.
Het zou een stuk beter kunnen nog.

Al verweer waarom dit wel:
We zijn niet echt een groot bedrijf (22 man totaal)
Consumer sata drives staan in RAID1 dus 1 defect is nog geen probleem
RAID5 is maar met 4 disks
Single node is wel redundant uitgevoerd (dual PSU met elk een eigen UPS, dual LAN, dual CPU)
2x per dag een incremental backup naar een externe schijf.
1x per week een full backup naar externe schijf welke in roulatie is met totaal 3 externe schijven.

Maar tips over hoe ik het nog beter aan kan pakken hoor ik wel graag.
Zeker als we de overstap gaan maken naar ESXi.

EDIT:
Wat zijn de hardware P states? (Ik heb wel de C-states ingesteld)
16-core is vergeleken met de vorige server enorm weel meer (xeon met 4-core)
Hoe stel jij de front/backend verdeling voor? Nu wél het juiste moment voor ons om dat goed te doen.

HellStorm666 wijzigde deze reactie 13-12-2018 11:23 (11%)

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
HellStorm666 schreef op donderdag 13 december 2018 @ 11:17:
[...]

Geheel terecht.
Het zou een stuk beter kunnen nog.

Al verweer waarom dit wel:
We zijn niet echt een groot bedrijf (22 man totaal)
Consumer sata drives staan in RAID1 dus 1 defect is nog geen probleem
RAID5 is maar met 4 disks
Single node is wel redundant uitgevoerd (dual PSU met elk een eigen UPS, dual LAN, dual CPU)
2x per dag een incremental backup naar een externe schijf.
1x per week een full backup naar externe schijf welke in roulatie is met totaal 3 externe schijven.

Maar tips over hoe ik het nog beter aan kan pakken hoor ik wel graag.
Zeker als we de overstap gaan maken naar ESXi.

EDIT:
Wat zijn de hardware P states?
16-core is vergeleken met de vorige server enorm weel meer (xeon met 4-core)
Hoe stel jij de front/backend verdeling voor? Nu wél het juiste moment voor ons om dat goed te doen.
Op hele kleine omgevingen kun je bijna niet anders dan front en backend combineren, maar dan moet je wel maatregelen nemen. De backend voorziet meerdere gebruikers een desktop machine een enkele gebruiker, die laatste mag dus nauwelijks invloed op de eerste hebben.
Hier is een stukje wat ik een tijd geleden geschreven het voor Horizon 7 with VMware Cloud on AWS, maar de principes zijn ook hier van toepassing:
Memory Reservation

As physical memory cannot be shared between VMs and swapping or ballooning should be avoided at all costs all memory should be reserved for all Horizon VMs. A memory reservation on VM-level protects only the consumed physical RAM. Windows zeroes each page available during boot, hitting the full reservation during boot time. Linux, however, only accesses the memory pages it requires.

CPU Reservation

A reservation specifies the guaranteed minimum allocation for a virtual machine.

vCenter allows you to power on a virtual machine only if there are enough unreserved resources to satisfy the reservation of the virtual machine. The server guarantees that amount even when the physical server is heavily loaded. The reservation is expressed in concrete units (megahertz or megabytes).

For example, assume you have 2GHz available and specify a reservation of 1GHz for VM1 and 1GHz for VM2. Now each virtual machine is guaranteed to get 1GHz if it needs it. However, if VM1 is using only 500MHz, VM2 can use 1.5GHz.

Reservation defaults to 0. You can specify a reservation if you need to guarantee that the minimum required amounts of CPU or memory are always available for the virtual machine.

As CPU reservations are shared when not used, for the management components it makes sense to reserve all CPU available. (example for CS:4*CPU frequency, UAG: 2*CPU frequency)
Any VM that serves all users should never be impacted by the load of single user.
For VMs that serve multiple users (like a Remote Desktop Session Host) a higher share could be given. (Example: a 2 vCPU VDI machine serves a single user, a 8 vCPU RDSH serves 28 users, but by default would only get 8/2=4 times the share, so it’s share should be increased by 28/4=7x)


Reservation on VM and Resource Pool

As VM level reservations are only taken into account when a VM is powered on, the reservation could be taken by other VMs when it’s powered off temporarily, setting reservations on both the VM and Resource Pool makes sure this doesn’t happen.
As Resource Pool reservations are for anything in the pool extra VMs added later could take resources required, also setting an expendable reservation at the VM level addresses this and ensures we keep the reservation at HA failover time, which powers the VM on at the (invisible) root resource pool level.

Leveraging CPU Shares for Different Workloads
Because RDS hosts can facilitate more users per vCPU than virtual desktops can, a higher share should be given to them. When desktop VMs and RDS host VMs are run on the same cluster, the share allocation should be adjusted to ensure relative prioritization.
As an example, if an RDS host with 8 vCPUs facilitates 28 users and a virtual desktop with 2 vCPUs facilitates a single user, the RDS host is facilitating 7 times the number of users per vCPU. In that scenario, the desktop VMs should have a default share of 1000, and the RDS host VMs should have a vCPU share of 7000 when not deployed to a separate cluster. This number should also be adjusted to the required amount of resources, which could be different for a VDI virtual desktop session versus a shared RDSH-published desktop session.
Hardware P states (Enhanced Intel SpeedStep) zijn nodig om de turbo te kunnen gebruiken, toevallig heb ik het zusje van jouw bord (X10DRH-iT, identiek, maar dan geen onboard LSI):
Advanced >> CPU Configuration >> Advanced Power Management
Power Technology >> Custom
Energy performance Tuning >> disable
Energy performance BIAS setting >> performance
Energy efficient turbo >> disable

Advanced >> CPU Configuration >> Advanced Power Management >> CPU P state control
EIST (P-States) >> Enable
Turbo mode >> enable
P-state coordination >> HW_ALL

Advanced >> CPU Configuration >> Advanced Power Management >> CPU C state control
Package C-state limit >> C0/C1 state
CPU C3 Report >>disable
CPU C6 report >> enable
Enhanced Halt state >> disable

Dan over hoe ik zoiets zou doen, ik zou 4 kleinere hosts pakken (Xeon E/Xeon E3, zoals E-2124 of E-2126G) met VSAN op NVMe aan twee 10Gbit switches en USB boot. Geen single point of failure en veel betere performance (IOPS, queuedepth en CPU frequency, lagere impact van Spectre/Meltdown door nieuwe architectuur), plus je kunt maintenance doen zonder downtime. Ook zou ik DC, DHCP, DNS, SQL en FS op VM level redundant maken, waarbij je DC, DHCP, DNS combineert.

Ik snap dat dit een beetje anders is dan de aanbeveling die ik meestal in dit topic doe (1 grote host), maar een thuislab is wel iets anders dan een omgeving waarop een bedrijf productie draait.

De voordelen van RAID5 zijn minimaal na aftrek van de nadelen:
  • Schijven sterven vrij vaak vlak na elkaar, voor je de kans hebt gehad er één te vervangen.
  • Door de amplification verlies je een stuk performance. En met SATA drives zit je al met je queuedepth in de knoei.
  • RAID controllers zorgen voor meer fouten dan HBA's.
De combinatie van deze zaken is waarom vrijwel iedereen SAS met RAID10 (aanbevolen) of RAID6 gebruikt.

|sWORDs| wijzigde deze reactie 13-12-2018 15:25 (4%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • Endpoint
  • Registratie: april 2016
  • Laatst online: 17:28
HellStorm666 schreef op woensdag 12 december 2018 @ 16:39:
[...]


De 2x 2TB er bij is omdat de data opslag voor nieuwe Snelle data store server er nog niet was en er bij moet.
Die 3 services/servers (SQL/File en App) is hetgene wat er nieuw bij moet gaan komen.
De App server heeft een USB port nodig ivm licentie, wat in Hyper-V niet gaat.
En op je bare-metal OS zowel DC als Hyper-V als DHCP als normale file storage draaien is ook niet echt de bestel oplossing.
Tuurlijk kan je wel met licentie dongles werken, alleen moet je dan iets van USB anywhere gaan gebruiken. Tevens, 9 van de 10 leveranciers snappen dat er weinig mensen meer bare metal draaien, en kunnen dan ook een normale licentie verschaffen.

Liever €500 aan een USB anywhere, dan verplicht bare metal moeten draaien

  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

Endpoint schreef op donderdag 13 december 2018 @ 13:05:
[...]


Tuurlijk kan je wel met licentie dongles werken, alleen moet je dan iets van USB anywhere gaan gebruiken. Tevens, 9 van de 10 leveranciers snappen dat er weinig mensen meer bare metal draaien, en kunnen dan ook een normale licentie verschaffen.

Liever €500 aan een USB anywhere, dan verplicht bare metal moeten draaien
Met ESXi is het ook mogelijk om een USB port door te geven aan een VM.
Vandaar de overstap van bare-metal met hyper-v naar esxi als optie.

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • Endpoint
  • Registratie: april 2016
  • Laatst online: 17:28
En als je USB anywhere gebruikt, maakt het niet uit op welke host je vm staat, en kan je naar hartenlust vmotion gebruiken.

Persoonlijk zou ik dan eerst horen aan je software leverancier voor een andere licentie

  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

Kan ESXi overweg met de Asus Hyper M2 X16 kaart?
Niet om te booten, maar gewoon als data-store.
https://www.asus.com/nl/M...ories/HYPER-M-2-X16-CARD/

en...
Welke opties heb ik om een RAID1 (of in ieder geval een mirror/duplicatie) te creeëren.
#1 is uiteraard een HW RAID en daarmee maar "1" drive aanbieden binnen ESXi. De HW RAID zorgt dan voor het mirroren.
Maar, kan ESXi ook data mirroren door naar de VM 1 drive aan te bieden, maar in werkelijkheid zijn het 2 drives?
Of is het mogelijk om 2 data-stores naar een VM aan te bieden en dan in die VM (Server 2016) in de disk manager aan te geven dat ie een SW RAID1 moet maken?

En zijn die opties allemaal even veilig?

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • RudolfR
  • Registratie: maart 2011
  • Laatst online: 11:32
Eindelijk weer eens de gelegenheid om een update te proberen van m'n ESXi-server; iets wat ik in het verleden al zonder succes heb geprobeerd:
RudolfR in "Het grote ESXi/vSphere Topic"

Dus vandaag een clean-install van ESXi 6.7.

Heb de native drivers uitgeschakeld en sata-xahci van vfront.de geïnstalleerd, maar het systeem blijft alleen draaien zonder schijf aan de si3112.

code:
1
2
[root@localhost:~] esxcli system module list | grep ahci
vmw_ahci                           false       false


Als ik boot met een schijf aangesloten wordt hangt het systeem tijdens het booten en stopt met antwoorden op de ping.

Zonder schijf wordt de controller wel goed gezien:

code:
1
2
0000:04:00.0 RAID bus controller Mass storage controller: Silicon Image, Inc. SiI 3112 [SATALink/SATARaid] Serial ATA Controller [vmhba1]
         Class 0104: 1095:3112


Aan die controller wil ik nu juist graag mijn datastore hangen; de onboard controller wil ik doorgeven aan een guest.

Tips? Kan ik voorkomen dat die si3112 wordt gezien als raid-type (104), of maakt dat niet uit? Er hangt een enkele SSD aan. Ik begrijp dat die vfront-driver werkt alleen voor type 106?

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 18:48
Zit er niet toevallig een jumper op dat kaartje? Anders kan het zijn dat je andere firmware moet flashen.

Even niets...


  • RudolfR
  • Registratie: maart 2011
  • Laatst online: 11:32
@FireDrunk

Er is plek voor een jumper (jp4); 2 pinnen die nu niet verbonden zijn, maar geen idee wat dat doet.

Zie ook deze foto:
http://i39.tinypic.com/25i0scw.jpg
Bron: https://www.hwupgrade.it/.../index.php/t-1995043.html

JP2 en JP3 zijn bij mij alleen pads/silkscreen en die weerstanden daarnaast zitten er bij mij ook niet op

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 18:48
Hmm, zou ook ledje kunnen zijn. Firmware?

Even niets...


  • RudolfR
  • Registratie: maart 2011
  • Laatst online: 11:32
4.2.27

In 't console (ALT+F12) regent 't (soms) ATA-errors.
Een andere kabel helpt niet.

Edit: Heb overigens dit bord:
pricewatch: MSI B75MA-P45
Tips voor een andere controller voor PCI of PCI 3.0 x16 zijn ook welkom. :+

RudolfR wijzigde deze reactie 14-12-2018 22:18 (144%)


  • RudolfR
  • Registratie: maart 2011
  • Laatst online: 11:32
Via de website heb ik 4.2.84 gevonden.
Kaart overzetten naar een windows-machine en daar updaten?
Als er ook mogelijkheden zijn om te flashen vanuit een Ubuntu live-cd dan heb ik die niet gevonden.

Gaat nieuwe firmware helpen of kan ik beter een andere kaart kopen (met 4x poorten zodat ik die kan doorgeven aan m'n VM).
Bijvoorbeeld: https://www.amazon.de/SAT...-catcorr&keywords=Sil3114

Of zijn er betere alternatieven op de markt?

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 18:48
Je zou specifiek een AHCI firmware moeten flashen denk ik. Als je die kan vinden.

Even niets...


  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

Ik ben de afgelopen 4 dgn flink aan het inlezen en onderzoeken geweest.
Aangezien we niet echt een groot bedrijf zijn (22 man, 1 grote klus per jaar) en down-time van een halve dag (1 a 2x per jaar) geen probleem is, is het investeren in een compleet redundant systeem met (v)SAN en HA niet rendabel.

Wat is de beste optie de we hebben?

Zelf zit ik te denken aan:
vSphere Essentials Plus en dit toe te passen op onze huidige server en de "oude" Dell T610.
En d.m.v. vSphere Replication (of Data Protection?) back-ups te maken van de VM's

Waar ik dan nog wat over twijfel is de RAID1 en RAID5.
Moet ik dit nog wel willen gebruiken (HW op de 3108) of kan ik dit beter sofwarematig doen door de data-stores aan te bieden aan de VM (Windows Server) en hier binnen windows de data-stores in RAID1 te zetten?

Of moet ik misch Starwind Virtual SAN Free in gaan zetten?
(De Disks zullen dan alsnog in de huidige server zitten, en mogelijk ook een set bij de T610 in steken zodat het op 2 plekken neergezet kan worden).


Eisen/specs die ik nu zie:
HA = minimaal 3 fysieke server (A en B en een Observer waarvan Server A en B identiek moeten zijn)
Voor HA is een SAN nodig, welke ivm uitval bescherming ook 2X nodig is.

sp. mijn vraag over de Asus Hyper M2 X16 kaart staat ook nog steeds.

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 18:48
Beste advies wat ik je kan geven is: Hou het simpel, en maak goede backups.
Als je echt kunt vertrouwen op je backups, is de setup van een veel minder groot belang.
Als het maar performed, en je er maar mee kan wat je wil.

Hoe ingewikkelder je je storage setup gaat maken, hoe moeilijker de backups worden, en misschien nog wel belangrijker: hoe moeilijker de restores worden.

Even niets...


  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

FireDrunk schreef op maandag 17 december 2018 @ 14:37:
Beste advies wat ik je kan geven is: Hou het simpel, en maak goede backups.
Als je echt kunt vertrouwen op je backups, is de setup van een veel minder groot belang.
Als het maar performed, en je er maar mee kan wat je wil.

Hoe ingewikkelder je je storage setup gaat maken, hoe moeilijker de backups worden, en misschien nog wel belangrijker: hoe moeilijker de restores worden.
Ok, thnx.
Dit geeft iig al wat geruststelling.

Voor wat betreft de RAID.
Raad je aan wel de HW RAID te blijven gebruiken.
Of gewoon elke disk als een data-store instellen en binnen de VM meerdere data-stores combineren naar een RAID1?

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • Dronium
  • Registratie: januari 2007
  • Laatst online: 18:02
Als ik het goed gezien heb heeft de server een HW Raid controller, dan zou ik zeker voor een HW raid configuratie kiezen. Dat is volgens mij de beste oplossing. Ik heb in de afgelopen 20 jaar best een aantal kapotte disken gezien en vervangen, echter maar een keer mee gemaakt dat een HW raid volledig faalde.
En dat was vanwege een probleem dat bij de leveranciers bekend was, die hadden dat alleen niet gecommuniceerd :(. Een firmware update had de failure kunnen voorkomen.

  • FireDrunk
  • Registratie: november 2002
  • Laatst online: 18:48
@HellStorm666 Op zich kan ik me wel vinden met wat @Dronium zegt. Enterprise grade HW RAID is vaak prima. Perfect gemanagede software RAID kan in theorie beter zijn, maar hoeft niet perse makkelijker in beheer te zijn. Je moet competente beheerders hebben in alle gevallen.

Kies de oplossing waar je het meest vertrouwd mee bent, en test je failure scenario's goed. Ruk een disk uit het systeem, zorg dat je test dat je je piepjes krijgt, en probeer het op te lossen.

Test ook het ultieme doem scenario, en bedenk hoe je dat gaat oplossen.

Welke oplossing het dan ook is, als je hem simpel houdt, en genoeg backups hebt, maakt de rest weinig uit.

Even niets...


  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

Nog een vraag omtrent de opslag.
Een FreeNAS systeem met bijv RAID-Z2 en een totaal van 6x 1TB SSD en deze via iSCIS (nog uitzoeken hoe dat werkt) aangesloten op 10Gbit beschikbaar maken voor ESXi. En dus alle opslag van ESXi (behalve de boot, die op internal USB) op die FreeNAS.

Is dat een goede oplossing?

Kan daarvoor of nieuwe hardware aanschaffen, of de Dell T310 met PERC H200 en 16GB RAM en X3450 cpu gebruiken.

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • Endpoint
  • Registratie: april 2016
  • Laatst online: 17:28
Je zit wel in de goede richting, maar ik denk dat dit snel je boven je pet kan gaan.

Zelf zou ik voor NFS kiezen met VMware, dan ben je wat flexibeler. Leg dit in een laag 2 vlan, waar de rest niet bij kan, dan ben je al qua security ook weer een stapje verder.

Heb je wel eens ESXi geinstalleerd? De installatie is peanuts, maar dan moet je hem nog af configureren. Ga je met 1 host werken, of komt er mogelijk een tweede bij? Ga je vCenter draaien?

Qua backup zou je ook naar Veeam kunnen kijken, hebben een gratis variant.

Heel eerlijk, ik zou een 3de partij vragen om een offerte en een raadgevend advies. Mocht het spul wel klappen, kijk de hele organisatie naar jouw.

  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
HellStorm666 schreef op woensdag 19 december 2018 @ 13:05:
Nog een vraag omtrent de opslag.
Een FreeNAS systeem met bijv RAID-Z2 en een totaal van 6x 1TB SSD en deze via iSCIS (nog uitzoeken hoe dat werkt) aangesloten op 10Gbit beschikbaar maken voor ESXi. En dus alle opslag van ESXi (behalve de boot, die op internal USB) op die FreeNAS.

Is dat een goede oplossing?

Kan daarvoor of nieuwe hardware aanschaffen, of de Dell T310 met PERC H200 en 16GB RAM en X3450 cpu gebruiken.
Ik zie alleen maar nadelen ten opzichte van lokale storage, dubbele SPOF, trager, etc.
HellStorm666 schreef op maandag 17 december 2018 @ 14:31:
Ik ben de afgelopen 4 dgn flink aan het inlezen en onderzoeken geweest.
Aangezien we niet echt een groot bedrijf zijn (22 man, 1 grote klus per jaar) en down-time van een halve dag (1 a 2x per jaar) geen probleem is, is het investeren in een compleet redundant systeem met (v)SAN en HA niet rendabel.
Als volledige redundancy geen optie is dan is converged+backups meestal de beste optie.
HellStorm666 schreef op vrijdag 14 december 2018 @ 09:53:
Kan ESXi overweg met de Asus Hyper M2 X16 kaart?
Niet om te booten, maar gewoon als data-store.
https://www.asus.com/nl/M...ories/HYPER-M-2-X16-CARD/
Dit is een converter, dus niet zichtbaar voor ESXi en werkt dus zolang je board/slot het splitsen van lanes support.

|sWORDs| wijzigde deze reactie 19-12-2018 13:19 (43%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

Endpoint schreef op woensdag 19 december 2018 @ 13:13:
Je zit wel in de goede richting, maar ik denk dat dit snel je boven je pet kan gaan.

Zelf zou ik voor NFS kiezen met VMware, dan ben je wat flexibeler. Leg dit in een laag 2 vlan, waar de rest niet bij kan, dan ben je al qua security ook weer een stapje verder.

Heb je wel eens ESXi geinstalleerd? De installatie is peanuts, maar dan moet je hem nog af configureren. Ga je met 1 host werken, of komt er mogelijk een tweede bij? Ga je vCenter draaien?

Qua backup zou je ook naar Veeam kunnen kijken, hebben een gratis variant.

Heel eerlijk, ik zou een 3de partij vragen om een offerte en een raadgevend advies. Mocht het spul wel klappen, kijk de hele organisatie naar jouw.
We hebben hier op dit moment 3 gratis ESXi omgevingen draaien.
Dus ESXi zelf ben ik wel bekend in.

Wil nu alleen VMware vSphere Essentials Plus Kit aanschaffen om het gewoon netjes te hebben, Data Protection te kunnen gebruiken en vMotion (plus dat dan de UPS wel normaal werkt)

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

|sWORDs| schreef op woensdag 19 december 2018 @ 13:14:
[...]

Ik zie alleen maar nadelen ten opzichte van lokale storage, dubbele SPOF, trager, etc.

[...]

Als volledige redundancy geen optie is dan is converged+backups meestal de beste optie.

[...]

Dit is een converter, dus niet zichtbaar voor ESXi en werkt dus zolang je board/slot het splitsen van lanes support.
|sWORDs| schreef op woensdag 19 december 2018 @ 13:14:
[...]

Ik zie alleen maar nadelen ten opzichte van lokale storage, dubbele SPOF, trager, etc.

[...]

Als volledige redundancy geen optie is dan is converged+backups meestal de beste optie.
de ESXi zou ik redundant kunnen maken. Heb de hier eerder vermelde Supermicro server en een Dell T610. Als ik zo'n shared storage als FreeNAS heb, kan ik HA gebruiken welke normaal op de Supermicro draait en naar de T610 kan in geval van problemen.

Het Board van de supermicro ondersteund t splitsen naar 4x4x4x4

HellStorm666 wijzigde deze reactie 19-12-2018 13:21 (31%)

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
HellStorm666 schreef op woensdag 19 december 2018 @ 13:19:
[...]

de ESXi zou ik redundant kunnen maken. Heb de hier eerder vermelde Supermicro server en een Dell T610. Als ik zo'n shared storage als FreeNAS heb, kan ik HA gebruiken welke normaal op de Supermicro draait en naar de T610 kan in geval van problemen.
En als de FreeNAS machine plat gaat?

4 machines met VSAN en twee switches = 0 SPOFs, capacity 3 machines.
Single machine met local storage = 1 SPOF, capacity 1 machine.
Twee machines + FreeNAS = 2 a 3 SPOFs, capacity 1 (kleinste) machine.

Daarnaast zijn dan je hosts niet balanced, dus hoeveel HA resources heb je dan daadwerkelijk? 2x T610 - overhead.

|sWORDs| wijzigde deze reactie 19-12-2018 13:27 (28%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

|sWORDs| schreef op woensdag 19 december 2018 @ 13:21:
[...]

En als de FreeNAS machine plat gaat?

Daarnaast zijn dan je hosts niet balanced, dus hoeveel HA resources heb je dan daadwerkelijk? 2x T610 - overhead.
De 4x 3TB in RAID5 wil ik in de ESXi kast houden en beschikbaar maken voor de Replication. en daarmee minimaal 1x per dag een replicatie maken van de belangrijke VM's inc vmdx naar die schijf.

In geval van crash FreeNAS systeem kan ik de devices dan naar die 4x 3TB locatie laten wijzen.. (toch?)

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

@|sWORDs| Is het mogelijk om jou advies in te schakelen?
Ik heb het idee dat jij er nogal wat vanaf weet.

De situatie heel kort:
Ik wil een ESXi kast, bij voorkeur die Supermicro kast die we al hebben, waar een aantal VM's op komen.
1x Windows Server 2016 als DC, DHCP en forward-lookup DNS
1x Windows Server 2016 met SQL 2017 als database voor ons PLM pakket
1x Windows Server 2016 voor het PLM pakket

Verder hebben we op dit moment als een aantal ESXi VM's (free versie) draaien met daarop 2x OpenVPN AS, Boekhoud server, Webserver (ubuntu), LiquidFiles server (soort we-transfer), Win7 RDP, Pi-Hole DNS, 3CX telefooncentrale.

Aan hardware dat ik nog ter beschikking heb:
1x Dell T100
2x Dell T310 (1x inc PERC H200)
1x Dell T610 inc PERC H700 en iDRAC
1x Synology 409+
2x Unifi US48
1x Unifi US24-250W
4x UPS waarvan 2x met LAN en 2x met USB

Momenteel bestaat de benodigde opslag uit:
ProductStream Pro (wordt vervangen door ProFile) 2GB Database met 1GB LOG en 260MB temp
655GB aan CAD data (inventor en autocad)
500GB aan belangrijke data (oa office doc)
100GB aan belangrijke foto's
900GB aan minder belangrijke data

Doel:
CAD data en belangrijke data snel en veilig hebben
SQL database snel en veilig houden
PLM pakket werkt met SVN methode.
Gemiddelde samenstelling van een machine waaraan gewerkt wordt is 253MB bestaande uit 1322 bestanden, (1134 items en 17164 onderdelen)
5 CAD constructeurs, 1 Jobserver en 17 Office gebruikers.

Hoe zou je dit inrichten en wat zou je nieuw aanschaffen?

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
HellStorm666 schreef op woensdag 19 december 2018 @ 13:41:
@|sWORDs| Is het mogelijk om jou advies in te schakelen?
Informeel hier, ja.
Formeel: Nee, het is zeer uitzonderlijk dat ik naar klanten ga. Alleen bij EUC projecten van X-XX miljoen die na inzet van Global Support Services en Professional Services dreigen te mislukken en zelfs dan alleen na VP level escalatie. En zelfs als ik ga is het altijd samen met sales of PSO (was ik vroeger zelf), vanuit mijn huidige rol is er geen verzekering. Dus ik vertel wat er moet gebeuren, maar de daadwerkelijke actie ligt dan niet bij mij.

Dell T100: Max 8GB, Intel Wolfsdale/Kentsfield -> Lekker op een schap laten liggen.
Dell T310, Max 32GB, Intel Nehalem -> Niet echt geschikt voor ESXi in 2019.
Dell T610, Max 192GB, Intel Nehalem/Westmere -> Niet geschikt voor ESXi 6.7.
Synology 409+ -> Met 50MB/s niet echt geschikt voor iets behalve backups.

De leeftijd van al deze producten is ook zorgelijk, kun je er nog op aan?

Dus eigenlijk heb je alleen de Supermicro machine, Max 1TB (64GB huidig), Intel Broadwell (16x2.3GHz) en die machine vind ik eigenlijk de verkeerde keuze. Dat hadden beter 4 quad/hex core machines kunnen zijn voor redundantie.

Mocht je daar nou toch mee moeten werken dan lijkt mij de beste optie om de lokale storage aan te pakken en de backups goed te regelen. Geen SATA drives, geen echte consumer drives en geen RAID, plus indien mogelijk geen spinning drives voor de hypervisor.
De storage verplaatsen naar een ander apparaat zorgt eigenlijk alleen maar voor meer risico.

De storage zou ik splitsen in twee zaken: VM storage en data. Die laatste hoeft natuurlijk niet op de hypervisor (mogelijk is er wel een groot voordeel voor de CAD data), maar moet wel meegenomen worden met de backup.

Ik dacht dat je ook VMs voor desktops wilde hebben, maar ik zie dat niet meer terug? Foutieve aanname?

|sWORDs| wijzigde deze reactie 19-12-2018 15:04 (66%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

|sWORDs| schreef op woensdag 19 december 2018 @ 14:08:
[...]

Informeel hier, ja.
Formeel: Nee, het is zeer uitzonderlijk dat ik naar klanten ga. Alleen bij EUC projecten van X-XX miljoen die na inzet van Global Support Services en Professional Services dreigen te mislukken en zelfs dan alleen na VP level escalatie. En zelfs als ik ga is het altijd samen met sales of PSO (was ik vroeger zelf), vanuit mijn huidige rol is er geen verzekering. Dus ik vertel wat er moet gebeuren, maar de daadwerkelijke actie ligt dan niet bij mij.

Dell T100: Max 8GB, Intel Wolfsdale/Kentsfield -> Lekker op een schap laten liggen.
Dell T310, Max 32GB, Intel Nehalem -> Niet echt geschikt voor ESXi in 2019.
Dell T610, Max 192GB, Intel Nehalem/Westmere -> Niet geschikt voor ESXi 6.7.
Synology 409+ -> Met 50MB/s niet echt geschikt voor iets behalve backups.

De leeftijd van al deze producten is ook zorgelijk, kun je er nog op aan?

Dus eigenlijk heb je alleen de Supermicro machine, Max 1TB (64GB huidig), Intel Broadwell (16x2.3GHz) en die machine vind ik eigenlijk de verkeerde keuze. Dat hadden beter 4 quad/hex core machines kunnen zijn voor redundantie.

Mocht je daar nou toch mee moeten werken dan lijkt mij de beste optie om de lokale storage aan te pakken en de backups goed te regelen. Geen SATA drives, geen echte consumer drives en geen RAID, plus indien mogelijk geen spinning drives voor de hypervisor.
De storage verplaatsen naar een ander apparaat zorgt eigenlijk alleen maar voor meer risico.

De storage zou ik splitsen in twee zaken: VM storage en data. Die laatste hoeft natuurlijk niet op de hypervisor (mogelijk is er wel een groot voordeel voor de CAD data), maar moet wel meegenomen worden met de backup.

Ik dacht dat je ook VMs voor desktops wilde hebben, maar ik zie dat niet meer terug? Foutieve aanname?
Ok, duidelijk. De supermicro is dus de enige die over blijft.
Wat bedoel je met geen RAID? hoe moet ik dan redudantie in de SSD's bouwen?
Stel dat een SSD (denk NVMe via de Asus Hyper M.2) defect raakt... en dan?

Desktop op VM is niet nodig. Elke gebruiker heeft gewoon een eigen systeem (laptop of desktop of workstation)

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • |sWORDs|
  • Registratie: maart 2000
  • Nu online
HellStorm666 schreef op woensdag 19 december 2018 @ 16:48:
[...]


Ok, duidelijk. De supermicro is dus de enige die over blijft.
Wat bedoel je met geen RAID? hoe moet ik dan redudantie in de SSD's bouwen?
Stel dat een SSD (denk NVMe via de Asus Hyper M.2) defect raakt... en dan?

Desktop op VM is niet nodig. Elke gebruiker heeft gewoon een eigen systeem (laptop of desktop of workstation)
RAID op NVMe is nauwelijks mogelijk en in elk geval niet op dat systeem. Dan is er nog het probleem dat RAID controllers vaker problemen veroorzaken dan HBAs of directe controllers en dan vaak op alle disks of de controller zelf.

De vraag is dus of een enkele NVMe drive slechter is dan twee SAS/SATA SSDs achter een RAID controller.
Als ik mijn geld moet zetten op een Intel 750/P3700/900p/P4800X of twee crucial SATA drives achter een LSI in RAID1 dan weet ik het wel.

Gaat het stuk dan vervang je de disk en zet je de backup terug.

NVMe via de Asus Hyper M.2 is waarschijnlijk een slecht idee, dat klinkt alsof je M.2 drives wil gaan gebruiken. Wat wel kan is U.2 adapters erop zetten en dan zoiets:
https://www.ebay.nl/itm/I...LC-Brown-Box/223270800586

|sWORDs| wijzigde deze reactie 19-12-2018 18:24 (25%)

V&A:24 Core Xeon E5 v4, 256GB ECC met dual 10Gbit upgradeset


  • KRGT
  • Registratie: september 2001
  • Niet online

KRGT

Have a nice day!

Maar is het niet beter om 1x (of 2x) een (19") Synology te kopen voor de storage kant en deze in sync laten zijn.
655GB aan CAD data (inventor en autocad)
500GB aan belangrijke data (oa office doc)
100GB aan belangrijke foto's
900GB aan minder belangrijke data
Voor de VM's kan je dan 2x ESX nemen met local storage en de back-up wegschrijven naar de Synology (alsnog een licentie nodig voor esx i.v.m. back-up)

De Synology's kunnen ook wat zaken overnemen, zoals OpenVPN etc. en de juiste Synology heeft ondersteuning voor 10Gbit/s netwerk.

Voordeel is dat je geen fileservers meer hoeft te virtualiseren.

Ik geef even Synology's aan, maar gaat om het idee van een NAS met ondersteuning van de fabrikant.

  • Endpoint
  • Registratie: april 2016
  • Laatst online: 17:28
Zonder budget is het zoiezo allemaal lastig voor te schrijven?

Wat voor Server licenties zijn er? We hebben het vaak over spof voor de hardware, maar één DC is ook wat om zorgen over te maken.

Mooiste is inderdaad een oplossing als vsan, maar een Netapp oid kan dit ook. De bij mekaar gezochte hardware moet ook allemaal maar op de HCL van VMware staan, plus als je ooit een 3de partij ingeschakeld deze ook eerst alles uit moet zoeken

  • jadjong
  • Registratie: juli 2001
  • Laatst online: 12:16
HellStorm666 schreef op maandag 17 december 2018 @ 14:31:
Ik ben de afgelopen 4 dgn flink aan het inlezen en onderzoeken geweest.
Aangezien we niet echt een groot bedrijf zijn (22 man, 1 grote klus per jaar) en down-time van een halve dag (1 a 2x per jaar) geen probleem is, is het investeren in een compleet redundant systeem met (v)SAN en HA niet rendabel.

Wat is de beste optie de we hebben?

Zelf zit ik te denken aan:
vSphere Essentials Plus en dit toe te passen op onze huidige server en de "oude" Dell T610.
En d.m.v. vSphere Replication (of Data Protection?) back-ups te maken van de VM's

Waar ik dan nog wat over twijfel is de RAID1 en RAID5.
Moet ik dit nog wel willen gebruiken (HW op de 3108) of kan ik dit beter sofwarematig doen door de data-stores aan te bieden aan de VM (Windows Server) en hier binnen windows de data-stores in RAID1 te zetten?

Of moet ik misch Starwind Virtual SAN Free in gaan zetten?
(De Disks zullen dan alsnog in de huidige server zitten, en mogelijk ook een set bij de T610 in steken zodat het op 2 plekken neergezet kan worden).


Eisen/specs die ik nu zie:
HA = minimaal 3 fysieke server (A en B en een Observer waarvan Server A en B identiek moeten zijn)
Voor HA is een SAN nodig, welke ivm uitval bescherming ook 2X nodig is.

sp. mijn vraag over de Asus Hyper M2 X16 kaart staat ook nog steeds.
Ik zou twee machines neerzetten en daar de zooi over verdelen. Wat je links draait backup je naar rechts en vice versa. Gaat links stuk dan kan je tijdelijk verder werken vanaf backup op rechts. Vcenter parkeer je dan op een 3e machine, eventueel jouw werkstation.

  • HellStorm666
  • Registratie: april 2007
  • Laatst online: 16:25

HellStorm666

GSX-R 1000 L0 + A4 Avant B8

|sWORDs| schreef op woensdag 19 december 2018 @ 18:14:
[...]

RAID op NVMe is nauwelijks mogelijk en in elk geval niet op dat systeem. Dan is er nog het probleem dat RAID controllers vaker problemen veroorzaken dan HBAs of directe controllers en dan vaak op alle disks of de controller zelf.

De vraag is dus of een enkele NVMe drive slechter is dan twee SAS/SATA SSDs achter een RAID controller.
Als ik mijn geld moet zetten op een Intel 750/P3700/900p/P4800X of twee crucial SATA drives achter een LSI in RAID1 dan weet ik het wel.

Gaat het stuk dan vervang je de disk en zet je de backup terug.

NVMe via de Asus Hyper M.2 is waarschijnlijk een slecht idee, dat klinkt alsof je M.2 drives wil gaan gebruiken. Wat wel kan is U.2 adapters erop zetten en dan zoiets:
https://www.ebay.nl/itm/I...LC-Brown-Box/223270800586
Ok duidelijk.
Een goede backup waar je altijd op kan vertrouwen is uiteraard een stap 1.

Kort samenvattend adviseer jij het volgende als ik het goed begrijp.

Intel 750/P3700/900p/P4800X aanschaffen en daar de CAD opslag op. (Die P3700 die je linkte sluit je aan op een PCIe port?)
ESXi op een dual-usb?
Disks niet in RAID (wel aangesloten laten op de LSI 3108 2GB? of op de interne Sata-port?)
De Crucials alleen gebruiken voor data wat minder belangrijk is, of goed gebackupped.

Wat vind je van de HP Z Turbo Drive, Seagate Nytro XF1440 of Intel DC P3520?
jadjong schreef op woensdag 19 december 2018 @ 21:57:
[...]

Ik zou twee machines neerzetten en daar de zooi over verdelen. Wat je links draait backup je naar rechts en vice versa. Gaat links stuk dan kan je tijdelijk verder werken vanaf backup op rechts. Vcenter parkeer je dan op een 3e machine, eventueel jouw werkstation.
Dit idee bevalt me opzich ook wel. Waarbij t 2e systeem natuurlijk een stuk minder zwaar hoeft te zijn (in geval van tijdelijk alles op 1 draaien is het niet erg dat het trager is).

Dat Vcenter, dat moet toch altijd draaien? Mijn werkstation is een laptop en gaat ook geregeld voor 4wkn mee naar t buitenland.
Maar een simpel systeempje moet dit toch wel kunnen?

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666


  • Endpoint
  • Registratie: april 2016
  • Laatst online: 17:28
2 zo goed als identieke hosts, HA op het cluster. Beide hosts niet meer dan 50% procent van hun capaciteit, dat als je een outage van 1 host heb of onderhoud, dat je gewoon op normale kracht door kan draaien.

ESX draait gewoon door zonder vCenter, en deze kan gewoon mee op de ha van het cluster
Pagina: 1 ... 15 16 17 Laatste


OnePlus 7 Microsoft Xbox One S All-Digital Edition LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Sony PlayStation 5

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True