Acties:
  • +4 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 15:57
ThinkPadd schreef op donderdag 25 mei 2017 @ 08:44:
Gistermiddag m'n ESXi host down moeten gooien (extra geheugen geinstalleerd). Gisteravond heeft hij netjes de backupjob weer gedraaid, dus de xsibackup entry in de cron overleeft een reboot :)
Hierbij nog m'n config voor xsibackup, mocht iemand het kunnen gebruiken:

code: xsibackup-cron
1
2
3
4
5
6
7
8
9
10
11
12
13
14
#!/bin/sh
# This is your XSIBackup crontab, you can add your backup schedules here
# You can use regular XSIBackup commands appending the parameter --time="Day HH:mm", i.e. --time="Mon 21:57"
# The --time format is compounded by three letters weekday acronym (Mon,Tue,Wed,Thu,Fri,Sat,Sun) + space + hh:mm
# You can add multiple "moments" in a --time argument separated by a pipeline | like: Mon 17:31|Tue 21:33|Sun 19:21
#
# See manpage for more explanation on parameters: https://33hops.com/xsibackup-help-man-page.html
#
############# This actually deletes backups older than 3 days #####################

find /vmfs/volumes/Synology/* -maxdepth 1 -type d -mtime +3 -exec rm -rf {} \;

############ Backup schedule(s) ###################################################
"/vmfs/volumes/Crucial_250GB_SSD/xsi-dir/xsibackup" --time="Mon 21:30|Tue 21:30|Wed 21:30|Thu 21:30|Fri 21:30|Sat 21:30|Sun 21:30" --backup-point="/vmfs/volumes/Synology" --backup-type=custom --date-dir=yes --backup-vms="Unifi,Domotica,HomeAssistant,InfluxGrafana,MQTT,pfSense,OTGW,W10" --mail-from=jouwadres@gmail.com --mail-to=jouwadres@gmail.com --smtp-srv=smtp.gmail.com --smtp-port=465 --smtp-usr=jouwadres@gmail.com --smtp-pwd=jouwwachtwoordhier

Let op! De tijden zijn in UTC. De 21:30 in mijn script is dus +2 = 23:30 lokale tijd


Resultaat:
code:
1
2
3
4
5
6
7
8
9
10
/vmfs/volumes/Synology/
/vmfs/volumes/Synology/20170604080603
/vmfs/volumes/Synology/20170604080603/Domotica
/vmfs/volumes/Synology/20170604080603/W10
/vmfs/volumes/Synology/20170604080603/OTGW
/vmfs/volumes/Synology/20170604080603/InfluxGrafana
/vmfs/volumes/Synology/20170604080603/MQTT
/vmfs/volumes/Synology/20170604080603/pfSense
/vmfs/volumes/Synology/20170604080603/HomeAssistant
/vmfs/volumes/Synology/20170604080603/Unifi


De 'Synology' datastore, is zoals de naam al doet vermoeden, m'n Synology. Heb deze via NFS gemount binnen ESXi.

Gaat lekker makkelijk zo en kost helemaal niks :)

Acties:
  • 0 Henk 'm!

  • Le Enfant!
  • Registratie: Juli 2012
  • Laatst online: 13-09 16:54
Ik heb een eigen topic gemaakt voor mijn zoektocht naar een home-server. Als er iemand bereidt is om me te helpen, je vindt het hier: Le Enfant! in "Aankoop Home-server"

Naar aanleiding van een discussie in het DIY nas thread zou het fijn zijn moesten er mensen reageren met ervaring in FreeNas i.c.m. ESXi.

Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Guys (and girls zo ver aanwezig :+ ),

Ik heb jullie hulp en advies nodig. Voor mijn gevoel heb ik wat last van tunnelvisie en zie ik door de bomen het bos niet meer.

Momenteel heb ik een RAID5 oplossing in een 1U behuizing met de volgende hardware:
#ProductPrijsSubtotaal
1Intel Pentium G4560 Boxed€ 65,-€ 65,-
1ASRock H270M-ITX/ac€ 120,35€ 120,35
4Seagate Laptop HDD, 4TB€ 192,95€ 771,80
1Silverstone Argon SST-AR04€ 28,50€ 28,50
1Crucial CT16G4DFD8213€ 112,75€ 112,75
1Mini-box picoPSU-150-XT€ 54,70€ 54,70
1Seasonic Power Adapter 60 Watt (12V)€ 28,99€ 28,99
Bekijk collectie
Importeer producten
Totaal€ 1.182,09


VM's die daar op draaien:
- Router/Firewall
- NAS (XPenology)
- Debian (TVHeadend)
- Debian (Domoticz)
- Debian (Camera recording)

Ik maak gebruik van de AHCI/SATA controller (NAS) en 1 NIC (Firewall) middels passthrough en minstens 3 USB devices op 2 VM's.


Wat wil ik realiseren (denk ik):
Site primair (meterkast) + "Offsite" back-up en/of failover? (schuur). Maar wat is nu wijsheid?

Speelgoed welke ik beschikbaar heb:
#ProductPrijsSubtotaal
1Intel Pentium G4560 Boxed€ 65,-€ 65,-
2Intel Xeon E5-2620 v4 Boxed€ 441,20€ 882,40
1ASRock H270M-ITX/ac€ 120,35€ 120,35
1ASRock X99M Extreme4€ 218,01€ 218,01
1Supermicro X10DRL-iT (Retail Pack)€ 490,75€ 490,75
2Seagate IronWolf, 8TB€ 262,17€ 524,34
4Seagate Laptop HDD, 4TB€ 192,95€ 771,80
1Crucial CT16G4DFD8213€ 112,75€ 112,75
1Kingston KTH-PL424/32G€ 367,95€ 367,95
2Kingston KTH-PL424S/16G€ 180,95€ 361,90
1Samsung SM961 256GB€ 131,39€ 131,39
1Samsung SM961 512GB€ 280,50€ 280,50
Bekijk collectie
Importeer producten
Totaal€ 4.327,14

Voedingen en koeling heb ik achterwege gelaten in dit overzicht. Maar mijn vraag is eerder, Wat is nu de meest efficiënte/wijze opzet om 2 sites te realiseren?
Ik kan uit de voeten als primair met de G4560, maar heb veel meer hardware beschikbaar welke nu niets doen. Daarnaast wil ik ook nog wel een beetje efficiëntie op gebied van energie in het achterhoofd houden.

Hoop dat iemand mij wat advies kan geven! Niet alleen kwa hardware maar ook kwa opzet/replicatie offsite.

[ Voor 3% gewijzigd door renedis op 12-06-2017 13:28 ]


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 31-08 22:00
renedis schreef op maandag 12 juni 2017 @ 12:21:
Guys
[...]
Hoop dat iemand mij wat advies kan geven! Niet alleen kwa hardware maar ook kwa opzet/replicatie offsite.
Laten we eerst eens kijken naar de VM's en dan kijken naar de hardware.
  1. De router en NAS zou je in HA (ik heb het over pfSense en Synology HA, niet vSphere) kunnen draaien.
  2. De USB devices gaan denk ik naar Headend en Domotics? Zou daar iets als USB->Ethernet mee kunnen en vSphere HA?
  3. Waarom gaan je camera recordings niet naar XPenology?
  4. Heb je glasvezel?

[ Voor 5% gewijzigd door |sWORDs| op 12-06-2017 13:06 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
|sWORDs| schreef op maandag 12 juni 2017 @ 12:58:
[...]

Laten we eerst eens kijken naar de VM's en dan kijken naar de hardware.
  1. De router en NAS zou je in HA (ik heb het over pfSense en Synology HA, niet vSphere) kunnen draaien.
  2. De USB devices gaan denk ik naar Headend en Domotics? Zou daar iets als USB->Ethernet mee kunnen en vSphere HA?
  3. Waarom gaan je camera recordings niet naar XPenology?
  4. Heb je glasvezel?
Met passthrough kan ik toch geen HA realiseren? USB devices gaan idd naar TVHeadend en Domoticz.
TVHeadend:
- 1x USB cardreader

Domoticz:
- 1x RFXcom transceiver
- 1x ZWave tranceiver

Als Domoticz even tijdelijk plat ligt dan is dat geen ramp, ik kan namelijk altijd nog alles handmatig bedienen in huis. Plat liggen van TVHeadend is een ander verhaal. Hier kijken wij TV mee en als dat plat ligt hangt mijn vrouw aan de telefoon. Ook al is ze redelijk handig (ze kan met de vSphere client overweg) wilt ze eigenlijk niet rotzooien aan een setup.

Anderzijds, het is nu ook al een SPOF en het ligt vrijwel nooit plat tot nu toe.
Desgewenst heb ik ook nog een Pi2 liggen waar ik Domoticz op kan draaien.

Camera recording gaat via een eigen VM omdat de camera's die ik heb niet ondersteund zijn door Synology. In de camera VM heb ik een NFS koppeling gemaakt om het uiteindelijk toch op m'n normale storage te laten landen.

Ik heb geen glasvezel op dit moment maar een 300/30 Ziggo verbinding. Het ziggo modem staat in bridge modus dus het gebruik van een firewall is zeer gewenst.

Side-Note: Netto wil ik minimaal 8TB aan storage hebben. Dit moet geen probleem zijn denk ik.


Vergeten te melden:

Ik heb ook nog deze 2 beschikbaar (volledige lijst ook aangepast):
#ProductPrijsSubtotaal
1Samsung SM961 256GB€ 131,39€ 131,39
1Samsung SM961 512GB€ 280,50€ 280,50
Bekijk collectie
Importeer producten
Totaal€ 411,89

[ Voor 1% gewijzigd door renedis op 12-06-2017 13:29 . Reden: Toevoeging ]


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 31-08 22:00
renedis schreef op maandag 12 juni 2017 @ 13:27:
[...]


Met passthrough kan ik toch geen HA realiseren? USB devices gaan idd naar TVHeadend en Domoticz.
TVHeadend:
- 1x USB cardreader
Ik heb het niet over vSphere HA, maar je kunt toch high availability doen met twee pfSense VM's en twee XPenology VM's? Echter heeft dit qua router weinig zin als je meterkast plat ligt inclusief je Ziggo modem. (UPS?)
https://doc.pfsense.org/index.php/High_Availability
https://www.synology.com/...uration_with_Synology_NAS

Met USB passthrough kun je geen vSphere HA gebruiken, maar als je dat via ethernet doet wel.
https://www.digi.com/pdf/fs_realportusb.pdf

[ Voor 13% gewijzigd door |sWORDs| op 12-06-2017 13:36 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
|sWORDs| schreef op maandag 12 juni 2017 @ 13:35:
[...]


Ik heb het niet over vSphere HA, maar je kunt toch high availability doen met twee pfSense VM's en twee XPenology VM's? Echter heeft dit qua router weinig zin als je meterkast plat ligt inclusief je Ziggo modem. (UPS?)
https://doc.pfsense.org/index.php/High_Availability
https://www.synology.com/...uration_with_Synology_NAS

Met USB passthrough kun je geen vSphere HA gebruiken, maar als je dat via ethernet doet wel.
https://www.digi.com/pdf/fs_realportusb.pdf
Ik snap je nu denk ik. De HA van XPenology en PfSense doe je dan op VM niveau, hosts zelf blijven een single setup.

DHCP e.d. in PfSense zou dan allemaal nog werken maar in geval van down zijn aan primaire site (meterkast) ivm ISRA zou ik enkel geen internet hebben als het overschakelt in site 2 (schuur). Alles onderbrengen in primaire site (meterkast) is namelijk geen optie ivm ruimte gebrek.

Toevallig nog advies over de in te richten data provisie?
Of gewoon lekker 2x XPenology VM met de ene RAID10 (4x 4TB) en ander RAID1 (2x 8TB).

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
Wil je *al* je data redundant hebben op beide locaties?

Wil je echt failover met minimale downtime, zonder interventie, of mag er even iets met de hand opgestart moeten worden?

Welke functionaliteiten wil failoveren, praat niet in VM's, maar in functies.

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 31-08 22:00
renedis schreef op maandag 12 juni 2017 @ 13:42:
[...]


Ik snap je nu denk ik. De HA van XPenology en PfSense doe je dan op VM niveau, hosts zelf blijven een single setup.

DHCP e.d. in PfSense zou dan allemaal nog werken maar in geval van down zijn aan primaire site (meterkast) ivm ISRA zou ik enkel geen internet hebben als het overschakelt in site 2 (schuur). Alles onderbrengen in primaire site (meterkast) is namelijk geen optie ivm ruimte gebrek.

Toevallig nog advies over de in te richten data provisie?
Of gewoon lekker 2x XPenology VM met de ene RAID10 (4x 4TB) en ander RAID1 (2x 8TB).
Ik doe het zelf ook ongeveer zo. Ik heb 3 hosts, waarvan twee in een VSAN cluster en een met local storage.
Alles wat ik draai zijn minimaal twee (sommige drie) instances van, eentje op het VSAN cluster en eentje op local storage.
  • pfSense (Primary/Backup) - Routing/Firewall/Loadbalancer
  • Xpenology (Primary/Backup) - Data/Backup
  • Domain controller (DC1/DC2/DC3) - AD/DHCP/DNS
  • vCenter (Standaard, Failover en Witness)
  • SQL (Primary/Failover) - DB
  • Unified Access Gateway (UAG1/UAG2/UAG3) - External reverse proxy
  • View (CS1/CS2/CS3) - Broker
  • AppVolumes (AV1/AV2/AV3) - Applicaties
  • Identity Manager (vIDM1/vIDM2/vIDM3) - Authentication/Frontend
  • RDSH en VDI ook op cluster en standalone
Dus er mag een host plat of zelfs twee plus mijn shared storage plat en 99% (De overige 1% kan niet in HA en doet er niet toe, Composer, VSAN Witness, vCenter HTML5 Webclient en die draaien dan natuurlijk in het HA cluster) van de omgeving blijft draaien.

[ Voor 16% gewijzigd door |sWORDs| op 12-06-2017 14:13 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
@FireDrunk Ik wil m'n data in ieder geval veilig hebben op een andere locatie. Netto verstook ik nu zo'n 7TB aan data.

De schuur is dan voor mij een logische locatie. Ik heb daar 2x CAT6 kabel naar toe liggen.
Downtime mag aanwezig zijn zolang de data maar veilig is, evenals handmatige acties.
Zolang het remote beschikbaar is/blijft mag downtime voor TVHeadend 60 min bedragen. Indien "on-site" actie nodig dan is het pech voor vrouwlief en moet ze wachten tot einde dag. Mijn vrouw kan uiteraard zelf een USB device oid verplaatsen maar het configureren zie ik haar niet echt doen. Ach ja, ik heb een strakke SLA bij haar :')

Toen we overstapte op TVHeadend was haar eis dat het gewoon moest werken ipv de reguliere coax constructie. Ik heb toen redelijk dikke hardware gekocht naar mijn mening en nu moet ik daar wel profijt van opleveren ;)


@|sWORDs| is VSAN wel een optie in mijn geval? Of iets van SAN diskprovisie via NFS en 2x een ESXi bak in HA laten draaien? Dan is enkel mn SAN een SPOF..

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 31-08 22:00
renedis schreef op maandag 12 juni 2017 @ 14:06:
[...]


@|sWORDs| is VSAN wel een optie in mijn geval? Of iets van SAN diskprovisie via NFS en 2x een ESXi bak in HA laten draaien? Dan is enkel mn SAN een SPOF..
Nee, ik laat zien wat ik doe, maar met twee nodes die local storage gebruiken en iSCSI/NFS vanaf XPenology voor vSphere HA VM's heb je hetzelfde principe.

Je wil alleen zo min mogelijk shared storage gebruiken, dus alles wat zelf HA kan zou ik eerder daarvoor kiezen.

[ Voor 11% gewijzigd door |sWORDs| op 12-06-2017 14:12 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Dan kan ik denk ik beter single host met offsite backup realiseren.

Iets in de vorm van:

Primair (meterkast):
- Single host met 1x of 2x CPU en local SSD 512GB storage.
- XPenology met PCI passthrough van AHCI/SATA controller + 4x 4TB.
- Firewall VM - HA
- Domoticz VM - HA
- TVHeadend VM
- Camera VM - HA

Offsite (schuur):
- Single host met 1x CPU (G4560) en local SSD 256GB storage.
- XPenology met PCI passthrough van AHCI/SATA controller + 2x 8TB --> replicatie/HA
- Firewall VM - HA
- Domoticz VM - HA
- TVHeadend VM
- Camera VM - HA

rPi2:
- Domoticz - HA (hier USB devices op aansluiten)


- Mocht primair dan uitvallen is mijn data nog veilig via HA opzet met XPenology.
- Firewall VM in HA zo dat lokaal alles netwerktechnisch beschikbaar blijft. Enkel WAN en netwerkswitch blijven SPOF wat acceptabel is.
- Domoticz USB devices gaan via rPi2 zo dat ik daar geen afhankelijkheid van heb. Domoticz blijft HA indien rPi2 uitvalt, enkel commando's kunnen niet uitgevoerd worden, logging blijft actief.
- TVHeadend VM vergt handmatige USB actie. Wellicht een 2e cardreader aanschaffen + 2e irdeto Ziggo kaart (als ze deze nog uitgeven). Enige handmatige actie is dan een IP wijziging.
- Camera VM zal middels "Remote ZoneMinder Device" werken, HA is dus mogelijk.


Of voor de SAN setup:
Meterkast site + Schuur site op ESXi niveau in HA en XPenology bare-metal met alle disks en SSD caching (of ander OS) als SAN middels NFS.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 31-08 22:00
Bij die laatste is de NAS de SPOF en zal disk IO niet geweldig zijn tenzij je naar 10Gbit kijkt.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
10Gbit is een flinke investering :P Erg leuk maar niet rendabel voor nu :')

Thanks voor de info. Ik heb weer een beetje een richtingsgevoel.

Acties:
  • 0 Henk 'm!

  • marc1982
  • Registratie: Oktober 2002
  • Laatst online: 08-06 19:35
Allen,

Na een mooi tijdje meelezen heb ik besloten dat ik ook wat wil gaan aanschaffen.
Met als doelen: hobby-en & bestaande taken overnemen van m'n desktop en nas.

Huidige situatie:

Nas (DS213+)
  • Opslag
  • Backup (amazon cloud drive)
  • Openvpn server
  • Sync opnamen van humax decoder (af te spelen op andere apparaten binnen het netwerk)
  • Backup van verschillende raspberry pi's (1x sonarr, 2x osmc / kodi)
  • CouchPotato
  • Kodi DB (MySql)
  • Cloud Station (deels vervangen door sync thing, zie hieronder meer)
  • Spotweb (nog up & running, maar buiten gebruik)
  • Sabnzbd (aangestuurd door Sonarr & CouchPotato)
Desktop
  • Gaming
  • Sabnzbd (ad-hoc, voor als het sneller mag / moet)
  • Syncthing - gezien het niet draait op de nas, en op android syncthing beter bevalt dan ds cloud,
  • cloud station verzorgt nog wel de sync tussen nas en pc.
  • Algemeen gebruik (internet, office etc)
  • Vmware workstation (hier begint het interessant te worden):
Esxi (8 GB geheugen toegekend)
- Windows 10 - Crashplan (voor uitgaande en inkomende backups)
- Ubuntu mate (torrents)
- Xpenology (wat uitproberen met syncthing en docker, leuk speelgoed)

De desktop bevat 16GB aan geheugen, wat op zich voldoende is, alleen niet in combi met het draaien van de esxi vm (bij zwaarder gebruik - bijvoorbeeld gamen - gaat esxi uit), hier wil ik vanaf.

Ik wil een server neerzetten die:
  • de huidige vm's binnen Esxi kan draaien, hierbij wil ik Xpenology de taken van de nas laten overnemen
  • Hier wil ik de sata schijf doorgeven aan de xpenology vm, en de vm's zelf op de nvme schijf zetten.
  • ruimte (in de vorm van opslag en performance) heeft om nog wat vm's erbij te kunnen draaien in de toekomst
  • als plex server kan dienen, danwel middels docker in xpenology of erbij op de win 10 machine
  • Mijn vermoeden is dat deze laatste niet heel royaal geschaald hoeft te worden, omdat ik bij beide tv's een rpi 2 of 3 er aan hang met rasplex (minder transcoding nodig, alleen op mobiele devices).
Ik heb wat voorbeelden uit dit topic (start en posts) gecombineerd, niet heel spannend / experimenteel overigens, en tot de volgende setup gekomen:

#ProductPrijsSubtotaal
1Intel Pentium G4560 Boxed€ 65,-€ 65,-
1Supermicro X11SSL-F€ 192,75€ 192,75
1WD Red WD40EFRX, 4TB€ 140,-€ 140,-
1Supermicro 731I-300€ 104,88€ 104,88
1Kingston KTH-PL424S/16G€ 180,95€ 180,95
1Intel 750 SSD Half Height PCIe 3.0 x4 400GB€ 318,50€ 318,50
Bekijk collectie
Importeer producten
Totaal€ 1.002,08


Hierbij is het hele systeem samengesteld met het oog op groei in de vorm van HD's en geheugen (maar om de aanschafprijs schappelijk te houden nu minimaal gelaten).
De enige twijfel die ik heb is of ik spijt ga krijgen van de processor, een stap omhoog is een stuk duurder, maar als ik dat nodig heb is het zonde om die over een half jaar te kopen en 60 euro weg te gooien.
Ik zat als alternatief te denken aan:

#ProductPrijsSubtotaal
1Intel Xeon E3-1245 v5 Boxed€ 307,-€ 307,-
Bekijk collectie
Importeer producten
Totaal€ 307,-


Gezien ik hier (het hele virtualisatie en esxi gebeuren) vrij blanco in sta en nog niet veel kennis van heb laat ik me graag adviseren in:

- de processor keuze (zou de g4560 dit aankunnen als de belasting op plex niet te zwaar is?)
- mogelijkheden die ik met deze setup misloop in de vorm van passthrough of iets in die richting
- al het andere dat in jullie opkomt na het lezen van dit hele verhaal, en schiet vooral af waar nodig :)

Alvast bedankt voor de reacties!

Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
marc1982 schreef op donderdag 15 juni 2017 @ 22:20:
Allen,

Na een mooi tijdje meelezen heb ik besloten dat ik ook wat wil gaan aanschaffen.
Met als doelen: hobby-en & bestaande taken overnemen van m'n desktop en nas.

Huidige situatie:

Nas (DS213+)
  • Opslag
  • Backup (amazon cloud drive)
  • Openvpn server
  • Sync opnamen van humax decoder (af te spelen op andere apparaten binnen het netwerk)
  • Backup van verschillende raspberry pi's (1x sonarr, 2x osmc / kodi)
  • CouchPotato
  • Kodi DB (MySql)
  • Cloud Station (deels vervangen door sync thing, zie hieronder meer)
  • Spotweb (nog up & running, maar buiten gebruik)
  • Sabnzbd (aangestuurd door Sonarr & CouchPotato)
Desktop
  • Gaming
  • Sabnzbd (ad-hoc, voor als het sneller mag / moet)
  • Syncthing - gezien het niet draait op de nas, en op android syncthing beter bevalt dan ds cloud,
  • cloud station verzorgt nog wel de sync tussen nas en pc.
  • Algemeen gebruik (internet, office etc)
  • Vmware workstation (hier begint het interessant te worden):
Esxi (8 GB geheugen toegekend)
- Windows 10 - Crashplan (voor uitgaande en inkomende backups)
- Ubuntu mate (torrents)
- Xpenology (wat uitproberen met syncthing en docker, leuk speelgoed)

De desktop bevat 16GB aan geheugen, wat op zich voldoende is, alleen niet in combi met het draaien van de esxi vm (bij zwaarder gebruik - bijvoorbeeld gamen - gaat esxi uit), hier wil ik vanaf.

Ik wil een server neerzetten die:
  • de huidige vm's binnen Esxi kan draaien, hierbij wil ik Xpenology de taken van de nas laten overnemen
  • Hier wil ik de sata schijf doorgeven aan de xpenology vm, en de vm's zelf op de nvme schijf zetten.
  • ruimte (in de vorm van opslag en performance) heeft om nog wat vm's erbij te kunnen draaien in de toekomst
  • als plex server kan dienen, danwel middels docker in xpenology of erbij op de win 10 machine
  • Mijn vermoeden is dat deze laatste niet heel royaal geschaald hoeft te worden, omdat ik bij beide tv's een rpi 2 of 3 er aan hang met rasplex (minder transcoding nodig, alleen op mobiele devices).
Ik heb wat voorbeelden uit dit topic (start en posts) gecombineerd, niet heel spannend / experimenteel overigens, en tot de volgende setup gekomen:

#ProductPrijsSubtotaal
1Intel Pentium G4560 Boxed€ 65,-€ 65,-
1Supermicro X11SSL-F€ 192,75€ 192,75
1WD Red WD40EFRX, 4TB€ 140,-€ 140,-
1Supermicro 731I-300€ 104,88€ 104,88
1Kingston KTH-PL424S/16G€ 180,95€ 180,95
1Intel 750 SSD Half Height PCIe 3.0 x4 400GB€ 318,50€ 318,50
Bekijk collectie
Importeer producten
Totaal€ 1.002,08


Hierbij is het hele systeem samengesteld met het oog op groei in de vorm van HD's en geheugen (maar om de aanschafprijs schappelijk te houden nu minimaal gelaten).
De enige twijfel die ik heb is of ik spijt ga krijgen van de processor, een stap omhoog is een stuk duurder, maar als ik dat nodig heb is het zonde om die over een half jaar te kopen en 60 euro weg te gooien.
Ik zat als alternatief te denken aan:

#ProductPrijsSubtotaal
1Intel Xeon E3-1245 v5 Boxed€ 307,-€ 307,-
Bekijk collectie
Importeer producten
Totaal€ 307,-


Gezien ik hier (het hele virtualisatie en esxi gebeuren) vrij blanco in sta en nog niet veel kennis van heb laat ik me graag adviseren in:

- de processor keuze (zou de g4560 dit aankunnen als de belasting op plex niet te zwaar is?)
- mogelijkheden die ik met deze setup misloop in de vorm van passthrough of iets in die richting
- al het andere dat in jullie opkomt na het lezen van dit hele verhaal, en schiet vooral af waar nodig :)

Alvast bedankt voor de reacties!
Een G4560 kan dit wel trekken alhoewel ik eerlijk gezegd geen ervaring heb met Syncthing.
je wilt kortom:
- Opslag in VM met passthrough of RDM
- VMs op aparte opslag (NVME)

Software:
- Backup (Amazon Cloud Drive)
- VPN server
- Sync opnamen (NFS/Samba oid)
- Backup Pi's (NFS SSH oid)
- CouchPotato
- Sonarr
- Kodi DB (MariaDB or MySQL)
- Syncthing
- Spotweb
- SabNZBd
- Torrents (bestaat dat nog?)
- Plex Media Server

MIddels een XPenology VM kan je dit gemakkelijk allemaal realiseren. Het zal je huidige 213+ zeker overtreffen. In de VM maak je voor elk stukje software een docker aan. Ik zelf vind dat persoonlijk erg fijn, het geeft mij meer controle en gemakkelijkere configuratie mogelijkheden.

Enige opmerkingen heb ik wel.
- Waarom een pricewatch: Supermicro X11SSL-F ? Vanwege IPMI? Of 2 NICs?
- Waarom een pricewatch: Intel 750 SSD Half Height PCIe 3.0 x4 400GB ? Een SM961 is goedkoper en heeft meer opslagruimte. Met de SM961 heb je uiteraard wel een ander moederbord of PCIe adapter nodig.
- Waarom maar een enkele 4TB disk? Budget?
- Waarom een pricewatch: Supermicro 731I-300 ? Iedere Micro-ATX kast zal volstaan (Let op: voedingen)

Acties:
  • +1 Henk 'm!

  • marc1982
  • Registratie: Oktober 2002
  • Laatst online: 08-06 19:35
renedis schreef op vrijdag 16 juni 2017 @ 00:12:
[...]
Een G4560 kan dit wel trekken alhoewel ik eerlijk gezegd geen ervaring heb met Syncthing.
Ik zie Syncthing niet als een zwaar stukje software, dus dat zal niet de doorslag gevende factor zijn, was benieuwd of ie meerdere vm's een beetje knap kan draaien.
je wilt kortom:
- Opslag in VM met passthrough of RDM
- VMs op aparte opslag (NVME)
klopt :)
Software:
- Backup (Amazon Cloud Drive)
- VPN server
- Sync opnamen (NFS/Samba oid)
- Backup Pi's (NFS SSH oid)
- CouchPotato
- Sonarr
- Kodi DB (MariaDB or MySQL)
- Syncthing
- Spotweb
- SabNZBd
- Torrents (bestaat dat nog?)
- Plex Media Server
Amazon Cloud Drive ga ik loslaten en inruilen voor crashplan (op een windows / linux vm).
Sync van opnamen is lftp (doet huidige syno ook).
Backup van pi's is idd via SSH.
Ik denk dat ik voor nu plex ga gebruiken i.p.v. kodi, en hiermee ook de DB niet meer zal gebruiken, maar wil deze mogelijkheid behouden (om terug te kunnen).
Middels een XPenology VM kan je dit gemakkelijk allemaal realiseren. Het zal je huidige 213+ zeker overtreffen. In de VM maak je voor elk stukje software een docker aan. Ik zelf vind dat persoonlijk erg fijn, het geeft mij meer controle en gemakkelijkere configuratie mogelijkheden.
Hiermee past dus alles wel binnen de XPenology, behalve crashplan (niet ondersteund althans, heb het eerder ook wel draaiend gehad op de nas, maar lag er net zo vaak uit i.v.m. updates dan dat het werkte).
Enige opmerkingen heb ik wel.
- Waarom een pricewatch: Supermicro X11SSL-F ? Vanwege IPMI? Of 2 NICs?
IPMI heb ik moeten opzoeken, en ziet er niet naar uit dat ik dat ga gebruiken.
2 NICs op korte termijn ook niet.
Waarom dan wel, staat in voorbeeld config, wordt vaker aanbevolen in dit topic voornamelijk qua kwaliteit en duurzaamheid volgens mij, en ondersteund ECC.
- Waarom een pricewatch: Intel 750 SSD Half Height PCIe 3.0 x4 400GB ? Een SM961 is goedkoper en heeft meer opslagruimte. Met de SM961 heb je uiteraard wel een ander moederbord of PCIe adapter nodig.
Ook aanbevolen en in voorbeeld config, en volgens mij ook sneller (heb ik een keer opgezocht) dan M.2, daarmee wil ik niet zeggen dat ik weet dat ik dat verschil ga merken.
- Waarom maar een enkele 4TB disk? Budget?
Ja voornamelijk, ik zit nog wel in dubio wat ik met (de huidige schijven uit) de syno wil.
Ik denk dat ie uit gaat zodra XPenology de taken heeft overgenomen, en dan:
1) in de verkoop gaat, inclusief schijven.
2) in de verkoop gaat, exclusief schijven, en de schijven bijgeprikt op de XPenology.
3) er naast blijft draaien, maar heb nog geen sterk argument om hier voor te kiezen.
- Waarom een pricewatch: Supermicro 731I-300 ? Iedere Micro-ATX kast zal volstaan (Let op: voedingen)
Zelfde argument als hierboven al een paar keer gegeven, heb wel redelijk geleund op voorbeelden / aanbevelingen. Hiermee weet ik ook dat de onderdelen werken met / binnen esxi :)
Wat bedoel je met je punt betreft voedingen, zal deze te licht zijn?
Heb trouwens zo niet het idee dat deze kast, inclusief voeding erg prijzig is, of schat ik dat verkeerd in?

Edit:

Naar aanleiding van de (lastige, maar) zeer gewaardeerde vragen ben ik nog eens gaan denken, of ik inderdaad die server-kwaliteit hardware wel nodig heb, ik neig op dit moment meer naar niet (heb het nu ook niet, en het zal niet zomaar omvallen, en zowel zijn er weinig mensen die er last van hebben).

Daarom nog weer even wat terug gelezen in verschillende topics, en verder gepuzzeld, ik kom nu op:

#ProductPrijsSubtotaal
1Intel Pentium G4560 Boxed€ 65,-€ 65,-
1Gigabyte GA-B150M-D3H€ 88,16€ 88,16
3WD Red WD30EFRX, 3TB€ 108,95€ 326,85
1Cooler Master N300 (Closed)€ 43,80€ 43,80
1Crucial CT2K8G4DFD8213€ 116,95€ 116,95
1Seasonic G-series 360 watt€ 59,95€ 59,95
1Samsung SM961 512GB€ 280,50€ 280,50
Bekijk collectie
Importeer producten
Totaal€ 981,21


Een aantal opmerkingen hierbij, deze kast heb ik gekozen omdat deze veel interne bays heeft, ik wil er uiteindelijk 5 schijven in kwijt, de 3 uit deze config + de 2 die uit m'n syno komen.

Daarom ook gekozen voor 3gb schijven ipv 2x4, hiermee hou ik netto meer ruimte over (wil ze in shr draaien).

De rest wijst redelijk voor zich, en ik denk dat deze voeding dit prima aan zou moeten kunnen.

Wederom zijn op- of aanmerkingen van harte welkom :)

[ Voor 30% gewijzigd door marc1982 op 19-06-2017 11:07 ]


Acties:
  • 0 Henk 'm!

  • marc1982
  • Registratie: Oktober 2002
  • Laatst online: 08-06 19:35
Gezien de G4560 momenteel lastig te krijgen is (heb 'm nog in bestelling staan, maar geef het slechts een kleine kans dat ik ook ga ontvangen), ben ik aan het kijken naar de G4600:

#ProductPrijsSubtotaal
1Intel Pentium G4600 Boxed€ 83,05€ 83,05


Echter staat er in de pricewatch dat deze alleen vt-x ondersteund en geen vt-d, kan dit een foutje in de pricewatch specs zijn?

Gezien Intel iets anders vermeld.

Acties:
  • +1 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 31-08 22:00
marc1982 schreef op dinsdag 27 juni 2017 @ 08:27:
Gezien de G4560 momenteel lastig te krijgen is (heb 'm nog in bestelling staan, maar geef het slechts een kleine kans dat ik ook ga ontvangen), ben ik aan het kijken naar de G4600:

#ProductPrijsSubtotaal
1Intel Pentium G4600 Boxed€ 83,05€ 83,05


Echter staat er in de pricewatch dat deze alleen vt-x ondersteund en geen vt-d, kan dit een foutje in de pricewatch specs zijn?

Gezien Intel iets anders vermeld.
Ja dat is een foutje, vanaf Skylake heeft alles VT-d.

Edit: Ik heb een verbetering aan de specs in de pricewatch ingeschoten, die zou morgen verwerkt moeten zijn.

[ Voor 4% gewijzigd door |sWORDs| op 27-06-2017 09:34 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • OMX2000
  • Registratie: Januari 2001
  • Laatst online: 15:51

OMX2000

By any means necessary...

Zijn er meer mensen hier die enthousiast zijn over Epyc van AMD? Er is volgens mij voor huis tuin en keuken gebruik nog niks wat in de Xeon E3 categorie valt aangekondigd. En dan bedoel ik dus moederbord die niet per se 1TB geheugen ondersteund en daarmee minimaal even betaalbaar wordt als een Xeon E3 systeem.

Dè developers podcast in je moerstaal : CodeKlets Podcast


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
De vraag is meer, wat verwacht je van een E3 concurrent op Ryzen niveau? Want Ryzen doet met zijn desktop series al ECC & AMD-Vi (VT-d), dus welke feature mis je? :)

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 31-08 22:00
OMX2000 schreef op woensdag 28 juni 2017 @ 08:45:
Zijn er meer mensen hier die enthousiast zijn over Epyc van AMD? Er is volgens mij voor huis tuin en keuken gebruik nog niks wat in de Xeon E3 categorie valt aangekondigd. En dan bedoel ik dus moederbord die niet per se 1TB geheugen ondersteund en daarmee minimaal even betaalbaar wordt als een Xeon E3 systeem.
Ja en nee. Er zit een hoop potentie in, maar AMD Ryzen en Epyc zijn gewoon nog niet af, zeker voor virtualisatie. Met elke microcode wordt het ietsje beter, maar misschien is er nog wel een hardware revisie nodig (gevoel, geen inside information) voor het echt allemaal werkt en dan moet alle software er nog mee overweg kunnen. AMD engineers werken mee aan Linux virtualisatie, maar zelfs daar werkt nog zo veel niet of nauwelijks met bleeding edge kernels.

Dan over de vergelijking met E3, dit is niet wat Epyc moet gaan doen, Epyc is E5 terrein.

Gezien de meeste bedrijven al Intel draaien en live migraties willen kunnen doen denk ik dat Epyc het zwaar gaat krijgen en in eerste instantie alleen in een paar niches gebruikt gaat worden. Zeker als je ziet dat op het totaal de prijs van de CPU niet heel veel uitmaakt (Wat is op 30-50K voor dikke servers plus 3 jaar support een paar honderd minder voor de CPU's?) en er nog geen groot ecosysteem met vendors is.

[ Voor 33% gewijzigd door |sWORDs| op 28-06-2017 10:02 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • chronoz
  • Registratie: Maart 2010
  • Laatst online: 09-10-2022
Tips voor een mogelijke keuze tussen deze 2 moederborden voor VMware?

pricewatch: Supermicro X11SSZ-TLN4F
pricewatch: Supermicro X11SSH-TF

1 staat niet op OS compatibility lijst met VMware van Supermicro en andere heeft maar 4 SATA poorten.

[ Voor 14% gewijzigd door chronoz op 05-07-2017 20:08 ]


Acties:
  • 0 Henk 'm!

  • chronoz
  • Registratie: Maart 2010
  • Laatst online: 09-10-2022
Ik denk eraan om vSAN te gebruiken op mijn lab-omgeving sneller te maken. Is dit een goede oplossing om de performance te verhogen op een 1-node VMware ESXi-host?

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 31-08 22:00
chronoz schreef op donderdag 6 juli 2017 @ 18:21:
Ik denk eraan om vSAN te gebruiken op mijn lab-omgeving sneller te maken. Is dit een goede oplossing om de performance te verhogen op een 1-node VMware ESXi-host?
Waarom zou vSAN sneller zijn, niets is sneller dan local storage? Of wil je van spinning naar Hybrid gaan?

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • chronoz
  • Registratie: Maart 2010
  • Laatst online: 09-10-2022
Ja inderdaad, voornamelijk voor het hebben van write en read cache via SSD's.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 31-08 22:00
chronoz schreef op donderdag 6 juli 2017 @ 20:02:
Ja inderdaad, voornamelijk voor het hebben van write en read cache via SSD's.
In het algemeen zou een goede scheiding tussen data en os/apps het beste moeten werken, maar je kunt het ook met VSAN proberen. Ik heb hybrid nooit in actie gezien, alleen all flash.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • chronoz
  • Registratie: Maart 2010
  • Laatst online: 09-10-2022
Ja, misschien zou ik inderdaad beter kunnen gaan scheiden inderdaad. Dingen die snel moeten op SSD en andere dingen op SATA-disken. :)

Het lijkt trouwens een Dell T330 te worden.

Acties:
  • +1 Henk 'm!

  • Vorkie
  • Registratie: September 2001
  • Niet online
Zo, omdat ik toch wel wat dingen wilt bijhouden qua lering en vermaak heb ik hier maar gekozen om de single ESX server te vervangen voor een dubbele uitvoering;

2x HP DL360 G6
Beide met de volgende configuratie:
1x Intel(R) Xeon(R) CPU E5645 @2.40Ghz (6 core + HT)
48GB Memory
No disks
SD kaart 16GB voor ESX installatie
Advanced ILO2
tussen de 65watt / 85 per stuk gebruiken ze nu door de dag heen (in verhouding kost het mij +-1 euro per dag meer als ingeschat bij Eneco (Toon))

Daarbij heb ik een Synology DS916+ gekocht + een additionele 3TB HDD, hierin heb ik 3x3TB + de 250GB SSD geplaatst en deze met SSD read cache geconfigureerd en middels een LAG aangesloten op mijn managed TP-Link switch.

Op deze Synology zijn een 2tal ISCSI disks geconfigureerd en deze zijn bij beide hosts geconfigureerd.
De read cache hit rate staat nu voor afgelopen week op 92%. Binnen VMWare worden deze 2 datastores netjes aangegeven met Hardware Acceleration: Supported (VMWare VAAI)

Op beide hosts draait VMware ESXi, 6.5.0, 4887370, gemanaged door vCenter 6.5.0 Build 5705665, inclusief DRS + HA. (Had nog een paar licenties over uit een PoC omgeving en dat is dit ook eigenlijk :P )

Er gaat naar elke host 1 UTP kabel (1Gbit/s) voor LAN en 1 voor ILO (afgrijselijk, moet speciaal naar mijn Windows client :P )

Bovenop deze omgeving draait PFSense als router, om internet te regelen is middels een VLAN (Ziggo bridged, dus PVID op een switchpoort instellen waar het Ziggo modem aanhangt) deze naar de vliering gebracht. Zo kan ik zonder problemen een vmotion uitvoeren van PFSense zonder verlies van verbinding :)

Uiteindelijk verbruiken deze 2 servers + de NAS ongeveer hetzelfde als de i7 op mijn omgeving, de load is nu verdeeld over deze 2 servers en de i7 had een veel hogere TDP (130watt) en ik ben af van het "heb je internet nu alweer gesloopt" van vrouwlief ;)

====
Wel als tip aan ieder die ESX/VSphere gebruikt, update zo nu en dan je UI met een Fling versie:

https://labs.vmware.com/flings/esxi-embedded-host-client

Kan zomaar zijn dat het bepaalde irritaties weghaalt :) (en met de laatste versie kan je wat meer filteren etc...)

Idem voor vCenter, deze middels de Appliance pagina updaten, met de laatste update voor de HTML5 pagina zijn er ook wat verbeteringen aangebracht.

Acties:
  • 0 Henk 'm!

Verwijderd

Modbreak: -knip- De hele topicstart quoten is wat overdreven ;) Ook staat je vraag al in ESXI 6.5 Installeren op een INTEL NUC NUC6i5SYH, laat het ajb bij 1 topic per vraag.

[ Voor 183% gewijzigd door F_J_K op 09-07-2017 09:20 . Reden: De hele topicstart herhalen is wat overdreven. ]


Acties:
  • 0 Henk 'm!

Verwijderd

|sWORDs| schreef op maandag 7 november 2016 @ 01:11:
Als er nog mensen gemakkelijker de Intel controller door willen kunnen geven: intel-passthrough.vib

[afbeelding]
Helaas werkt de download link niet meer.
Is het mogelijk dat die nog een keer gestuurd kunnen worden?

Groetjes Cor

Acties:
  • 0 Henk 'm!

Verwijderd

|sWORDs| schreef op donderdag 13 oktober 2016 @ 08:28:

Het grote VMware ESXi/vSphere Topic

[afbeelding]

VMware ESXi is een enterprise-class, type-1 hypervisor ontwikkeld door VMware voor het uitrollen en draaien van virtuele computers. Een type-1 hypervisor onderscheidt zich van een type-2 hypervisor door de plek van de hypervisor ten opzichte van de hardware. Bij een type-1 hypervisor draait deze direct op de hardware en heeft dus rechtstreekse toegang tot de hardware. Bij een type-2 hypervisor (zoals. bijv. VMware Workstation) draait de hypervisor bovenop het onderliggende besturingssysteem (bijv Windows). De toegang tot de hardware moet dan door het besturingssysteem worden geregeld. Het mag vanzelfsprekend zijn dat een type-1 hypervisor sneller is dan een type-2 hypervisor, maar door de rechtstreekse toegang tot de hardware wel meer eisen hieraan stelt. Als type-1 hypervisor is ESXi dus geen software applicatie die men installeert in een besturingsysteem, maar bevat het onderdelen van een besturingssysteem zoals een kernel. VMware ESXi is beschikbaar als gratis versie met bepaalde (enterprise) functies uitgeschakeld. De ondersteuning (HCL wizard) van hardware is met name voor netwerk en storage wat beperkter dan we van besturingssystemen gewend zijn, maar voor sommige netwerkkaarten en AHCI controllers zijn er community of 3rd party drivers beschikbaar.


HCL/Whitebox:

Als je ESXi thuis wilt gebruiken kun je een (micro)server kopen die op de HCL staat, maar je kunt ook onderdelen gebruiken die op de HCL staan, of die door anderen reeds getest zijn (eventueel met een community driver) a.k.a een Whitebox.


Minimale benodigdheden:

Om ESXi te kunnen draaien heb je een computer nodig met minimaal de volgende componenten cq specificaties:
Processor:
[afbeelding]64-bit processor, minstens 2 cores. Hyperthreading mag, dit wordt door VMware aanbevolen, maar is dus geen eis. Hyperthreading levert wel een tiental procent extra performance op. De processor moet tevens voorzien zijn van hardware virtualisatie ondersteuning, bij Intel is dat VT-x, bij AMD RVI.
Geheugen:
[afbeelding]VMware stelt 4GB RAM als minimum, maar gezien de lage prijzen voor geheugen is 8GB toch wel echt het benodigde werkbare minimum.
Netwerk kaart:
[afbeelding]ESXi vereist een ondersteunde netwerkkaart om te kunnen werken. Zonder netwerkkaart zal ESXi niet eens installeren.
Storagecontroller:
[afbeelding]ESXi moet een ondersteunde storage controller aantreffen zodat je ESXi ergens kan installeren en virtuele machines kan opslaan. Aangezien ESXi een enterprise oplossing is zie je hier vaak iSCSI, Fibre Channel, SAS, FCoE controllers e.d. Gelukkig worden consumer like controllers zoals SATA en USB ook ondersteund, maar in beperkte mate.
Videokaart:
[afbeelding]Je hebt een videokaart nodig om op de ESXi console te kunnen kijken. Verder wordt de videokaart niet gebruikt. De meest eenvoudige videokaart zal dus volstaan. (Uitzondering is als je video GPU's gaat doorzetten naar een VM, maar dat is een ander verhaal).
Storage:
[afbeelding]ESXi vereist een boot device van minstens 1GB. Indien je ESXi op een USB stick zet, is het slimmer om voor minimaal 4GB (16GB aanbevolen) te kiezen voor toekomstige upgrades en voor de coredump partitie. Voor je virtuele machines is de storage afhankelijk van hoeveel virtuele machines je gaat aanmaken. Een gemiddelde Windows 10 virtuele machine kost je 30-40GB, daar komt nog storage bij voor memory en swap, zeg totaal 50GB. Gezien de lage prijzen van opslag is een 1TB disk aan te bevelen, of desnoods een kleinere SSD (voor super performance).
BIOS:
[afbeelding]ESXi ondersteund zowel UEFI als Legacy BIOS mode.



Moederborden:

Aangezien VMware ESXi in oorsprong een enterprise oplossing is gericht op de zakelijke markt, is de support voor hardware ook daaraan gekoppeld. Aangezien het voor VMware onmogelijk is om voor elk product een driver te maken en deze te testen is de support op hardware beperkt tot "enterprise class" hardware, zoals servers, netwerkkaarten en storage. Alle ondersteunde hardware (o.a. processors, storage adapters, netwerkkaarten en complete systemen) heeft VMware ondergebracht in de Hardware Compatibility List (HCL). Hierop staat alle hardware waarvoor door VMware drivers zijn gemaakt, die is getest en goedgekeurd. Dat wil gelukkig niet zeggen dat consumer class hardware niet werkt. Zolang de consumer hardware maar gebruik maakt van componenten die ook in interprise class hardware gebruikt worden, is er een grote kans dat je consumer moederbord gewoon werkt. De laatste jaren zien we dat de het onderscheid tussen enterprise hardware en consumer hardware aan het verkleinen is. Op consumer moederborden kom je regelmatig (eenvoudigere) versies van enterprise producten tegen, zoals toegepaste chipsets, Intel NIC's, storage devices e.d. Met wat mazzel kom je dus wel een consumer bordje tegen dat zal werken. Dit is ook terug te vinden op internet bij de zo genaamde whiteboxes.
Concreet: moederborden/systemen op de HCL werken 100% zeker, voor consumer moederborden hangt het af van de aanwezige hardware en ervaringen op internet en of de aanwezige componenten op het moederbord terug te vinden zijn op de HCL. Er zijn een aantal moederbord leveranciers die moederborden maken die op de HCL staan en ook voor consumenten te koop zijn, dit zijn o.a. :
- Supermicro

Er zijn ook uitzonderingen, moederborden waarbij de ACPI tables niet goed samenwerken met POSIX besturingssystemen (meestal DSDT->OSPM). Vaak worden deze bij veel klachten alsnog aangepast via een BIOS upgrade. Borden waarbij zelfs met de laatste BIOS problemen bekend zijn:
  • Asrock B150, problemen met power management.
  • Sommige Supermicro C612 borden, problemen met softwarematige shutdown.
  • Sommige Asus C612 borden, problemen met IPMI module. (module uit te schakelen)
Ongeveer de helft van de socket 1151 moederborden hebben in elk geval één compatible SATA en één compatible netwerk controller.

Met een Intel Xeon Processor E5/E7 v4 of Xeon D-1500 series kun je last krijgen van PSOD's zonder de laatste CPU microcode. Dit is geen VMware issue maar een bug in de Intel microcode, Supermicro heeft beta biosen beschikbaar.


Netwerk:

Alleen de volgende netwerk drivers zitten out of the box in ESXi:
  • Broadcom NetXtreme (II)
  • Cisco VIC Ethernet
  • Emulex
  • Intel 8254x, 8256x, 8257x, 8258x, 82598, 82599 (X520), X540, i210, i211, i217, i218, i219, i350, i354
  • Mellanox
  • NetXen
  • nVidia CK804, MCP51/55/73/77/79
  • QLogic
Er zijn community drivers voor onder andere Intel (1000xx), Realtek (81xx/8411), Marvel (Yukon/SysKonnect/805x) en Artheros (L1/AR81xx) netwerkkaarten. Je hebt tenminste één netwerkkaart met driver nodig om te kunnen installeren, mocht je een custom driver nodig hebben kun je die in de iso integreren.


Opslag:

Boot:
ESXi kan booten vanaf ATA/SATA/SAS/SCSI/NVMe zolang er een driver aanwezig is, mocht je een custom driver nodig hebben kun je die in de iso integreren.
Naast reguliere storage devices kan er ook geboot worden via PXE, iSCSI, SAN, USB (OHCI/UHCI) of SD (EHCI/XHCI).
SATA:
Out of the box heeft ESXi een gefilterde generic AHCI driver waarbij het filter (etc/vmware/driver.map.d/ahci.map) de volgende controllers bevat:
  • AMD FCH/SB7x0/SB8x0/SB9x0
  • Apple AHCI PCIe SSD (Samsung based)
  • Intel 5/6/7/8/1xx, Atom C2000/NM10, ICH 6/7/8/9/10, C20x/21x/22x/60x(X79)/61x(X99), 31/32/5400
  • nVidia MCP78/MCP89
  • ALi ULi M5288
  • Unknown (1b62:2923, Toshiba/Sandisk based Apple AHCI PCIe SSD?)
  • Samsung SM951 AHCI
Er is een community driver die deze filterlijst uitbreid met bijvoorbeeld Marvell (88SE9xxx)/JMicron (JMB36x)/ASMedia (ASM106x) SATA controllers of je kunt de lijst zelf aanpassen in de tar file (/bootbank/sata_ahc.v00).
Verder zitten er in ESXI niet AHCI SATA drivers voor:
  • Adaptec AAR-1210SA (Silicon Image)
  • Apple
  • nVidia CK804, MCP04/51/55/61/65/67, nForce2/3
  • Promise 376/378/779/TX2(xxx)/TX4(xxx)
  • Serverworks K2, Raidcore xC4000, HT1000, HT1100
  • Silicon Image 3112, 3114, 3124, 3132, 3512, 3531
ATA:
Alleen AMD/ATI, Intel, Highpoint, Promise, Serverworks, Silicon Image en VIA PATA drivers zitten out of the box in ESXi. (Let op dat sommige SATA in IDE mode zijn!)
USB:
Standaard is USB alleen beschikbaar als boot device, maar als je het niet erg vind om USB passthrough op te offeren kun je USB ook als datastore gebruiken.
SAS/SCSI/HW iSCSI:
Alleen Adaptec (+DEC, Dell en IBM), QLogic (iSCSI), Cisco (VIC FCoE), HP (Smart Array) en LSI (+veel subvendors) drivers zitten out of the box in ESXi.
NVMe:
Er zit een generic NVMe driver in ESXi, voor de Intel 750/P3500/P3600/P3700 kun je qua performance beter de Intel VIB installeren.
Shared Storage:
Diverse InfiniBand, FCoE, FC, iSCSI HW adapters van Broadcom, Emulex, Intel, Mellanox en QLogic, hiernaast is het mogelijk om software iSCSI of NFS te gebruiken. Ook is het met de juiste licentie mogelijk om shared storage te virtualiseren met VSAN.


I/O HW Virtualisatie:

Er zijn momenteel drie manieren om vanuit hardware I/O beschikbaar te maken voor een virtuele machine.
  1. IOMMU (Device -> 1 virtuele machine op dezelfde host)
  2. SR-IOV (Device -> n virtuele machines op dezelfde host)
  3. MR-IOV (Device -> n virtuele machines op n hosts)
Input/Output Memory Management Unit (IOMMU):
Met Intel® Virtualization Technology for Directed I/O (VT-d) of AMD I/O Virtualization Technology (AMD-Vi) kan er een DMA translation gedaan worden op chipset niveau waardoor er directe communicatie mogelijk is tussen het geheugen van één virtuele machine en een IO hub. Er zit dus geen software tussen, de hypervisor vraagt het alleen aan, maar doet zelf geen translation.

[afbeelding]

Een manier om dit te begrijpen is als een soort van VLAN voor IO devices per virtuele machine op PCIe niveau.
Om het te kunnen gebruiken moeten meerdere onderdelen het ondersteunen: Chipset, BIOS, CPU en je PCI(e) device moet te resetten (flr, d3d0, link, bridge of default) zijn. Op socket 1151 en 2011 ondersteunen alle chipsets, BIOS-en en CPU's VT-d.

IOMMU wordt meestal gebruikt om virtuele machines directe toegang te geven tot storage controllers (bijvoorbeeld voor ZFS), USB hubs of GPU's. ESXi heeft een filterlijst (/etc/vmware/passthru.map) met devices die doorgegeven kunnen worden, deze is aan te passen met bijvoorbeeld een Intel SATA controller. Mocht het een storage controller zijn dan mag het niet je bootdevice en er geen datastores op staan om hem door te kunnen geven.
Single-Root I/O Virtualization (SR-IOV):
Met SR-IOV kan een device zich voor doen als meerdere identieke 'devices' (maximaal 256 Virtual Functions). SR-IOV vereist ondersteuning in BIOS, hypervisor en een beschikbare client driver voor het gast OS. ESXi heeft momenteel alleen ondersteuning voor AMD MxGPU en netwerkkaarten met SR-IOV (inclusief HW virtual switching in de NIC).

[afbeelding]

Nesting is niet mogelijk omdat er geen client drivers in ESXi zitten.
SR-IOV wordt ook voor storage gebruikt, maar nog niet met ESXi.
Multi-Root I/O Virtualization (MR-IOV):
MR-IOV is gelijk aan SR-IOV maar kan dan via 'external' PCIe met meerdere hosts communiceren, dit zie je vooral in blades. ESXi heeft nog geen ondersteuning voor MR-IOV.


Graphics:

Soft3D is een software GPU (emulatie op de CPU). Mocht dit niet voldoende zijn dan zijn er drie manieren om hardware graphics te gebruiken:
vDGA (Passthrough met VT-d/IOMMU):
Hiermee geef je één GPU direct door naar één virtual machine, alles wat op de kaart zit is beschikbaar voor de virtuele machine (ook de outputs zoals HDMI), de standaard vendor driver installeer je alleen in de VM. vDGA is mogelijk met:
  • AMD
  • Bepaalde nVidia Quadro's:
  • [list]
  • 1000M, 3000M, 5000
  • K2000/K4000/K5000/K6000
  • K3100M
  • K2200/K4200/K5200
  • [/list]
  • nVidia Grid K1/K2 of Tesla M6/M10/M60
  • Intel Xeon E3's v3 Haswell met P4700 of v4 Broadwell met P6300. (GVT-d)
vSGA:
vSGA is een software GPU (installeer je in de VM's) die API calls doorstuurt naar de kaart die een driver in de hypervisor heeft. vSGA is mogelijk met nVidia Grid K1/K2 of Tesla M6/M60 kaarten, Intel P4700/P6300 (GVT-s) en AMD FirePro s7000/w7000/s9000/s9050.
vGPU/MxGPU/GVT-g:
Het delen van GPU's met meerdere virtuele machines.
vGPU is een nVidia software driver in de virtuele machine en hypervisor die samen werken. Het verdelen van de GPU resources gebeurd in de hypervisor driver en de virtuele machine driver kan daar direct mee communiceren.

[afbeelding]

vGPU is mogelijk met nVidia Grid K1/K2 of Tesla M6/M10/M60 kaarten.

AMD's Multi User GPU werkt net iets anders en lost het verdelen van de resources in de hardware (SR-IOV, Single Root I/O Virtualization) op. In de praktijk werkt het hetzelfde, alleen is het nog niet mogelijk dit grafisch te configureren (commandline).

[afbeelding]

MxGPU is mogelijk met AMD FirePro™ S7150 (X2).

Intel's GVT-g met P6300 is nog niet mogelijk met ESXi.


Licenties:

Free:
De gratis versie van ESXi is in principe gelijk aan de betaalde versie, alleen zijn de API's read only waardoor geavanceerd managen (vCenter, PowerCLI, etc) niet mogelijk is. Management is alleen mogelijk per host via de web of vSphere Client.
Eval Experience:
Via de VMware User Group kun je voor $200 per jaar licenties voor niet productie omgevingen krijgen. Inbegrepen zijn:
Commercial:
vSphere licenties gaan per CPU (socket) en zijn te krijgen in de volgende uitvoeringen:
  • Standard
  • Enterprise
  • Enterprise with Operations Management
Waarbij de eerste twee ook als Essentials (Plus) te krijgen zijn voor maximaal 3 hosts met elk maximaal twee CPU's (sockets).
VMware vCenter is een aparte licentie, inbegrepen in de kit versies.
Voor uitgebreide info over de verschillen, zie deze site.


Installatie:

[afbeelding]

Zoals eerder aangegeven heb je om ESXi te kunnen installeren in elk geval een ondersteunde storage controller en netwerkkaart nodig.

[afbeelding]

ESXi wordt normaal gesproken geïnstalleerd vanaf een CD. Het is ook mogelijk om de ISO via IPMI/AMT te mounten of om de ISO om te zetten naar USB met bijvoorbeeld Rufus.

[afbeelding]

De machine waarop je ESXi installeert hoeft niet gelijk te zijn aan de machine waarop je ESXi gaat uitvoeren. Ook is het mogelijk om de installatie te starten vanaf een PXE server of zelfs te booten vanaf PXE, maar dit is buiten de scope van deze post.


Remote Management:

ESXi Host Client
Het beheren van ESXi kan via de webbased host client:
[afbeelding]
vCenter Web Client
Het beheren van vCenter kan via de webbased client:
[afbeelding]
Windows C Client
Beide kunnen ook nog steeds (zei het iets beperkt) gemanaged worden door de 'oude' Windows client:
[afbeelding]
PowerCLI
vSphere PowerCLI is een command-line en scripting tool op Windows PowerShell en heeft meer dan 400 cmdlets voor het beheren en automatiseren van vSphere.
[afbeelding]
SSH
SSH staat standaard uit op ESXi, maar kan ingeschakeld worden met een client of via een console. Daarna kan ook SSH voor beheer gebruikt worden. Voorbeeld met de Intel Data Center tool:
code:
1
2
3
4
5
6
7
8
[root@localhost:~] /opt/intel/isdct/isdct load -intelssd 0
WARNING! You have selected to update the drives firmware! 
Proceed with the update? (Y|N): Y
Updating firmware...

- Intel SSD 750 Series CVCQ51350096400CGN -

Status : Firmware Updated Successfully. Please reboot the system.



Virtual Networking:

Virtual Switches:
Een virtuele switch werkt in basis niet veel anders dan een normale switch, duurdere switches voeren veel taken uit in ASICs, een virtuele switch doet alles in software. Een virtuele switch heeft dus ook een MAC:port tabel en forward een frame naar één of meerdere poorten. Echter hoeft een virtuele switch in principe niets te doen voor unicast/multicast en heeft geen spanning tree protocol nodig. Communicatie naar buiten gaat via 'uplinks' die je kunt koppelen aan netwerkkaarten. Communicatie naar VM's of kernel adapters gaat via 'port groups' naar een virtuele netwerkkaart.
Standard vNetwork Switch
[afbeelding]

Support:
  • 802.1Q VLAN
  • Teaming
  • L2 Security
  • Outbound Traffic Shaping
Distributed vNetwork Switch
[afbeelding]

Distributed vNetwork Switches (vereist Enterprise Plus licentie en vCenter!) kunnen hetzelfde als Standard vSwitches plus:
  • Centraal management
  • Inbound Traffic Shaping
  • PVLAN
  • Netflow
  • dvMirror
  • LLDP
  • Enhanced link aggregation met keuze in hashing algorithmes
  • Verbeterde poort security met traffic filtering ondersteuning
  • Verbeterde single-root I/O virtualization (SR-IOV) ondersteuning en 40Gbit netwerkkaart ondersteuning
  • Network IO Control
  • Multicast Snooping (MLD/IGMP snooping)
  • Multiple TCP/IP Stack met vMotion
Virtual NICs:
Virtuele netwerkkaarten (puur layer 2) hebben hun eigen MAC adres en unicast/multicast/broadcast filters.
De snelheid en duplex aangegeven door het besturingsysteem maakt niet uit, de gegevens gaan via RAM van en naar de switch.

[afbeelding]

Er zijn vijf verschillende in ESXi, dit zijn de twee meest gebruikte:
e1000(e)
Een virtueel apparaat dat strict de Intel E1000(E) zal emuleren. Voordeel is de drivers van deze kaarten in de meeste besturingssystemen reeds beschikbaar zijn.
VMXNET3
Een para-gevirtualiseerd apparaat gemaakt voor hoge performance, eentje die weet dat hij op een hypervisor draait en bepaalde gedeeltes door de virtuele switch heen direct aan de fysieke netwerkkaart kan doorgeven en gebruik kan maken van offloading indien beschikbaar. Aanbevolen netwerkkaart, heeft wel een driver nodig die meestal standaard niet aanwezig is.


Virtual Storage:

Virtual Controllers:
Terwijl IDE, SATA of LSI vaak de gemakkelijkste optie voor een gast virtuele machine zijn omdat je geen driver hoeft te installeren geven ze niet de beste prestaties:

[afbeelding]
In het algemeen is de aanbeveling om PVSCSI (Para-Virtual SCSI) te gebruiken, tenzij het gast besturingssysteem BSD is of er een harddisk als fysieke storage gebruikt wordt, in die gevallen kun je beter de LSI virtuele controller gebruiken. Bij PVSCSI wordt een storage laag 1:1 doorgegeven tussen gast en host, dit zorgt voor een lagere CPU belasting en hogere performance.
Disk Formaat:
ESXi kent twee disk formaten, Thin en Thick, waarbij Thin disks het voordeel hebben dat alleen de gebruikte ruimte echt van de beschikbare opslag af gaat. In het algemeen (met name op flash) is het performance verschil zo klein dat de voordelen van Thin disks groter zijn. Op een spinning disk met veel ruimte zou je Thick Eager Zeroed kunnen overwegen.
RDM:
Een RDM (Raw Device Mapping) is een speciale link file in een VMFS volume dat metadata voor het gekoppelde apparaat beheerd. Door de management software wordt het als een normaal disk bestand gezien, maar voor virtuele machines ziet de storage virtualisatie laag het als een virtueel SCSI apparaat.
Daar waar je met VT-d een gehele controller doorgeeft kun je met RDM een gehele disk doorgeven en mocht je er een clustered filesystem op zetten, dan kan het ook aan meerdere machines.
RDM is niet beschikbaar met alle controllers (met name RAID en DAS niet).

[afbeelding]

RDM heeft twee compatibiliteitsmodi:
Physical
Physical mode geeft minimale SCSI virtualisatie, eigenlijk wordt alleen REPORT LUNs afgevangen zodat de VMkernel de LUN kan isoleren. Verder wordt alles direct van de hardware doorgegeven.
Virtual
Virtual mode doet volledige virtualisatie en geeft alleen READ en WRITE direct door.
SMART data en dergelijke zijn niet beschikbaar.


Guest Optimalisatie:

VMware OS Optimization Tool
Met de VMware OS Optimization Tool kun je Windows 7/8/2008/2012/10 geautomatiseerd optimaliseren.

[afbeelding]

Het verschil kan oplopen tot 20% (20% meer VM's op je host kunnen draaien).
TCP Offload
Standaard zet OSOT TCP Offloading uit, omdat als netwerkkaarten dit niet ondersteunen de software afwikkeling van offloading zwaarder is. Tegenwoordig kunnen de meeste server netwerkkaarten prima offloaden en is het aan te bevelen de stap in Optimization Tool uit te zettten.
Software GPU
Internet Explorer en Microsoft Office kunnen GPU acceleratie gebruiken, mocht je geen hardware GPU hebben dan is het verstandig dit uit te schakelen.

[afbeelding]

Simulatie van HW in de hypervisor laag is zwaarder dan direct software in de browser/Office.
Zero free space/hole punching
Het grote voordeel van Thin disk is dat niet gebruikte ruimte vrij blijft. Echter zal een disk alleen groeien en niet krimpen. Als je bijvoorbeeld Windows 2012 R2 op een VM zet en patched dan zal de Thin Disk tot zo'n 60GB of de maximale grootte groeien. Gebruik je deze dan vervolgens als template dan lopen je disks snel vol. Als je in Windows eerst de vrije ruimte met nullen vult (sdelete /Z [drive]:, Linux secure-delete) en dan ESXi hole punching (vmkfstools -K [/path/to/disk-name].vmdk) in de VMDK laat doen zul je zien dat de template nog maar een Gigabyte of 12 is:

[afbeelding]
Transparent Page Sharing
Met TPS worden er hashes bij gehouden van memory pages. Zodra er weinig geheugen beschikbaar is worden de hits bit voor bit vergeleken en indien identiek wordt er nog maar één kopie gebruikt en is de rest weer beschikbaar als vrij geheugen. Omdat er een vrijwel niet toepasbare mogelijkheid bestaat om toegang te krijgen tot data waar je eigenlijk niet bij zou moeten kunnen staat worden standaard alleen pages binnen een VM geshared. In een lab met weinig vrij geheugen is er behoorlijk wat winst te behalen door dit ook buiten de VM te doen via Mem.ShareForceSalting = 0.


Nesting:

Het is mogelijk om ESXi op ESXi te draaien en zo met een enkele host een omgeving met meerdere hosts te simuleren of het voordeel te behalen snapshots te kunnen maken van ESXi machines.

[afbeelding]

ESXi heeft nog geen driver voor de PVSCSI controller, kies dus een LSI Logic controller. Verder is het belangrijk dat hardware assisted virtualization doorgegeven wordt aan de VM:

[afbeelding]
MAC Learning Fling
Virtuele switches weten normaal gesproken welke MAC adressen er aan welke poort zitten, maar bij nested weten ze dit natuurlijk niet, om toch netwerk verkeer naar de nested VM's mogelijk te maken moet je promiscuous mode aan zetten, maar dit heeft het nadeel dat het verkeer naar alle VM's op de switch gestuurd wordt. Om dit te voorkomen is er een MAC Learning dvFilter Fling dat als filter ingeladen kan worden op de host.
Op de nested ESXi VM's zet je dan twee advanced properties op elke virtuele NIC:
ethernet0.filter4.name=dvfilter-maclearn
ethernet0.filter4.onFailure=failOpen


Er is ook een Nested ESXi6u2 Appliance waar alles al in staat. (Nog wel even de dvFilter op de host zetten en de vswitch in promiscuous mode).


Sample Builds

Mini
Small
Medium
Large
Extra Large

Guides

Passthrough van Intel AHCI Controller
XPenology (Synology DSM) op ESXi
Custom ESXi ISO
Helaas werkt de download link voor het powershell script niet.
is het mogelijk dat die nog iemand heeft?

groetjes cor

Acties:
  • 0 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 12:16
Follow-up van mijn post in het verkeerde topic:
RudolfR in "Zuinige ESXi Server"

Het lijkt erop dat mijn host hangt a.g.v. een falende datastore-disk.
Als ik in mijn vmkernel log kijk zie ik een hele bak ata statatus/errors voorbij komen.
Zodra dat stopt met scrollen is mijn systeem niet meer bereikbaar.

Als ik mijn datastore op mijn onboard-controller aansluit is er niets aan de hand, dus het lijkt erop dat de PCI sil3112 controller brak is (of de aansluiting). Kabels aandrukken of verwisselen haalt niets uit.

Dus ik wil maar gaan kijken of ik die kan vervangen.
Is dit een waardige opvolger of zijn er inmiddels betere alternatieven?
http://www.ebay.com/itm/P...2ba26e:g:iIYAAOSwrhBZAcCV

Of heeft iemand hier nog zo'n dingetje liggen voor een snelle test? (omg. Rotterdam)

Edit:
Huh, als last-resort een clean-install gedaan van 5.1.0 en daar werkt 't gewoon.... :? 8)7
Iemand tips?

Beetje jammer dat je die 5.1.0 vers van de site nog steeds moet patchen, anders krijg je bijv. esxi-crashes als je een VM start met passthrough aan...

Kan zoiets bij 6.5.0 ook aan de hand geweest zijn, dat er voor 6.5.0a of 6.5.0d nog steeds patches nodig waren?

[ Voor 20% gewijzigd door RudolfR op 09-07-2017 14:35 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
Heb je de nieuwe AHCI driver al eens geprobeerd uit te zetten?

Even niets...


Acties:
  • 0 Henk 'm!

  • magneet
  • Registratie: Juli 2001
  • Laatst online: 11-08 20:54

magneet

Magnetic enhanced

klinkt idd als de ahci drivers

You have the right to remain silent
everything you say will be misquoted
and used against you in a court of law


Acties:
  • 0 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 12:16
FireDrunk schreef op zondag 9 juli 2017 @ 16:29:
Heb je de nieuwe AHCI driver al eens geprobeerd uit te zetten?
magneet schreef op zondag 9 juli 2017 @ 18:56:
klinkt idd als de ahci drivers
Bedankt voor de tips; ik vond een blog met release notes van 6.5 waarin ook de AHCI-drivers worden genoemd (en hoe je ze uit kunt schakelen). Daar kan ik mee aan de slag.

https://www.v-front.de/20...tes-for-free-license.html

Edit:
Het gedrag verandert wel, maar het lost niets op.
Er scrollt nu geen bak met fouten voorbij, maar het systeem hangt nog steeds.
Voorlopig maar weer even verder met 5.1 :'(

[ Voor 14% gewijzigd door RudolfR op 11-07-2017 07:16 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Goedemorgen,

Ik heb een NUC6i5SYH en ik heb ESXI 6.5 geïnstalleerd op een usb stick.
Dat werkt perfect, alleen als ik ESXI een reboot geef of de nuc handmatig aanzet.
dan moet ik telkens via het bios de usb stick selecteren, kan dat niet anders?

1: ik heb de usb al als eerste boot staan in het bios
2: Ik heb aangegeven in het bios dat usb apparaten voorrang hebben tijdens hebt opstarten.

Groetjes Cor

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
Stel voor de grap eens een boot delay in. Het kan best komen omdat je USB device nog niet "ready" is, waardoor je BIOS hem nog niet detecteerd.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

FireDrunk schreef op dinsdag 11 juli 2017 @ 10:17:
Stel voor de grap eens een boot delay in. Het kan best komen omdat je USB device nog niet "ready" is, waardoor je BIOS hem nog niet detecteerd.
Boot delay?? wat is dat?

Kan je trouwens nog iets met een SD kaart? in ESXI zoals extra geheugen of dergelijks?
Kan ik er een subdomein aan ESXI hangen zo ja hoe?

Groetjes Cor

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
Dat is een delay die je in je BIOS kan instellen zodat je pc even een paar seconden wacht na initialisatie van je BIOS voordat hij verder gaat met opstarten.
Daardoor kan het net zijn dat je USB stick wat meer tijd heeft om op te starten. Soms kost het die dingen net iets meer dan een paar tellen om aan te geven dat ze opstartbaar zijn.

Doorgaans is een boot delay van 1 of 2 seconden al genoeg om dat iig uit te sluiten.

Even niets...


Acties:
  • +1 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
Leuk die setup zo :)

Als ik je 1 tip mag geven, kies in plaats van iSCSI voor NFS.
Indien er namelijk iets met je iSCSI LUN aan de hand is dan is het veel lastiger om er bestanden van te herstellen.

Middels een NFS share/datastore kan je gewoon al je bestanden zien in bijvoorbeeld je Synology browser net zoals je gewend bent met een Samba (Windows) share.

VAAI is ook mogelijk via NFS en presteert in jouw geval minstens even goed als iSCSI.

Acties:
  • 0 Henk 'm!

Verwijderd

Goedemiddag,

Ik heb een vraagje. Ik heb esxi 6.5 nu draaien met een plex servertje (Ubuntu server) en nog een Ubuntu server om mee te rommelen. Nu kijk ik op de web client van de host en er staat dat beide servers hun volle 4GB geheugen gebruiken. Maar als ik in de console van de plex server kijk dan wordt maar een klein deel van het geheugen gebruikt:

total used free shared buff/cache available
Mem: 3951 276 3055 15 619 3405
Swap: 2047 0 2047

Is het niet zo dat ongebruikt geheugen weer beschikbaar wordt voor de host? Of dat de grafiek op de web client in ieder geval iets laat zien wat klopt met de werkelijkheid?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
3055 aan buffers. Dus je systeem gebruikt werkelijk ~1GB aan RAM, en de rest is disk cache. Dat geeft de VM niet terug aan vmware, maar je kan dus veilig de VM terugschroeven naar 2GB RAM.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Oke, maar normaal gesproken kun je het werkelijke geheugengebruik toch monitoren vanuit de client (of esxtop)? Ik neem aan dat de bedoeling van die grafiek (monitor functie) niet is om altijd een rechte lijn te laten zien.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
Linux zal altijd alle RAM gebruiken (zoals het hoort, daar is het voor). Dus nee, het is wel correct dat vmware een vrij stabiel geheugen profiel zal laten zien.

Even niets...


Acties:
  • 0 Henk 'm!

Verwijderd

Oke bedankt voor de info :). Als ik het geheugengebruik in de gaten wil houden van alle vm's moet ik dus iets anders gebruiken.

Acties:
  • +1 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
Nou ja, geheugen gebruik is relatief, er zijn meerdere soorten geheugen gebruik, sommige applicaties alloceren heel veel geheugen, maar gebruiken het niet actief, anderen alloceren veel minder, maar gebruiken het heel actief. Beide kunnen van invloed zijn op de performance.

Als je puur wil sturen op wat voor geheugen footprint VM's hebben in je hypervisor, kan je in VMware kijken naar Active memory, dat is vaak veelzeggender dan Host Memory.

Let wel op, dat je niet zomaar het geheugen van de VM kan terugschalen naar Active Memory, dat is wat rigoreus.

Zo heeft mijn vCenter maar ~900MB actief geheugen in gebruik, maar als ik die maar 1GB RAM geef, doet ie niet veel meer :+

Even niets...


Acties:
  • 0 Henk 'm!

  • webgangster
  • Registratie: Juli 2006
  • Laatst online: 11-09 15:08
Weet iemand wat het commando: 'esxcli system snmp set -e yes' precies doet als ik SNMP wil configueren?
Al mijn ESX host lopen op dit commando vast.

Ik volg: https://devshm.net/2015/04/11/enable-snmp-in-vsphere-esx-6/

--------
Al gevonden, het daadwerkelijk inschakelen van SNMP gebeurt met dit commando.

[ Voor 17% gewijzigd door webgangster op 12-07-2017 17:06 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Kan je de HOST NAAM aanpassen in de GUI?
en benaderbaar maken via een sub-domeinnaam.

Acties:
  • 0 Henk 'm!

  • Vorkie
  • Registratie: September 2001
  • Niet online
Verwijderd schreef op donderdag 13 juli 2017 @ 17:29:
Kan je de HOST NAAM aanpassen in de GUI?
en benaderbaar maken via een sub-domeinnaam.
Hoe wie wat waar?

Wat wil je bereiken?

Acties:
  • 0 Henk 'm!

Verwijderd

Vorkie schreef op donderdag 13 juli 2017 @ 17:32:
[...]

Hoe wie wat waar?

Wat wil je bereiken?
Oh Sorry heeft blijkbaar niet alles meegenomen.

Wat ik wil is dat ik mij ESXI Server benaderbaar wil maken via een subdomein. dus bv ESXI.domein.nl
Zo ja wat moet ik daarvoor doen in ESXI?

Groetjes Cor

Acties:
  • 0 Henk 'm!

  • Vorkie
  • Registratie: September 2001
  • Niet online
Verwijderd schreef op donderdag 13 juli 2017 @ 19:39:
[...]


Oh Sorry heeft blijkbaar niet alles meegenomen.

Wat ik wil is dat ik mij ESXI Server benaderbaar wil maken via een subdomein. dus bv ESXI.domein.nl
Zo ja wat moet ik daarvoor doen in ESXI?

Groetjes Cor
Ik kan hier nog steeds niet veel mee, begin even met het begin;

Je hebt een vSphere server staan thuis, hier verbind jij nu mee door (waarschijnlijk) naar het IP adres te gaan. Nu wil jij met een naam er naartoe verbinden?

Door binnen vSphere naar je Default TCP/IP stack te gaan (daar gaan we maar even vanuit) kan je daar een hostname instellen, met een DNS suffix, deze DNS suffix moet overeenkomen met de suffix die jij nu intern hebt (lan.local of iets)
Mogelijk, als je DHCP gebruikt, staat hier al het lokale domein.
Daarna kan je naar hostname.lan.local gaan ipv IP adres.

Als je een extern domein wilt gebruiken, zoals esx.cor.nl moet je rekening houden dat je router NAT loopback ondersteunt, een domeinnaam hebt geregistreerd en daarnaast je externe IP adres daar als A-Record geregistreerd hebt of, als optie 2, dit .NL domein op een lokale DNS server draaien, maar daar heb je niets aan vanaf externe locaties (ook je buren kunnen dan niet bij jouw .nl domein)

#ineennotendop

Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
|sWORDs| schreef op maandag 12 juni 2017 @ 14:01:
[...]

Ik doe het zelf ook ongeveer zo. Ik heb 3 hosts, waarvan twee in een VSAN cluster en een met local storage.
Alles wat ik draai zijn minimaal twee (sommige drie) instances van, eentje op het VSAN cluster en eentje op local storage.
  • pfSense (Primary/Backup) - Routing/Firewall/Loadbalancer
  • Xpenology (Primary/Backup) - Data/Backup
  • Domain controller (DC1/DC2/DC3) - AD/DHCP/DNS
  • vCenter (Standaard, Failover en Witness)
  • SQL (Primary/Failover) - DB
  • Unified Access Gateway (UAG1/UAG2/UAG3) - External reverse proxy
  • View (CS1/CS2/CS3) - Broker
  • AppVolumes (AV1/AV2/AV3) - Applicaties
  • Identity Manager (vIDM1/vIDM2/vIDM3) - Authentication/Frontend
  • RDSH en VDI ook op cluster en standalone
Dus er mag een host plat of zelfs twee plus mijn shared storage plat en 99% (De overige 1% kan niet in HA en doet er niet toe, Composer, VSAN Witness, vCenter HTML5 Webclient en die draaien dan natuurlijk in het HA cluster) van de omgeving blijft draaien.
Ik probeer nu m'n XPenology in een HA cluster te zetten wat me helaas niet lukt :(

Ik heb per VM minstens 2 NICs (vmxnet3) aangesloten en daarbij 1 nic op m'n reguliere vSwitch ingesteld en de andere NIC op een nieuwe aparte vSwitch. Ook geprobeerd om alles in 1 vSwitch te hangen in dezelfde DHCP scope, maar dat bood geen oplossing :(

Als ik HA op wil gaan zetten blijft de VM zeggen als advies dat ik voor de heartbeat een direct attached cable moet gebruiken.

Hoe heb jij dit opgezet?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
Zitten de vSwitches op beide machines wel op dezelfde VLAN's / kabels?

Even niets...


Acties:
  • 0 Henk 'm!

  • henkjan1995
  • Registratie: Januari 2011
  • Laatst online: 05-01 17:54
Heeft hier iemand ervaring met het joinen van een vCenter 6.5 server appliance in een Active Directory domein?

Ik loop namelijk tegen het probleem aan dat dit bij mij niet werkt (zowel niet via de shell middels het commando "/opt/likewise/bin/domainjoin-cli join domein.nl admin@domein.nl" als via de webinterface). Bij het joinen krijg ik geen errors en als ik dit doe via de cli dan geeft hij ook als status "success", maar zodra de VM gereboot is staat er dat de machine niet in het domein zit (niets ingevuld bij de node onder AD). In AD is er echter wel een computer object bijgekomen die de naam van de vCenter server heeft.

De volgende dingen heb ik al geprobeerd:
- Reverse DNS voor de vCenter server ingesteld
- Domeinnaam in capitals
- Compleet opnieuw uitgerolde (dus kale) vCenter joinen
- Zowel geprobeerd met de evaluatie license als met onze vSphere Essentials license
- Specifieke OU definiëren bij het joinen in domein
- Gekeken naar errors of warnings in de events, waarbij ik eigenlijk niets voorbij zag komen over domain join

Is dit een bekend probleem of heeft iemand nog een idee waardoor dit probleem veroorzaakt kan worden (of waar ik eventueel verder kan zoeken)?

XPS17 l702x 2670qm, 12GB, 128GB SSD, 500GB HDD, GT555m


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
FireDrunk schreef op vrijdag 14 juli 2017 @ 11:53:
Zitten de vSwitches op beide machines wel op dezelfde VLAN's / kabels?
Yes. Op beide hosts nieuwe vSwitch aangemaakt in zelfde VLAN.
Fysieke switch ook er op aangepast..

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
Zit er nog meer in dat vlan?

Even niets...


Acties:
  • 0 Henk 'm!

  • Indir
  • Registratie: Maart 2012
  • Laatst online: 26-06 14:37
Iemand die over een bak met ESXi 6.5 en Intel HD Graphics beschikt, die kan verifiëren en reproduceren dat de pass-through zoals hier wordt geclaimd werkt?

https://www.reddit.com/r/...ote_esxi_65_now_supports/

[ Voor 24% gewijzigd door Indir op 15-07-2017 03:28 ]


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
Volgens mij is het niet zo simpel. Per Moederbord/BIOS/UEFI combinatie kunnen de resultaten verschillen.
Heeft te maken met memory management, en address mapping van verschillende devices.

Even niets...


Acties:
  • 0 Henk 'm!

  • Vorkie
  • Registratie: September 2001
  • Niet online
henkjan1995 schreef op vrijdag 14 juli 2017 @ 13:38:
Heeft hier iemand ervaring met het joinen van een vCenter 6.5 server appliance in een Active Directory domein?

Ik loop namelijk tegen het probleem aan dat dit bij mij niet werkt (zowel niet via de shell middels het commando "/opt/likewise/bin/domainjoin-cli join domein.nl admin@domein.nl" als via de webinterface). Bij het joinen krijg ik geen errors en als ik dit doe via de cli dan geeft hij ook als status "success", maar zodra de VM gereboot is staat er dat de machine niet in het domein zit (niets ingevuld bij de node onder AD). In AD is er echter wel een computer object bijgekomen die de naam van de vCenter server heeft.

De volgende dingen heb ik al geprobeerd:
- Reverse DNS voor de vCenter server ingesteld
- Domeinnaam in capitals
- Compleet opnieuw uitgerolde (dus kale) vCenter joinen
- Zowel geprobeerd met de evaluatie license als met onze vSphere Essentials license
- Specifieke OU definiëren bij het joinen in domein
- Gekeken naar errors of warnings in de events, waarbij ik eigenlijk niets voorbij zag komen over domain join

Is dit een bekend probleem of heeft iemand nog een idee waardoor dit probleem veroorzaakt kan worden (of waar ik eventueel verder kan zoeken)?
Mijn ervaring is dat een LDAP authenticatie veel fijner werkt, ik heb tot op heden met beide manieren gewerkt, maar met die LDAP authenticatie kwam ik tot dezelfde resultaten, tenzij iemand nog iets kan noemen wat dan niet werkt, maar ben het nog niet tegengekomen.

Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
HA cluster idee opgegeven. In ieder geval bedankt voor het meedenken.

Heb het nu zo opgelost:

Op de ene NAS "Cloud Station Server" geïnstalleerd en op de andere NAS "Cloud Station ShareSync".
Mijn bestanden worden nu beide kanten op gesynchroniseerd op deze manier (incl meerdere restore points). Apps e.d. die geinstalleerd staan zal ik bij een crash zelf moeten herstellen maar mijn data is in ieder geval veilig.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
Klinkt goed!

Even niets...


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 31-08 22:00
renedis schreef op vrijdag 14 juli 2017 @ 10:23:
[...]


Ik probeer nu m'n XPenology in een HA cluster te zetten wat me helaas niet lukt :(

Ik heb per VM minstens 2 NICs (vmxnet3) aangesloten en daarbij 1 nic op m'n reguliere vSwitch ingesteld en de andere NIC op een nieuwe aparte vSwitch. Ook geprobeerd om alles in 1 vSwitch te hangen in dezelfde DHCP scope, maar dat bood geen oplossing :(

Als ik HA op wil gaan zetten blijft de VM zeggen als advies dat ik voor de heartbeat een direct attached cable moet gebruiken.

Hoe heb jij dit opgezet?
Volgens mij moest ik multicast en forged transmits aanzetten.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 31-08 22:00
henkjan1995 schreef op vrijdag 14 juli 2017 @ 13:38:
Heeft hier iemand ervaring met het joinen van een vCenter 6.5 server appliance in een Active Directory domein?

Ik loop namelijk tegen het probleem aan dat dit bij mij niet werkt (zowel niet via de shell middels het commando "/opt/likewise/bin/domainjoin-cli join domein.nl admin@domein.nl" als via de webinterface). Bij het joinen krijg ik geen errors en als ik dit doe via de cli dan geeft hij ook als status "success", maar zodra de VM gereboot is staat er dat de machine niet in het domein zit (niets ingevuld bij de node onder AD). In AD is er echter wel een computer object bijgekomen die de naam van de vCenter server heeft.

De volgende dingen heb ik al geprobeerd:
- Reverse DNS voor de vCenter server ingesteld
- Domeinnaam in capitals
- Compleet opnieuw uitgerolde (dus kale) vCenter joinen
- Zowel geprobeerd met de evaluatie license als met onze vSphere Essentials license
- Specifieke OU definiëren bij het joinen in domein
- Gekeken naar errors of warnings in de events, waarbij ik eigenlijk niets voorbij zag komen over domain join

Is dit een bekend probleem of heeft iemand nog een idee waardoor dit probleem veroorzaakt kan worden (of waar ik eventueel verder kan zoeken)?
Ik kan even niet kijken, maar volgens mij staat het domein er bij VCSA niet bij, die join knop wordt een leave knop. Staat een dc wel als ntp voor VCSA en gebruik je een dc als DNS? En staat niet per ongeluk IPv6 op een router aan maar niet op de DNS server?

Als je Linux als DNS gebruikt heb ik nog wel ergens een lijst met de records die je moet aanmaken.

[ Voor 6% gewijzigd door |sWORDs| op 17-07-2017 14:18 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • royalt123
  • Registratie: Juni 2011
  • Laatst online: 11-09 20:42
Ik heb sinds gisteren Esxi 6.5.0d geïnstalleerd en geconfigureerd op oude laptop. Alles werkt naar behoren.
Alleen is netwerken beetje anders dan bij hyper-v waar ik meer ervaring mee hebt.
Ik wil eigenlijk een specifiek virtueel machine (Windows server) waarop die enkel internet toegang heeft dus niet Lan gedeelte waar andere pc's/vm zitten. De reden daarvoor is hoofdzakelijk veiligheid. Hoe kan ik dat best aanpakken?

Ideale scenario is eigenlijk dat ik van buitenaf toegang heb tot die machine via Openvpn en zal worden als off-site backup :*)

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
Heeft je machine 2 netwerkkaarten?

Even niets...


Acties:
  • 0 Henk 'm!

  • royalt123
  • Registratie: Juni 2011
  • Laatst online: 11-09 20:42
Jammer genoeg niet, wil ook niet via deze weg gaan omdat het server bij iemand anders zal staan moet simpel mogelijk houden voor hen :P

Ik denk nu aan om pfsense te gebruiken zodat ik verkeer kan indelen.
1 Wan en 2 Lan waarvan 1 Lan specifiek voor 1 vm zal verbonden zijn en via pfsense zorg ik dat die Lan niet op de andere Lan kan maar het de Wan poort zal wel in Lan omgeving terechtkomen maar vermoed dat PfSense pakket dropt bij Wan.
En dan ga ik openvpn (exclusief aan die specifieke Lan) site to site verbinden naar mijn openvpn server zodat ik altijd gemakkelijk aankan.
FireDrunk schreef op dinsdag 18 juli 2017 @ 13:40:
Heeft je machine 2 netwerkkaarten?

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 31-08 22:00
royalt123 schreef op dinsdag 18 juli 2017 @ 12:39:
Ik heb sinds gisteren Esxi 6.5.0d geïnstalleerd en geconfigureerd op oude laptop. Alles werkt naar behoren.
Alleen is netwerken beetje anders dan bij hyper-v waar ik meer ervaring mee hebt.
Ik wil eigenlijk een specifiek virtueel machine (Windows server) waarop die enkel internet toegang heeft dus niet Lan gedeelte waar andere pc's/vm zitten. De reden daarvoor is hoofdzakelijk veiligheid. Hoe kan ik dat best aanpakken?

Ideale scenario is eigenlijk dat ik van buitenaf toegang heb tot die machine via Openvpn en zal worden als off-site backup :*)
NIC-vSwitch-Firewall distro VM-vSwitch-VM
Of VLANs als je een managed switch hebt

Wat voor router en/of switch gebruik je?

Te Koop:24 Core Intel Upgradeset


Acties:
  • +1 Henk 'm!

  • Vorkie
  • Registratie: September 2001
  • Niet online
|sWORDs| schreef op dinsdag 18 juli 2017 @ 18:11:
[...]

NIC-vSwitch-Firewall distro VM-vSwitch-VM
Of VLANs als je een managed switch hebt

Wat voor router en/of switch gebruik je?
Zit je weer stiekem in het restaurant op GoT

Acties:
  • 0 Henk 'm!

  • henkjan1995
  • Registratie: Januari 2011
  • Laatst online: 05-01 17:54
|sWORDs| schreef op maandag 17 juli 2017 @ 14:15:
[...]

Ik kan even niet kijken, maar volgens mij staat het domein er bij VCSA niet bij, die join knop wordt een leave knop. Staat een dc wel als ntp voor VCSA en gebruik je een dc als DNS? En staat niet per ongeluk IPv6 op een router aan maar niet op de DNS server?

Als je Linux als DNS gebruikt heb ik nog wel ergens een lijst met de records die je moet aanmaken.
IPv6 staat op alle routers zelfs nog helemaal disabled, dus daar kan het m.i. niet aan liggen.
De "leave" knop is overigens na de reboot nog steeds grayed out, alleen join staat tussen opties en bij domeinnaam staat niets ingevuld. De DNS server is overigens een Windows server (zelfde server als DC).
Waar ik wel achter kwam, is dat de tijd die op de vCenter (die vanuit de shell weergegeven wordt) ingesteld stond, 2 uur achterliep op die van de DC. Dit ondanks dat ik zowel de tijd van de ESXi host overnam en ook gebruik heb gemaakt van een NTP server. Ik heb de tijd daarom handmatig gewijzigd in /etc/timezone om te kijken of dit verschik maakt waarbij ook dat niet mocht baten.

Ik ben vervolgens thuis in mijn eigen lab-omgeving gaan testen hiermee, waarbij ik wel succes had met het joinen van de VCSA in domein (verschil is dat hier geen router tussen zit, dat mijn AD is opgebouwd vanuit Server 2012 R2 en dat ik het met het standaard domain administrator account heb uitgevoerd). Ik denk daarom dat het probleem niet zit in VCSA maar in de opbouw van ons AD-domein/DNS hier op het werk.

De rest moet ik verder zelf wel uit kunnen zoeken, bedankt in ieder geval voor de reacties.

XPS17 l702x 2670qm, 12GB, 128GB SSD, 500GB HDD, GT555m


Acties:
  • 0 Henk 'm!

  • okio
  • Registratie: Juni 2002
  • Laatst online: 13-09 18:11
Wat is nou de beste manier om een storage hdd (4tb) te delen over verschillende VM's heen?

Het gaat om 1x lunix en 1x Xpenology waarvan ik dus graag dezelfde hdd zou willen gebruiken, ik heb wel een guide op internet gevonden. Maar dat werkt niet helemaal naar behoren.

Wat ik geprobeerd heb,
Nieuwe HD format, vervolgens mapje aanmaken.
Op de eerste VM nieuwe device toegevoegd, daarna nieuwe controller SCSI LSI logical, Virtual
Daarna nieuwe HDD aangemaakt, met de volgende opties:

Location: apart mapje
Disk Provisioning: Thick provision eager zeroed
Virtual Device Node: de nieuw aangemaakte scsi controller
Disk mode: Independant – Persistdent

Ik sta op het punt om toe te passen en vervolgens op de 2e VM ditzelfde te herhalen. Gaat dit goed zo of kan ik beter een andere methode hanteren?

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
Wil je dat ze bij elkaars data kunnen? Of ieder gewoon hun eigen data op dezelfde fysieke schijf?

Even niets...


Acties:
  • 0 Henk 'm!

  • okio
  • Registratie: Juni 2002
  • Laatst online: 13-09 18:11
FireDrunk schreef op maandag 24 juli 2017 @ 06:43:
Wil je dat ze bij elkaars data kunnen? Of ieder gewoon hun eigen data op dezelfde fysieke schijf?
Het mooiste zou zijn bij de data kunnen...

Dus vanuit Ubuntu ook de bestanden kunnen zien die de xpenology heeft aangemaakt vanuit mijn videocamera

Acties:
  • +1 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
Dat is _heel_ lastig om op die manier te doen. Dan is een share tussen de bakken aanmaken makkelijker.

Beter is om een Datastore te gebruiken en beide machines een vDisk te geven op die Datastore.

Even niets...


Acties:
  • 0 Henk 'm!

  • okio
  • Registratie: Juni 2002
  • Laatst online: 13-09 18:11
FireDrunk schreef op maandag 24 juli 2017 @ 11:55:
Dat is _heel_ lastig om op die manier te doen. Dan is een share tussen de bakken aanmaken makkelijker.

Beter is om een Datastore te gebruiken en beide machines een vDisk te geven op die Datastore.
Ok, ja dat kan natuurlijk ook.

Zit ik dan op het goede spoor met bovenstaande instellingen? Dus nieuwe controller, met nieuwe schijf voor vm1 met bovenstaande opties. Dan nieuwe controller op vm2, vervolgens existing datastore.

Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
Nee, een Datastore aanmaken gaat buiten de vm om. Je bent ook alle data op de schijf kwijt, en hij wordt geformatteerd met VMFS.

Daarna kan je de machines extra disks geven op die specifieke datastore. Op dat moment maakt ESXi onderwater een file aan in die Datastore, welke door de vm gezien wordt als een hele disk, (in het geval van linux is dat dan /dev/sdb).

Als het goed is heb je al een datastore, want als je al VMs hebt, moeten die ook al op een Datastore staan...

Even niets...


Acties:
  • 0 Henk 'm!

  • okio
  • Registratie: Juni 2002
  • Laatst online: 13-09 18:11
Ja ik heb 2 datastores, 1 ssd die als boot/programma schijf in gebruik is.
En vooralsnog 1x 4tb opslag.

Die laatste wou ik dus dmv bovenstaande opties gebruiken als datastore.
Als ik het goed begrijp kan dat alleen dedicated?
Dus bv ubuntu 1x1tb, xpenology 1x2tb? En dan dus 2 schijven??

Misschien beetje n00b vragen maar ben nog relatief nieuw met esxi

Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 13-09 16:45
Kan iemand mij zeggen wat ik fout doe :)
Ik probeer een telnet connectie op te zetten via een serial port met een xpenology vm maar wat ik ook doe ik blijf connection refused error krijgen.


Firewall van ESXi aangepast
Afbeeldingslocatie: http://www.stichtingqualityevents.nl/images/esxi-serial.PNG

En de serialpoort instellingen van de vm staan ook goed dacht ik zo.
Afbeeldingslocatie: http://www.stichtingqualityevents.nl/images/esxi-serial2.PNG

Vind het wel raar dat er staat connected No klopt dit wel.

Acties:
  • 0 Henk 'm!

  • bdegroot
  • Registratie: Juli 2001
  • Laatst online: 10-09 23:04
ComTech schreef op maandag 24 juli 2017 @ 13:02:
Kan iemand mij zeggen wat ik fout doe :)
Ik probeer een telnet connectie op te zetten via een serial port met een xpenology vm maar wat ik ook doe ik blijf connection refused error krijgen.


Firewall van ESXi aangepast
[afbeelding]

En de serialpoort instellingen van de vm staan ook goed dacht ik zo.
[afbeelding]

Vind het wel raar dat er staat connected No klopt dit wel.
Herkenbaar probleem.
Bleek dat dit alleen werkt bij een full (paid) version van ESXi, dus enterprise ofzo.

Bij de ESXi free versie is deze remote serial functie uitgeschakeld.

Wat je kan doen is even terug gaan naar een 30 day evaluation versie, dan werkt het wel even.
Daarna weer je free licentie invoeren.

Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 13-09 16:45
bdegroot schreef op maandag 24 juli 2017 @ 13:05:
[...]


Herkenbaar probleem.
Bleek dat dit alleen werkt bij een full (paid) version van ESXi, dus enterprise ofzo.

Bij de ESXi free versie is deze remote serial functie uitgeschakeld.

Wat je kan doen is even terug gaan naar een 30 day evaluation versie, dan werkt het wel even.
Daarna weer je free licentie invoeren.
Ah ik dacht dat ik gek werd 8)7
Dan weet ik in iedergeval wat het probleem is maar als ik m'n free licentie verwijder zegt ie alleen dat de huidige is verlopen, teruggaan naar 30 day free trail is er ook niet bij.

Acties:
  • 0 Henk 'm!

  • bdegroot
  • Registratie: Juli 2001
  • Laatst online: 10-09 23:04
ComTech schreef op maandag 24 juli 2017 @ 13:26:
[...]


Ah ik dacht dat ik gek werd 8)7
Dan weet ik in iedergeval wat het probleem is maar als ik m'n free licentie verwijder zegt ie alleen dat de huidige is verlopen, teruggaan naar 30 day free trail is er ook niet bij.
Er zijn methodes om je evaluation versie te resetten zullen we maar zeggen ;)
middels het tijdelijk aanpassen van een file. even googlen.

Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 13-09 16:45
bdegroot schreef op maandag 24 juli 2017 @ 13:33:
[...]


Er zijn methodes om je evaluation versie te resetten zullen we maar zeggen ;)
middels het tijdelijk aanpassen van een file. even googlen.
Het is al gelukt op een andere manier ;)
Toch bedankt ik wist dus niet van die beperking van de free versie.

Acties:
  • +1 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
okio schreef op maandag 24 juli 2017 @ 12:58:
Ja ik heb 2 datastores, 1 ssd die als boot/programma schijf in gebruik is.
En vooralsnog 1x 4tb opslag.

Die laatste wou ik dus dmv bovenstaande opties gebruiken als datastore.
Als ik het goed begrijp kan dat alleen dedicated?
Dus bv ubuntu 1x1tb, xpenology 1x2tb? En dan dus 2 schijven??

Misschien beetje n00b vragen maar ben nog relatief nieuw met esxi
Je kan een disk niet delen tussen VM's zonder deze door ESXi te laten 'claimen' en er VMFS op te zetten.
Je kan wel een complete disk doorgeven aan een VM door middel van RDM (Raw Device Mapping), maar dat is niet de beste methode. Beter is om bijvoorbeeld een NVMe drive te gebruiken om van te booten, en de onboard SATA controller via VT-d (VMDirectPath) door te geven aan de VM. Dan ziet de VM (via de doorgegeven controller) je SATA schijf, en kan deze naar hartelust gebruiken.

Je kan NIET een controller doorgeven waar 2 schijven op zitten, waar je 1 schijf nog voor ESXi zelf wil gebruiken. Het is alles-of-niets :)

In jouw geval, zet de 4TB data ergens anders neer (backups?) maak een Datastore aan op de 4TB disk en maak 2 schijven van 2 (of meer) TB aan voor de VM's. Daarna kan je de data weer terug kopiëren.

Even niets...


Acties:
  • 0 Henk 'm!

  • moppentappers
  • Registratie: Februari 2008
  • Laatst online: 09-09 21:28
Weet iemand toevallig of de nieuwe core i9's van Intel al werken met VMware ESXi?
Ik wilde een nieuwe testmachine gaan maken voor een flinke lading VM's, maar ik kan nergens iets vinden over de compatibility.

Acties:
  • 0 Henk 'm!

  • iamzero456
  • Registratie: Juni 2009
  • Laatst online: 21-08 13:25
Zou iemand mij kunnen helpen met (mogelijk) een dom probleem?

Ik heb een Esxi server - specs:

Intel G4560
1x 4gb DDR4 (erg weinig, ik weet het - meer is onderweg)
RX480 4GB
Crucial MX300 256GB

Daarin heb ik een virtuele machine met windows 10, voorheen met 2GB RAM toegewezen. Na het verwijderen en weer toevoegen van een RX 480 (passtrough, werkte voorheen heel goed) of misschien kwam het wel van een ander PCI device krijg ik bij het opstarten de volgende melding:

Failed to power on virtual machine Windows10. Invalid memory setting: memory reservation (sched.mem.min) should be equal to memsize(2048)

Verhoog ik ' the reservation' via de Settings naar bijvoorbeeld precies 2048 of hoger, dan krijg ik een andere foutmelding:

Failed to power on virtual machine Windows10. The available Memory resources in the parent resource pool are insufficient for the operation.

Ik heb tevens ook geprobeerd te spelen met de waardes, maar mogelijk begrijp ik niet goed hoe Esxi met zijn geheugen omgaat of ik zie iets over het hoofd. Voorheen bij het wijzigen van een S-ata Passtrough kreeg ik deze melding ook, maar bij het verlagen naar 600MB startte hij wel gewoon op.

Als ik een nieuwe VM maak, kan ik zelfs 4GB RAM instellen en daar start de nieuwe VM gewoon mee op, vreemd genoeg. Het zal dus in die specifieke VM ergens zitten? Ik heb alleen weinig trek weer Windows opnieuw te installeren als ik weet dat deze VM gewoon werkt..

Van google wordt ik vooralsnog niet wijzer, de suggesties heb ik zover ik zie geprobeerd. Er was ook iemand die aangaf dat de Latency Sensitivity op Normal moest staan. Deze optie heb ik ook een keer heen en weer gegooid, maar geen effect. Heeft iemand ervaring met deze melding en weet wat ik mag doen?

Alvast bedankt! :)

Acties:
  • 0 Henk 'm!

  • moppentappers
  • Registratie: Februari 2008
  • Laatst online: 09-09 21:28
Wat ik altijd doe bij dit soort problemen is even de VMX bestanden vergelijken, over het algemeen kan je dat makkelijk zien waar de oorzaak in zit.

Acties:
  • 0 Henk 'm!

  • iamzero456
  • Registratie: Juni 2009
  • Laatst online: 21-08 13:25
moppentappers schreef op dinsdag 25 juli 2017 @ 17:31:
Wat ik altijd doe bij dit soort problemen is even de VMX bestanden vergelijken, over het algemeen kan je dat makkelijk zien waar de oorzaak in zit.
Ik heb ze even vergeleken (ssh -- cat *.vmx en vervolgens via https://www.diffchecker.com/diff vergeleken), maar grote verschillen behalve het geheugen zie ik even niet. Ja, ik zie dat ik bij de test vm geen PCI heb toegevoegd e.d.

Toch maar even Windows 10 opnieuw downloaden en installeren op die andere VM

Update:

Ok vaag, Windows 10 geïnstalleerd en opgestart - gaat prima met 4GB. Ik shut hem en voeg de videokaart toe, krijgt weer dezelfde foutmelding. Ik verwijder de videokaart in settings, WEER dezelfde foutmelding. Ik begrijp het niet helemaal, die videokaart toevoegen (VRAM?) klooit iets met RAM instellingen, maar ik kom er niet achter wat er precies fout gaat. Ik ga nogmaals de vmx files vergelijken...

Ik heb overigens de free version van ESXI 6.0 , maar betwijfel of dat iets uitmaakt.

Update:

Ok ik geef het op, ik denk ik reboot de host eens - kijken of dat helpt. Nu is mijn zojuist aangemaakte en geinstalleerde VM verdwenen. Hoe dan? Dit is niet mijn dag :)

[ Voor 36% gewijzigd door iamzero456 op 25-07-2017 19:41 ]


Acties:
  • 0 Henk 'm!

  • okio
  • Registratie: Juni 2002
  • Laatst online: 13-09 18:11
FireDrunk schreef op maandag 24 juli 2017 @ 16:10:
[...]


Je kan een disk niet delen tussen VM's zonder deze door ESXi te laten 'claimen' en er VMFS op te zetten.
Je kan wel een complete disk doorgeven aan een VM door middel van RDM (Raw Device Mapping), maar dat is niet de beste methode. Beter is om bijvoorbeeld een NVMe drive te gebruiken om van te booten, en de onboard SATA controller via VT-d (VMDirectPath) door te geven aan de VM. Dan ziet de VM (via de doorgegeven controller) je SATA schijf, en kan deze naar hartelust gebruiken.

Je kan NIET een controller doorgeven waar 2 schijven op zitten, waar je 1 schijf nog voor ESXi zelf wil gebruiken. Het is alles-of-niets :)

In jouw geval, zet de 4TB data ergens anders neer (backups?) maak een Datastore aan op de 4TB disk en maak 2 schijven van 2 (of meer) TB aan voor de VM's. Daarna kan je de data weer terug kopiëren.
Ok ty ik heb het uiteindelijk gewoon weer op de normale manier gedaan en vervolgens via NFS share gedaan. Dat werkt op zich ook prima.
Ik moet alleen binnenkort mijn hdd space uitbreiden, gaat snel met dit esxi verhaal en een setje hd cameras :). Dat is dan naast alle voordelen weer een nadeel van de deskmini 110.

Acties:
  • 0 Henk 'm!

  • Corteztm3
  • Registratie: December 2007
  • Laatst online: 29-08 13:35
Het probleem is dat je geen reservering heb staan op de memory wat wel benodigd is zodra je een pass-trough doet. Als het goed is kan je "reserve all memory" aanvinken, mijn verwachting is dat daardoor jouw probleem opgelost is.

Acties:
  • 0 Henk 'm!

  • iamzero456
  • Registratie: Juni 2009
  • Laatst online: 21-08 13:25
Corteztm3 schreef op donderdag 27 juli 2017 @ 09:46:
Het probleem is dat je geen reservering heb staan op de memory wat wel benodigd is zodra je een pass-trough doet. Als het goed is kan je "reserve all memory" aanvinken, mijn verwachting is dat daardoor jouw probleem opgelost is.
Maar ik haal de passtrhough er ook weer af, dan zou die toch wel weer moeten opstarten?
Volgens mij had ik dat al eens geprobeerd, maar ik zal het even checken. Zodra ik er achter ben zal ik het laten weten.

[ Voor 8% gewijzigd door iamzero456 op 27-07-2017 09:50 ]


Acties:
  • 0 Henk 'm!

  • renedis
  • Registratie: Juli 2003
  • Laatst online: 22-07 10:05
iamzero456 schreef op donderdag 27 juli 2017 @ 09:50:
[...]


Maar ik haal de passtrhough er ook weer af, dan zou die toch wel weer moeten opstarten?
Volgens mij had ik dat al eens geprobeerd, maar ik zal het even checken. Zodra ik er achter ben zal ik het laten weten.
Als je passthrough er af haalt moet je nog handmatig de reservation er af halen.

Deze meldingen komen naar voren omdat je te weinig geheugen vrij hebt.
Wat soms nog wel eens wilt helpen is de ESXi host te rebooten. Dan haal je tijdelijk het geheugen gebruik van de host zelf omlaag en kan je de VMs aanslingeren.

Acties:
  • 0 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 31-08 22:00
moppentappers schreef op maandag 24 juli 2017 @ 16:18:
Weet iemand toevallig of de nieuwe core i9's van Intel al werken met VMware ESXi?
Ik wilde een nieuwe testmachine gaan maken voor een flinke lading VM's, maar ik kan nergens iets vinden over de compatibility.
Volgens mijin 6.5u1 welke ook waarschijnlijk met Zen werkt. Ook zijn daar de problemen met de AHCI native driver gefixt. Maandag kan ik het checken.

Edit confirmed, waarbij Skylake-SP ook werkt met 6.0u3 en 6.5 GA. Zen (EPYC Zeppelin/Naples) is wel 6.5u1 only en of het met Ryzen werkt zal iemand moeten proberen, maar ik verwacht het wel.

[ Voor 16% gewijzigd door |sWORDs| op 28-07-2017 13:09 ]

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 09:10
De nieuwe Ryzen 3 zijn leuke ESXi servertjes. 4 snelle cores voor ~120 euro :+

Even niets...


Acties:
  • 0 Henk 'm!

  • wouser
  • Registratie: Oktober 2014
  • Laatst online: 11-09 19:16
Ik ben bezig een home-server samen te stellen en vroeg mij af of ik esxi op nvme kon installeren, ik lees dat dat kan maar welke drives supported zijn krijg ik niet helemaal boven water...

Mijn onderdelen:
Supermicro X11SSH-LN4F
Intel Xeon E3-1225 v6 Tray

Nvme: Samsung 960pro

Gaat Esxi die herkennen en daarvan af kunnen booten of heb ik een andere nodig of moet ik drivers toevoegen aan de iso?

Acties:
  • +1 Henk 'm!

  • |sWORDs|
  • Registratie: Maart 2000
  • Laatst online: 31-08 22:00
wouser schreef op zondag 30 juli 2017 @ 10:29:
Ik ben bezig een home-server samen te stellen en vroeg mij af of ik esxi op nvme kon installeren, ik lees dat dat kan maar welke drives supported zijn krijg ik niet helemaal boven water...

Mijn onderdelen:
Supermicro X11SSH-LN4F
Intel Xeon E3-1225 v6 Tray

Nvme: Samsung 960pro

Gaat Esxi die herkennen en daarvan af kunnen booten of heb ik een andere nodig of moet ik drivers toevoegen aan de iso?
Dat werkt gewoon.

Te Koop:24 Core Intel Upgradeset


Acties:
  • 0 Henk 'm!

  • wouser
  • Registratie: Oktober 2014
  • Laatst online: 11-09 19:16
Dank voor je respons!

Mijn definitieve build word dan:

#ProductPrijsSubtotaal
1Intel Xeon E3-1225 v6 Tray€ 242,24€ 242,24
1Supermicro X11SSH-LN4F€ 243,-€ 243,-
1BitFenix Shinobi Window Zwart€ 64,51€ 64,51
1Kingston ValueRAM KVR21E15D8/16€ 168,46€ 168,46
1BitFenix Whisper BWG450M€ 79,18€ 79,18
1Samsung 960 EVO 250GB€ 126,-€ 126,-
Bekijk collectie
Importeer producten
Totaal€ 923,39


Wat ik met deze server wil doen is het volgende:
- Pfsense
- Freenas
- PiHole
- Plex (met 4K HDR support; vandaar de recentste xeon)
- Home assistant
- DownloadVM
- Ubuntu/linux MV's om te expirimenteren

Heb ik dan een complete build of zie ik schromelijk dingen over het hoofd of heb ik een extreem overdreven build?

PS: Ik realiseer me dat ik geen harde schijven heb in dit lijstje :)

Acties:
  • 0 Henk 'm!

  • Vorkie
  • Registratie: September 2001
  • Niet online
@wouser ga je 4k transcoding doen? Of direct play?

Je hebt een 4 core xeon, maar met al die andere vms (file en netwerk die gelijktijdig gebruikt worden met kijken) kan het zijn dat er wachttijden gaan ontstaan met 4k transcoding en dus haperingen mogelijk dat iemand hier al ervaring mee heeft, weet namelijk niet heel zeker.

Acties:
  • 0 Henk 'm!

  • wouser
  • Registratie: Oktober 2014
  • Laatst online: 11-09 19:16
@ThaNetRunner Beiden; afhankelijk van waar en waarop ik mijn media wil afspelen. De zwaarste VM's gaan de freenas en PLEX zijn. De anderen zullen een lage load hebben en zat er aan te denken om 2 cores naar de freenas te dedicaten en een voor PLEX.

Als iemand hier ervaring mee heeft hoor ik het graag, alternatieven zijn ook welkom! Maar als ik het goed heb heeft de grafische chip op deze process hardware 4K HDR ondersteuning dus zou dat de load aanzienlijk moeten verminderen toch?

Edit: Of levert de E3-1275 v6 me zoveel meer power op dat hij de 100 euro waard is?

E3-1275 v6 passmark: 11414
E3-1225 v6 passmark: 7671

[ Voor 30% gewijzigd door wouser op 30-07-2017 17:50 ]


Acties:
  • 0 Henk 'm!

  • Vorkie
  • Registratie: September 2001
  • Niet online
wouser schreef op zondag 30 juli 2017 @ 14:02:
@ThaNetRunner Beiden; afhankelijk van waar en waarop ik mijn media wil afspelen. De zwaarste VM's gaan de freenas en PLEX zijn. De anderen zullen een lage load hebben en zat er aan te denken om 2 cores naar de freenas te dedicaten en een voor PLEX.

Als iemand hier ervaring mee heeft hoor ik het graag, alternatieven zijn ook welkom! Maar als ik het goed heb heeft de grafische chip op deze process hardware 4K HDR ondersteuning dus zou dat de load aanzienlijk moeten verminderen toch?

Edit: Of levert de E3-1275 v6 me zoveel meer power op dat hij de 100 euro waard is?

E3-1275 v6 passmark: 11414
E3-1225 v6 passmark: 7671
De vm kan alleen niet bij de GPU, dus kan die ook niet offloaden er naar. Voor Plex moet je volgens mij dan wel een Plex pass hebben om met een Intel gpu te kunnen transcoding.

Voor gpu pass through zijn er wat haken en ogen volgens mij, maar dat weet @|sWORDs| vast wel zo op te noemen :)

Acties:
  • 0 Henk 'm!

  • wouser
  • Registratie: Oktober 2014
  • Laatst online: 11-09 19:16
Wauw, thanks for deze tip! Hoezo kan de plex vm niet gebruikmaken van de GPU van de processor? Een plex pass heb ik dus dat zou geen probleem moeten zijn dan toch?
Pagina: 1 ... 8 ... 24 Laatste