Proxmox schrijft zeer intensief metrics en de interne state weg naar de schijf waar het op staat. In het verleden heb ik daar goedkopere SSD's mee weten te slopen, tegenwoordig gaat dat iets beter omdat ook goedkopere SSD's wat beter tegen writes kunnen. Maar USB-sticks zou ik toch wel afraden.Robbie-1 schreef op maandag 5 mei 2025 @ 20:13:
[...]
Dat hoop ik te bereiken, door de USB stick waarop ESXi op staat te ruilen voor die externe USB van Sandisk.
Ik ga er vanuit, dat proxmox, net zoals ESXi verder niets met de interne disks doet toch?
Ik heb zelf een migratie gedaan van ESXi naar Proxmox door de ESXi import te gebruiken. Dat kan als je een 2e systeem optuigt en deze inzet als Proxmox host.
Dan koppel je de bestaande vcenter of ESXi host aan Proxmox en kan je de VMs inladen en importeren.
Scheelt bakken met tijd, en downtime is minimaal.
Wellicht is het een optie om tijdelijk een compacte systeem hiervoor in te zetten.
Eenmaal over en werkend, kan je de ESXi formateren en voorzien van Proxmox en migreer je de boel terug met minimale downtime.
De PC zet je daarna in als 2e host of verkoop je dan weer. De resources die nodig zijn, kunnen minimaal zijn.
Dan koppel je de bestaande vcenter of ESXi host aan Proxmox en kan je de VMs inladen en importeren.
Scheelt bakken met tijd, en downtime is minimaal.
Wellicht is het een optie om tijdelijk een compacte systeem hiervoor in te zetten.
Eenmaal over en werkend, kan je de ESXi formateren en voorzien van Proxmox en migreer je de boel terug met minimale downtime.
De PC zet je daarna in als 2e host of verkoop je dan weer. De resources die nodig zijn, kunnen minimaal zijn.
Alles went behalve een Twent.
⏩ PVOutput☀️
Niet dat ik weet. De vm's kunnen draaien zonder boot disk - dat wel. Maar voor de meeste andere functies heb je de boot disk nodig... En iets repareren gaat alleen via herinstallatie en terugzetten van backups.... tis te zeggen... ik heb geen weet van een installatie methode die je de vm configs weer laat "oppikken" van de nog draaiende vm's (is me bij esx trowens ook nooit gelukt).Robbie-1 schreef op maandag 5 mei 2025 @ 20:13:
[...]
Dat hoop ik te bereiken, door de USB stick waarop ESXi op staat te ruilen voor die externe USB van Sandisk.
Ik ga er vanuit, dat proxmox, net zoals ESXi verder niets met de interne disks doet toch? Nou ja, wel met de VM images natuurijk. Mijn ESXi boot disk was ook al eens stuk. Die kon ik vrij eenvoudig vervangen, door de setup nogmaals te draaien, en weer te koppelen met de VM's, dat gaat met proxmox net zo toch?
makes it run like clockwork
Volgens mij wil je te geavanceerd migreren voor iemand die er (nog) net te weinig vanaf weet. Mijn advies zou zijn keep it simple. Proxmox gebruikt een linux filesystem, waar ESXi vaak VMFS gebruikt een VMware-FileSystem. Je zou uit moeten zoeken of proxmox VMFS support heeft, ik zou dat pad niet bewandelen want je wilt het liefst zo stabiel mogelijk starten met een verse installatie en het oude achter je laten. De tips over een nieuwe disk + separate installatie zijn al gegeven.Robbie-1 schreef op maandag 5 mei 2025 @ 20:13:
[...]
Dat hoop ik te bereiken, door de USB stick waarop ESXi op staat te ruilen voor die externe USB van Sandisk.
Ik ga er vanuit, dat proxmox, net zoals ESXi verder niets met de interne disks doet toch? Nou ja, wel met de VM images natuurijk. Mijn ESXi boot disk was ook al eens stuk. Die kon ik vrij eenvoudig vervangen, door de setup nogmaals te draaien, en weer te koppelen met de VM's, dat gaat met proxmox net zo toch?
https://www.proxmox.com/e...-import-wizard-for-vmware
Wat @Quad aangeeft werkt het goed met de nieuwe VMimporter, je hebt dan wel een 2e server nodig.
Ik heb recent de overstap gemaakt naar Proxmox van VMware. Was in een cluster opstelling, dus daar heb ik eerst alle VM's verplaatst naar 1 machine, deze vervolgens verwijderd in VMware en er Proxmox op gezet.
Vervolgens alle VM's via de importer overgezet.
Dan de tweede server omgezet naar Proxmox en toegevoegd aan mijn cluster.
Lees zeker goed de documentatie door! Er zijn bepaalde randvoorwaarden en tips die er niet voor niets staan (fixed IP's verwijderen bijvoorbeeld in Windows).
Grootste nadeel in mijn scenario was dat ik de VM's niet live kon migreren tussen mijn 2 nodes, dit moest via een backup/restore scenario. Minimale impact op beschikbaarheid, maar duurt gewoon lang als er veel data mee gemoeid is.
LXCs met wat services in zijn supersnel, windows servers met een datastorage van 750gb duren wat langer.
Vervolgens alle VM's via de importer overgezet.
Dan de tweede server omgezet naar Proxmox en toegevoegd aan mijn cluster.
Lees zeker goed de documentatie door! Er zijn bepaalde randvoorwaarden en tips die er niet voor niets staan (fixed IP's verwijderen bijvoorbeeld in Windows).
Grootste nadeel in mijn scenario was dat ik de VM's niet live kon migreren tussen mijn 2 nodes, dit moest via een backup/restore scenario. Minimale impact op beschikbaarheid, maar duurt gewoon lang als er veel data mee gemoeid is.
LXCs met wat services in zijn supersnel, windows servers met een datastorage van 750gb duren wat langer.
Bedoel je dat je tussen de twee PVE hosts niet kan migreren zonder dat je VMs uit moet schakelen?RailHenk87 schreef op dinsdag 6 mei 2025 @ 09:47:
Ik heb recent de overstap gemaakt naar Proxmox van VMware. Was in een cluster opstelling, dus daar heb ik eerst alle VM's verplaatst naar 1 machine, deze vervolgens verwijderd in VMware en er Proxmox op gezet.
Vervolgens alle VM's via de importer overgezet.
Dan de tweede server omgezet naar Proxmox en toegevoegd aan mijn cluster.
Lees zeker goed de documentatie door! Er zijn bepaalde randvoorwaarden en tips die er niet voor niets staan (fixed IP's verwijderen bijvoorbeeld in Windows).
Grootste nadeel in mijn scenario was dat ik de VM's niet live kon migreren tussen mijn 2 nodes, dit moest via een backup/restore scenario. Minimale impact op beschikbaarheid, maar duurt gewoon lang als er veel data mee gemoeid is.
LXCs met wat services in zijn supersnel, windows servers met een datastorage van 750gb duren wat langer.
Alles went behalve een Twent.
⏩ PVOutput☀️
Ik denk dat het wel kan met shared storage in een HA set-up, maar die mogelijkheid had ik niet.
Het kan zeker ook zonder shared storage en zonder HA set-up, maar misschien zijn er nog wel wat voorwaarden waar de hosts in een cluster aan moeten voldoen waarvan ik niet precies weet welke (maar in de paar clusters die ik beheer werkt het).
Volgende major release voor dit najaar Veeam B&R v13, zal volledig op linux werken.ThinkPad schreef op zondag 4 mei 2025 @ 20:38:
[...]
Enige nadeel is dat je er een Windows machine (ik draai het in een VM) voor moet optuigen ...
En ze zullen een VM image aanleveren voor een all-in-one Linux appliance oplossing.
[ Voor 3% gewijzigd door GoBieN-Be op 07-05-2025 18:55 ]
Die schijf die door ESXi is voorzien van een partitie layout en het propitiatory VMWare filesystem (VMFS), zal niet door Proxmox herkend worden. Je leest je best nog eens in, over hoe VM's over te zetten van ESXi naar Proxmox.Robbie-1 schreef op maandag 5 mei 2025 @ 20:13:
[...]
Dat hoop ik te bereiken, door de USB stick waarop ESXi op staat te ruilen voor die externe USB van Sandisk.
Ik ga er vanuit, dat proxmox, net zoals ESXi verder niets met de interne disks doet toch?
Oei, die had ik inderdaad even niet voorzien. Dan zal er nog een tussenstap tussen moeten, eerst de boel op een andere host installeren, en dan inderdaad de VM images stuk voor stuk over zetten.Die schijf die door ESXi is voorzien van een partitie layout en het propitiatory VMWare filesystem (VMFS), zal niet door Proxmox herkend worden. Je leest je best nog eens in, over hoe VM's over te zetten van ESXi naar Proxmox.
Ik hoopte dat de schijven waar de images op staan, door zowel ESXi als Proxmox te gebruiken waren.
@RailHenk87 Ging dat goed met die windows server? moest je die b.v opnieuw activeren?
Mijn server is ongeveer net zo groot, hoe lang duurde het converteren?
[ Voor 13% gewijzigd door Robbie-1 op 07-05-2025 22:37 ]
@Robbie-1 Inderdaad, 2e host met PVE opzetten, kan je eventueel wat testen alvorens je daadwerkelijk de switch maakt.
Met de ESXi import blijft de ESXi VM draaien tot import klaar is, dan afsluiten en nieuwe opstarten.
Voordat je migreert wel even de Virtiodrivers installeren. Dan is de guestagent en ethernetadapter ook actief op de gemigreerde VM.
Met de ESXi import blijft de ESXi VM draaien tot import klaar is, dan afsluiten en nieuwe opstarten.
Voordat je migreert wel even de Virtiodrivers installeren. Dan is de guestagent en ethernetadapter ook actief op de gemigreerde VM.
Alles went behalve een Twent.
⏩ PVOutput☀️
Er stond me nog wat bij over het mounten van Esx(i) datastores onder Linux en nog eens verder gekeken.
Howto: https://www.nakivo.com/bl...re-in-linux-windows-esxi/
FS Driver: https://code.google.com/archive/p/vmfs/
Volgens de howto zit die in Ubuntu en dat betekent dat die onder Proxmox ook gebruikt zou kunnen worden.
En nog even op Proxmox gekeken en daar zit ie ook in.
Howto: https://www.nakivo.com/bl...re-in-linux-windows-esxi/
FS Driver: https://code.google.com/archive/p/vmfs/
Volgens de howto zit die in Ubuntu en dat betekent dat die onder Proxmox ook gebruikt zou kunnen worden.
En nog even op Proxmox gekeken en daar zit ie ook in.
code:
1
2
| p vmfs-tools - Tools to access VMFS filesystems p vmfs6-tools - Tools to access VMFS6 filesystems |
Wie du mir, so ich dir.
Het is niet zo moeilijk:eheijnen schreef op donderdag 8 mei 2025 @ 06:23:
Er stond me nog wat bij over het mounten van Esx(i) datastores onder Linux en nog eens verder gekeken.
Howto: https://www.nakivo.com/bl...re-in-linux-windows-esxi/
FS Driver: https://code.google.com/archive/p/vmfs/
Volgens de howto zit die in Ubuntu en dat betekent dat die onder Proxmox ook gebruikt zou kunnen worden.
En nog even op Proxmox gekeken en daar zit ie ook in.
code:
1 2 p vmfs-tools - Tools to access VMFS filesystems p vmfs6-tools - Tools to access VMFS6 filesystems
:strip_exif()/f/image/xw1t7RCIzR8Ygfbtygk2cs7J.jpg?f=fotoalbum_large)
Alles went behalve een Twent.
⏩ PVOutput☀️
Zie het filmpje wat ik deelde, je mount dan niet de storage maar je mount de ESXi host op het mgmt IP, toch?
Precies als je de importer gebruikt ben je het snelste en op de veiligste manier op je plaats van bestemming.RailHenk87 schreef op dinsdag 6 mei 2025 @ 09:47:
Ik heb recent de overstap gemaakt naar Proxmox van VMware. Was in een cluster opstelling, dus daar heb ik eerst alle VM's verplaatst naar 1 machine, deze vervolgens verwijderd in VMware en er Proxmox op gezet.
Vervolgens alle VM's via de importer overgezet.
Dan de tweede server omgezet naar Proxmox en toegevoegd aan mijn cluster.
Lees zeker goed de documentatie door! Er zijn bepaalde randvoorwaarden en tips die er niet voor niets staan (fixed IP's verwijderen bijvoorbeeld in Windows).
Grootste nadeel in mijn scenario was dat ik de VM's niet live kon migreren tussen mijn 2 nodes, dit moest via een backup/restore scenario. Minimale impact op beschikbaarheid, maar duurt gewoon lang als er veel data mee gemoeid is.
LXCs met wat services in zijn supersnel, windows servers met een datastorage van 750gb duren wat langer.
Wat jij bedoeld is dat je Proxmox op de USB stick zet en dan kan je lokaal de SSD's mounten? Blockstorage kan je alleen ontsluiten in een blokstorage protocol zoals iSCSI over het LAN en dat valt af op ESXi die kan het niet aanbieden alleen mounten. Met deze werkwijze blijf je zitten met de uitdaging dat je dan een Proxmox host hebt zonder native Linux filesystem, zou ik niet willen, dan moet je alsnog daar vanaf weg migreren. Dit kan je wel doen maar dan als tussenstap waarbij je van VMFS de vmx en vmdk overzet naar een NAS/HD en dan later vanuit de de "externe" storage terug importeren.eheijnen schreef op donderdag 8 mei 2025 @ 06:23:
Er stond me nog wat bij over het mounten van Esx(i) datastores onder Linux en nog eens verder gekeken.
Howto: https://www.nakivo.com/bl...re-in-linux-windows-esxi/
FS Driver: https://code.google.com/archive/p/vmfs/
Volgens de howto zit die in Ubuntu en dat betekent dat die onder Proxmox ook gebruikt zou kunnen worden.
En nog even op Proxmox gekeken en daar zit ie ook in.
code:
1 2 p vmfs-tools - Tools to access VMFS filesystems p vmfs6-tools - Tools to access VMFS6 filesystems
Inderdaad als je dat doet via de importer wizard hoef je jezelf niet bezig te houden met converteren van disks etc. Die wizard zit er pas een klein jaartje in dus niet iedereen weet dat deze optie bestaat. Nu je schrijft dat je een 2e host hebt is het plaatje volgens mij rond.Robbie-1 schreef op woensdag 7 mei 2025 @ 22:18:
[...]
Oei, die had ik inderdaad even niet voorzien. Dan zal er nog een tussenstap tussen moeten, eerst de boel op een andere host installeren, en dan inderdaad de VM images stuk voor stuk over zetten.
Ik hoopte dat de schijven waar de images op staan, door zowel ESXi als Proxmox te gebruiken waren.
Automatic Import of Full VM
Proxmox VE provides an integrated VM importer using the storage plugin system for native integration into the API and web-based user interface. You can use this to import the VM as a whole, with most of its config mapped to Proxmox VE's config model and reduced downtime.
Ging helemaal prima! Inderdaad belangrijk om bij de import de disken als IDE te verbinden, anders gaat je server niet booten. Activatie is gewoon geldig gebleven.Robbie-1 schreef op woensdag 7 mei 2025 @ 22:18:
[...]
Ging dat goed met die windows server? moest je die b.v opnieuw activeren?
Mijn server is ongeveer net zo groot, hoe lang duurde het converteren?
Naast je originele disken dan eentje van 1gb met scsi protocol toevoegen en virtio drivers installeren. Vervolgens VM afsluiten, tijdelijke schijf wissen en de originele schijven omzetten naar scsi. Meer is er niet aan!
Anders maak je eerst even een nieuwe windows server op je huidige set-up om als test te migreren? Schijfje van 64gb importeren duurt niet lang. Zo kan de hele procedure duidelijk worden.
Ik moest alles over 1gbps lan poortje trekken, dus wel enkele uren zoet geweest.
Nee, je kunt hiermee de vmware datastore / disc direct onder linux mounten / benaderen.stormfly schreef op donderdag 8 mei 2025 @ 08:21:
[...]
Wat jij bedoeld is dat je Proxmox op de USB stick zet en dan kan je lokaal de SSD's mounten? Blockstorage kan je alleen ontsluiten in een blokstorage protocol zoals iSCSI over het LAN en dat valt af op ESXi die kan het niet aanbieden alleen mounten. Met deze werkwijze blijf je zitten met de uitdaging dat je dan een Proxmox host hebt zonder native Linux filesystem, zou ik niet willen, dan moet je alsnog daar vanaf weg migreren. Dit kan je wel doen maar dan als tussenstap waarbij je van VMFS de vmx en vmdk overzet naar een NAS/HD en dan later vanuit de de "externe" storage terug importeren.
Ik zou dat niet als filesystem gebruiken, maar het kan handig zijn om zaken over te zetten / veilig te stellen / trouble shooting...
Wie du mir, so ich dir.
En Vmware tools de-installeren, want dat lukt achteraf niet makkelijk.Quad schreef op woensdag 7 mei 2025 @ 22:38:
@Robbie-1Voordat je migreert wel even de Virtiodrivers installeren. Dan is de guestagent en ethernetadapter ook actief op de gemigreerde VM.
Ik heb een Proxmox setup met 2 SSDs in mirror:
Zitten dus 3 schijven in mijn setup, met plek voor een 4de. Nu wil ik mijn Kingstons gaan vervangen door WD Reds. Mijn idee was om de mirror uit te breiden met de eerste WD Red, en na resilvering een van de Kingston schijven eruit te gooien, en dit dan te herhalen voor de 2de Kingston.
Mijn stappenplan zou dan zijn:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
| root@pve:~# zpool status pool: rpool state: ONLINE scan: scrub repaired 0B in 00:13:41 with 0 errors on Sun May 11 00:37:42 2025 config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ata-KINGSTON_SA400S37960G_50026B728XXXXXXX-part3 ONLINE 0 0 0 ata-KINGSTON_SA400S37960G_50026B738XXXXXXX-part3 ONLINE 0 0 0 errors: No known data errors |
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
| root@pve:~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS sda 8:0 0 894.3G 0 disk ├─sda1 8:1 0 1007K 0 part ├─sda2 8:2 0 1G 0 part └─sda3 8:3 0 893.3G 0 part sdb 8:16 0 894.3G 0 disk ├─sdb1 8:17 0 1007K 0 part ├─sdb2 8:18 0 1G 0 part └─sdb3 8:19 0 893.3G 0 part sdc 8:32 0 5.5T 0 disk └─frigate_storage-vm--101--disk--0 252:0 0 5T 0 lvm zd0 230:0 0 1M 0 disk zd16 230:16 0 48G 0 disk ├─zd16p1 230:17 0 1M 0 part ├─zd16p2 230:18 0 1G 0 part └─zd16p3 230:19 0 47G 0 part zd32 230:32 0 16G 0 disk ├─zd32p1 230:33 0 2G 0 part └─zd32p2 230:34 0 14G 0 part zd48 230:48 0 32G 0 disk ├─zd48p1 230:49 0 32M 0 part ├─zd48p2 230:50 0 24M 0 part ├─zd48p3 230:51 0 256M 0 part ├─zd48p4 230:52 0 24M 0 part ├─zd48p5 230:53 0 256M 0 part ├─zd48p6 230:54 0 8M 0 part ├─zd48p7 230:55 0 96M 0 part └─zd48p8 230:56 0 31.3G 0 part |
Zitten dus 3 schijven in mijn setup, met plek voor een 4de. Nu wil ik mijn Kingstons gaan vervangen door WD Reds. Mijn idee was om de mirror uit te breiden met de eerste WD Red, en na resilvering een van de Kingston schijven eruit te gooien, en dit dan te herhalen voor de 2de Kingston.
Mijn stappenplan zou dan zijn:
- sgdisk -R=/dev/disk/by-id/ata-NEW_SSD_MODEL_WD_RED /dev/disk/by-id/ata-KINGSTON_SA400S37960G_50026B728XXXXXXX
- sgdisk -G /dev/disk/by-id/ata-NEW_SSD_MODEL_WD_RED
- proxmox-boot-tool format /dev/disk/by-id/ata-NEW_SSD_MODEL_WD_RED-part2
- proxmox-boot-tool init /dev/disk/by-id/ata-NEW_SSD_MODEL_WD_RED-part2
- zpool attach rpool /dev/disk/by-id/ata-KINGSTON_SA400S37960G_50026B728XXXXXX-part3 /dev/disk/by-id/ata-NEW_SSD_MODEL_WD_RED-part3
- zpool status (wachten op resilvering)
- zpool detach rpool /dev/disk/by-id/ata-KINGSTON_SA400S37960G_50026B728XXXXXXX-part3
[ Voor 4% gewijzigd door tjanssen op 12-05-2025 14:20 . Reden: Stappenplan aangepast ]
Kun je niet beter gewoon gebruik maken van de replace functie?
Goede suggestie denk ik. Deze doet de laatste 3 stappen in 1 keer?krijn1985 schreef op maandag 12 mei 2025 @ 13:48:
Kun je niet beter gewoon gebruik maken van de replace functie?
Ik ben hier niet de ZFS expert, maar volgens mij vervang je er gewoon alle commando's mee. In ieder geval in mijn proxmox installatie (ooit begonnen met 6.3 volgens mij toen ZFS nog niet in de GUI zat) heb ik ooit een schijf vervangen uit raidz-1 pool met alleen:tjanssen schreef op maandag 12 mei 2025 @ 14:26:
[...]
Goede suggestie denk ik. Deze doet de laatste 3 stappen in 1 keer?
waarbij device_old als ata-TOSHIBA_DT.... was.zpool replace -f <poolname> <device_old> <device_new>
Maar dat is alleen voor ZFS dan. Als die schijf ook nog een boot drive is met een EFI partitie etc... gaat dat dus mis. Want dan heb je een schijf waar wel de data op staat maar die niet kan booten. Daarom zullen die andere stappen nodig zijn, de proxmox-boot-... commando's.krijn1985 schreef op maandag 12 mei 2025 @ 14:40:
[...]
Ik ben hier niet de ZFS expert, maar volgens mij vervang je er gewoon alle commando's mee. In ieder geval in mijn proxmox installatie (ooit begonnen met 6.3 volgens mij toen ZFS nog niet in de GUI zat) heb ik ooit een schijf vervangen uit raidz-1 pool met alleen:
[...]
waarbij device_old als ata-TOSHIBA_DT.... was.
Goeie opmerking, was inderdaad alleen opslag in mijn geval en geen boot. Had even gemist dat die commando's waren voor het fixen van je boot. @tjanssen het is dus inderdaad vervangen van laatste 3 commando's.RobertMe schreef op maandag 12 mei 2025 @ 14:55:
[...]
Maar dat is alleen voor ZFS dan. Als die schijf ook nog een boot drive is met een EFI partitie etc... gaat dat dus mis. Want dan heb je een schijf waar wel de data op staat maar die niet kan booten. Daarom zullen die andere stappen nodig zijn, de proxmox-boot-... commando's.
Heb jij hier nog last van gehad ?ninjazx9r98 schreef op zondag 20 april 2025 @ 18:57:
@ComTech Sinds een paar dagen heb ik op een NUC die ik al meer dan een jaar heb draaien 'vanuit het niets' vreemde verschijnselen met CPU load en memory gebruik. Het is een i3 NUC van de 11e generatie met 64GB die tot grofweg vorige week altijd probleemloos gedraaid heeft. Afgelopen vrijdag had ik ineens DNS issues en was de Adguard LXC container niet meer fatsoenlijk te gebruiken/benaderen. Console wilde niet fatsoenlijk openen, shutdown wilde ook niet dus heb deze met een kill uit de lucht geschoten en daarna weer gestart.
Verder niet gekeken, gevalletje domme pech dacht ik.
Vandaag exact hetzelfde probleem, Adguard container niet meer te gebruiken, wil niet stoppen, geen console enz enz. Ingelogd met SSH op de hypervisor zelf en met top een load gezien schommelend tussen de 16 en 17. Grootverbruiker was Adguard en toen besloten om proxmox een volledige reboot te geven. Down brengen van de draaiende VM's en containers duurde een 'eeuwigheid', vooral Adguard duurde lang om down te gaan maar uiteindelijk is de reboot gelukt.
Adguard is pas geupdate, proxmox heeft begin van de maand redelijk wat updates gehad en een paar dagen terug wat perl updates.
Ik heb nu in ieder geval een schoon gestart systeem en ga de komende dagen regelmatig inloggen om te zien of en hoe snel de load weer oploopt. Op dit moment heb of Adguard de boosdoener is/was of een gevolg van iets anders.
Mijn reverse proxy LXC was ineens niet bereikbaar hele hoge cpu load en met moeite de LXC kunnen stoppen.
Exact het gedrag wat jij met de Adguard lxc had.
Iemand anders soortgelijke problemen gehad de laatste tijd? Heb het idee dat het gekomen is na de update naar 8.4.1 .
Nope, na de reboot van Proxmox geen last meer gehad. Uptime is 25 dagen en het systeem gedraagd zich keurig. Heb ook het idee dat het met de update te maken heeft (gehad) maar kan niet verklaren waarom het na de reboot niet meer gebeurt is.ComTech schreef op donderdag 15 mei 2025 @ 22:26:
[...]
Heb jij hier nog last van gehad ?
Mijn reverse proxy LXC was ineens niet bereikbaar hele hoge cpu load en met moeite de LXC kunnen stoppen.
Exact het gedrag wat jij met de Adguard lxc had.
Iemand anders soortgelijke problemen gehad de laatste tijd? Heb het idee dat het gekomen is na de update naar 8.4.1 .
Heeft iemand dé gouden tip voor mij?
Ik heb 2 proxmox hosts. Een als "productie"server(prd) en een als speeltuin(tst).
Op prd heb ik onder andere Adguard en Ngingx proxy manager in een eigen LXC draaien. Icm met een duckdns 'domein' kan ik alles wat op mijn 'prd' server draait intern benaderen dmv de in NPM ingestelde proxy hosts (domein.duckdns.org verwijst dus naar een intern IP)
De proxmox gui van de 'tst' server kan ik op dezelfde manier benaderen, dus de hosts zien elkaar. Maar nu het probleem: op 'tst' heb ik een aantal docker containers draaien en deze zijn via intern IP te benaderen. Echter krijg ik het niet voor elkaar om deze om m'n gebruikelijke manier via NPM te benaderen.
Ik vermoed dat het met de networking config in m'n Docker-compose te maken zal hebben. Maar... wat moet ik aanpassen/instellen?
Ik heb 2 proxmox hosts. Een als "productie"server(prd) en een als speeltuin(tst).
Op prd heb ik onder andere Adguard en Ngingx proxy manager in een eigen LXC draaien. Icm met een duckdns 'domein' kan ik alles wat op mijn 'prd' server draait intern benaderen dmv de in NPM ingestelde proxy hosts (domein.duckdns.org verwijst dus naar een intern IP)
De proxmox gui van de 'tst' server kan ik op dezelfde manier benaderen, dus de hosts zien elkaar. Maar nu het probleem: op 'tst' heb ik een aantal docker containers draaien en deze zijn via intern IP te benaderen. Echter krijg ik het niet voor elkaar om deze om m'n gebruikelijke manier via NPM te benaderen.
Ik vermoed dat het met de networking config in m'n Docker-compose te maken zal hebben. Maar... wat moet ik aanpassen/instellen?
Wat je noemt is niet relevant toch? Je hebt een aantal containers op je netwerk die een IP hebben waarop ze zijn te bereiken binnen je netwerk. NGINX moet dan gewoon als reverse proxy voor die containers kunnen fungeren. Gebruik je wel het juiste IP adres, en niet het interne docker IP?HowsMyApple schreef op donderdag 22 mei 2025 @ 13:41:
Heeft iemand dé gouden tip voor mij?
Ik heb 2 proxmox hosts. Een als "productie"server(prd) en een als speeltuin(tst).
Op prd heb ik onder andere Adguard en Ngingx proxy manager in een eigen LXC draaien. Icm met een duckdns 'domein' kan ik alles wat op mijn 'prd' server draait intern benaderen dmv de in NPM ingestelde proxy hosts (domein.duckdns.org verwijst dus naar een intern IP)
De proxmox gui van de 'tst' server kan ik op dezelfde manier benaderen, dus de hosts zien elkaar. Maar nu het probleem: op 'tst' heb ik een aantal docker containers draaien en deze zijn via intern IP te benaderen. Echter krijg ik het niet voor elkaar om deze om m'n gebruikelijke manier via NPM te benaderen.
Ik vermoed dat het met de networking config in m'n Docker-compose te maken zal hebben. Maar... wat moet ik aanpassen/instellen?
@Erwin537 Ik dacht ik benoem zoveel mogelijk van hoe ik het heb draaien, want wellicht zit m'n issue ergens anders dan ikzelf denk.
Maar in NPM gebruik het IP adres van de VM waar de docker containers op draaien icm de juiste port.
In mijn gevalt verwijst http://192.168.1.102:8080 naar de Trilium service (draaiende in een LXC) op 'prd'
en http://192.168.1.204:8080 verwijst naar de Trilium service (draaiende in een docker container) op 'tst'.
Beiden zijn met de ip-adressen te benaderen, maar met NPM (draaiende op 'prd') ertussen kan ik dus geen enkele docker container benaderen draaiende op 'tst'.
Maar in NPM gebruik het IP adres van de VM waar de docker containers op draaien icm de juiste port.
In mijn gevalt verwijst http://192.168.1.102:8080 naar de Trilium service (draaiende in een LXC) op 'prd'
en http://192.168.1.204:8080 verwijst naar de Trilium service (draaiende in een docker container) op 'tst'.
Beiden zijn met de ip-adressen te benaderen, maar met NPM (draaiende op 'prd') ertussen kan ik dus geen enkele docker container benaderen draaiende op 'tst'.
Misschien een domme vraag:HowsMyApple schreef op donderdag 22 mei 2025 @ 14:06:
@Erwin537 Ik dacht ik benoem zoveel mogelijk van hoe ik het heb draaien, want wellicht zit m'n issue ergens anders dan ikzelf denk.
Maar in NPM gebruik het IP adres van de VM waar de docker containers op draaien icm de juiste port.
In mijn gevalt verwijst http://192.168.1.102:8080 naar de Trilium service (draaiende in een LXC) op 'prd'
en http://192.168.1.204:8080 verwijst naar de Trilium service (draaiende in een docker container) op 'tst'.
Beiden zijn met de ip-adressen te benaderen, maar met NPM (draaiende op 'prd') ertussen kan ik dus geen enkele docker container benaderen draaiende op 'tst'.
Maar met welke url kom je binnen op NPM voor de prd kant? En wat is die voor de tst kant?
makes it run like clockwork
Ik denk niet dat ik helemaal begrijp wat je bedoelt met "kom je binnen op NPM".Airw0lf schreef op donderdag 22 mei 2025 @ 14:25:
[...]
Misschien een domme vraag:
Maar met welke url kom je binnen op NPM voor de prd kant? En wat is die voor de tst kant?
Trilium op prd (in LXC) benader ik met notes.domein.duckdns.org - dit werkt
Trilium op tst (in docker container) benader ik met trilium.domein.duckdns.org - dit werkt niet
Vanuit de NPM LXC kan ik naar de VM (op tst) pingen waar de docker containers op draaien
Beantwoordt dat je vraag?
Deels - ergens moet er iets zijn wat die aanvragen naar NPM stuurt.HowsMyApple schreef op donderdag 22 mei 2025 @ 17:02:
[...]
Ik denk niet dat ik helemaal begrijp wat je bedoelt met "kom je binnen op NPM".
Trilium op prd (in LXC) benader ik met notes.domein.duckdns.org - dit werkt
Trilium op tst (in docker container) benader ik met trilium.domein.duckdns.org - dit werkt niet
Vanuit de NPM LXC kan ik naar de VM (op tst) pingen waar de docker containers op draaien
Beantwoordt dat je vraag?
En in NPM moet iets staan wat die aanvraag oppakt en naar de juiste endpoint doorstuurd.
Afgaande op de resultaten lijkt het erop dat je dit voor prd goed hebt ingesteld.
Maar voor tst niet => ergens in de routering/vertaling lijkt er iets niet goed te staan.
makes it run like clockwork
Je hebt beide subdomeinen in duckdns opgezet en de config (los van IP uiteraard) in NPM is voor beide hetzelfde?HowsMyApple schreef op donderdag 22 mei 2025 @ 17:02:
[...]
Ik denk niet dat ik helemaal begrijp wat je bedoelt met "kom je binnen op NPM".
Trilium op prd (in LXC) benader ik met notes.domein.duckdns.org - dit werkt
Trilium op tst (in docker container) benader ik met trilium.domein.duckdns.org - dit werkt niet
Vanuit de NPM LXC kan ik naar de VM (op tst) pingen waar de docker containers op draaien
Beantwoordt dat je vraag?
En wat als je in de console van NPM een ping doet naar je trillium docker container op de test proxmox?
Gebruik je nou trouwens het IP adres van de docker container of het IP adres van de LXC/VM waar docker in draait?
Ik, ik stuur de aanvraag via m'n browser naar NPM? Op duckdns verwijst mijn domein naar intern IP voor NPM.Airw0lf schreef op donderdag 22 mei 2025 @ 17:07:
[...]
Deels - ergens moet er iets zijn wat die aanvragen naar NPM stuurt.
En in NPM moet iets staan wat die aanvraag oppakt en naar de juiste endpoint doorstuurd.
Afgaande op de resultaten lijkt het erop dat je dit voor prd goed hebt ingesteld.
Maar voor tst niet => ergens in de routering/vertaling lijkt er iets niet goed te staan.
@Erwin537
Er is maar 1 subdomein. Vanuit Duckdns dus direct naar NPM die alles intern naar de juiste ip-adressen zou moeten doorsturen.Je hebt beide subdomeinen in duckdns opgezet en de config (los van IP uiteraard) in NPM is voor beide hetzelfde?
root@nginxproxymanager:~# curl http://192.168.1.204:8080En wat als je in de console van NPM een ping doet naar je trillium docker container op de test proxmox?
Found. Redirecting to login
(die redirect lijkt me ook niet het probleem trouwens, ook bij containers waarbij er geen login redirect plaats vindt werkt het niet)
Het IP van de VM waar de docker containers op draaien, aagevuld met juiste poortnummer per applicatie. Dus 192.168.1.204 is IP van VM, en poort 8080 zou naar Trilium moeten gaan.Gebruik je nou trouwens het IP adres van de docker container of het IP adres van de LXC/VM waar docker in draait?
Dit is exact hetzelfde als hoe ik het op m'n prd server heb ingesteld.
Ok - maar dan gebruik je NPM als reverse proxy.HowsMyApple schreef op donderdag 22 mei 2025 @ 18:10:
[...]
Ik, ik stuur de aanvraag via m'n browser naar NPM? Op duckdns verwijst mijn domein naar intern IP voor NPM.
[...]
Het IP van de VM waar de docker containers op draaien, aagevuld met juiste poortnummer per applicatie. Dus 192.168.1.204 is IP van VM, en poort 8080 zou naar Trilium moeten gaan.
Dit is exact hetzelfde als hoe ik het op m'n prd server heb ingesteld.
Wat wil zeggen dat alle aanvragen het Internet op gaan. En via de DNS instellingen van DuckDNS weer terug naar de beoogde VM en verder.
Wat is er aan port forwarding ingesteld op je router?
In een eerder bericht schreef je:
Wat heb je bij NPM precies ingesteld voor PRD? En wat voor TST?Trilium op prd (in LXC) benader ik met notes.domein.duckdns.org - dit werkt
Trilium op tst (in docker container) benader ik met trilium.domein.duckdns.org - dit werkt niet
De vraag lijkt me redelijk off-topic... lijkt me eerder gerelateerd aan NPM dan Proxmox...
[ Voor 5% gewijzigd door Airw0lf op 22-05-2025 18:56 ]
makes it run like clockwork
Klopt, ik ken (nog) geen andere usecase dan dit voor NPM dus dat was van mij vanzelfsprekend. Excuus als dat voor verwarring heeft gezorgd.Airw0lf schreef op donderdag 22 mei 2025 @ 18:20:
[...]
Ok - maar dan gebruik je NPM als reverse proxy.
Wat wil zeggen dat alle aanvragen het Internet op gaan. En via de DNS instellingen van DuckDNS weer terug naar de beoogde VM en verder.
Dat is toch niet relevant lijkt me? Ik zeg tegen Duckdns "hoi ik wil naar notes.domein.duckdns.org" Dan zegt Duckdns "oh prima, het ip adres dat wij kennen bij domein.duckdns.org is 192.168.1.101". Dan kom ik bij mijn NPM uit, en afhankelijk van het subdomein stuurt het me door naar het juiste interne IP-adres.Wat is er aan port forwarding ingesteld op je router?
Niets. Ik heb 2 proxmox hosts. Op de prd host draait NPM die dus als reverse proxy dient en via *naamVanApp.domein.duckdns.org me door kan sturen naar alle LXC's en VM's die op prd draaien. Daarnaast stuurt het me via tst.domein.duckdns.org ook door naar de proxmox GUI draaiende op tst.In een eerder bericht schreef je:
[...]
Wat heb je bij NPM precies ingesteld voor PRD? En wat voor TST?
Zal zo eens testen of ik wel VM's en LXC's op de tst kan benaderen dmv reverse proxy. Mocht dat wel lukken zal het m.i. toch in de docker compose network config moeten zitten.
@HowsMyApple - er gebeurd onder de motorkap meer dan op het eerste oog lijkt.
Ik heb een vergelijkbare opstelling en heb wel degelijk aanpassingen gedaan in de NGINX instellingen van NPM.
Of in mijn geval dan SWAG - die ook van NGINX gebruik maakt voor de reverse proxy functies.
Als je die Trilium diensten niet via Internet beschikbaar wil hebben dan is er inderdaad niks aan port-forwarding nodig.
Blijft over het antwoord op de vraag:
Hoe weet NPM wat ie moet doen bij elke aanvraag? Waar heb je dat ingesteld? Enig idee?
Want je moet iets ingesteld hebben - NPM doet niks uit zichzelf.
Ik heb een vergelijkbare opstelling en heb wel degelijk aanpassingen gedaan in de NGINX instellingen van NPM.
Of in mijn geval dan SWAG - die ook van NGINX gebruik maakt voor de reverse proxy functies.
Als je die Trilium diensten niet via Internet beschikbaar wil hebben dan is er inderdaad niks aan port-forwarding nodig.
Blijft over het antwoord op de vraag:
Hoe weet NPM wat ie moet doen bij elke aanvraag? Waar heb je dat ingesteld? Enig idee?
Want je moet iets ingesteld hebben - NPM doet niks uit zichzelf.
makes it run like clockwork
Dit begint meer op NPM te lijken dan op Proxmox. Misschien handiger om een eigen topic te vragen met deze posts en een duidelijke topic-titel die wellicht de juiste mensen aanspreekt?
Ik denk ook dat er is aangehaakt op de verkeerde punten uit m'n eerste post. NPM, duckdns, portforwarding zijn allemaal niet het probleem. Het probleem zit 'm in de hoek docker+proxmox+network bridge. Want zoals ik al een paar keer had gezegd werkt local dns prima via NPM. Enkel en alleen niet naar docker containers. (edit: ook niet naar containers op 'prd' zelf, zojuist getest)
Ik ga wel op zoek naar een docker topic en/of subreddit. Toch bedankt voor het meedenken
Ik ga wel op zoek naar een docker topic en/of subreddit. Toch bedankt voor het meedenken
[ Voor 7% gewijzigd door HowsMyApple op 22-05-2025 20:02 ]
Ok - dan alvast een suggestie voor het vervolg:HowsMyApple schreef op donderdag 22 mei 2025 @ 20:01:
Ik denk ook dat er is aangehaakt op de verkeerde punten uit m'n eerste post. NPM, duckdns, portforwarding zijn allemaal niet het probleem. Het probleem zit 'm in de hoek docker+proxmox+network bridge. Want zoals ik al een paar keer had gezegd werkt local dns prima via NPM. Enkel en alleen niet naar docker containers. (edit: ook niet naar containers op 'prd' zelf, zojuist getest)
Ik ga wel op zoek naar een docker topic en/of subreddit. Toch bedankt voor het meedenken
Post je docker-compose of docker-cli voor het starten van de containers.
Idem van /etc/network/interfaces van Proxmox.
Wat gebeurd er als je een nslookup doet in PVE?
En wat als je dit in de VM/LXC en de bijbehorende container doet?
makes it run like clockwork
Ik draai nu OMV om shares te maken in het netwerk.
Deze mount in in Proxmox met fstab
Die mount ik weer in een LXC voor Docker.
Ik begreep al dat dit mooier kan.
Ben nu aan het kijken hoe Samba werkt en had een vraag hierover. Ik zie dat er veel tutorials zijn dat Samba in een LXC wordt geïnstalleerd. Is dat de beste optie? Niet direct op de Proxmox host?
Deze mount in in Proxmox met fstab
Die mount ik weer in een LXC voor Docker.
Ik begreep al dat dit mooier kan.
Ben nu aan het kijken hoe Samba werkt en had een vraag hierover. Ik zie dat er veel tutorials zijn dat Samba in een LXC wordt geïnstalleerd. Is dat de beste optie? Niet direct op de Proxmox host?
Was gisteren wat aan het zoeken naar HyperV vs Proxmox benchmarks, kwam ik dit topic tegen:
https://forum.proxmox.com...han-x86-64-v2-aes.159107/
Ik heb sinds februari een Windows 2022 SSD VPS bij Contabo vervangen door een Windows 2025 NVME VPS omdat het oude product niet meer bestond en de prijzen daardoor zouden stijgen. Windows 2025 heeft nooit fatsoenlijk gelopen, altijd traag, altijd idle 10-15% CPU verbruik. Ik heb gisteren een support ticket ingeschoten bij Contabo om de cpu type=host te vervangen door EPYC-IBPBP, kort daarna ging de VPS uit en weer aan, kreeg ik bevestiging dat ze een aanpassing hadden gedaan, VPS was daarna gewoon snel en goed werkbaar.
Iets om in de gaten te houden als je Windows 10 (laatste versie), 11 of 2025 op Proxmox draait. Windows 2019 en 2022 hebben er minder last van, maar merk ook daarmee wel verbetering als de CPU type aangepast wordt.
https://forum.proxmox.com...han-x86-64-v2-aes.159107/
Ik heb sinds februari een Windows 2022 SSD VPS bij Contabo vervangen door een Windows 2025 NVME VPS omdat het oude product niet meer bestond en de prijzen daardoor zouden stijgen. Windows 2025 heeft nooit fatsoenlijk gelopen, altijd traag, altijd idle 10-15% CPU verbruik. Ik heb gisteren een support ticket ingeschoten bij Contabo om de cpu type=host te vervangen door EPYC-IBPBP, kort daarna ging de VPS uit en weer aan, kreeg ik bevestiging dat ze een aanpassing hadden gedaan, VPS was daarna gewoon snel en goed werkbaar.
Iets om in de gaten te houden als je Windows 10 (laatste versie), 11 of 2025 op Proxmox draait. Windows 2019 en 2022 hebben er minder last van, maar merk ook daarmee wel verbetering als de CPU type aangepast wordt.
Ja - dit vindt ik veruit de beste optie en is ook hoe ik het nu gebruik.RedRayMann schreef op vrijdag 23 mei 2025 @ 08:59:
Ik draai nu OMV om shares te maken in het netwerk.
Deze mount in in Proxmox met fstab
Die mount ik weer in een LXC voor Docker.
Ik begreep al dat dit mooier kan.
Ben nu aan het kijken hoe Samba werkt en had een vraag hierover. Ik zie dat er veel tutorials zijn dat Samba in een LXC wordt geïnstalleerd. Is dat de beste optie? Niet direct op de Proxmox host?
Met die kanttekening dat ik de mount door pve laat doen in de vorm van een lvm volume om de lxc te starten en een mp voor alle data => geen pve-lvm-thin of een ext4 mount via fstab.
In diezelfde lxc draai ik dan ook nog een paar docker containers zoals syncthing, nextcloud en mariadb.
De software en configs staan\t op de eerste lvm - de gegevens staan op de tweede (via een mp).
OMV heb ik een tijdje geprobeerd. Maar de manier waarop ze rechten en docker containers geregeld hebben vindt ik nodeloos ingewikkeld - met name de rechten rondom samba.
makes it run like clockwork
Ik heb ook problemen met Immich.Airw0lf schreef op vrijdag 23 mei 2025 @ 09:22:
[...]
Ja - dit vindt ik veruit de beste optie en is ook hoe ik het nu gebruik.
Met die kanttekening dat ik de mount door pve laat doen in de vorm van een lvm volume om de lxc te starten en een mp voor alle data => geen pve-lvm-thin of een ext4 mount via fstab.
In diezelfde lxc draai ik dan ook nog een paar docker containers zoals syncthing, nextcloud en mariadb.
De software en configs staan\t op de eerste lvm - de gegevens staan op de tweede (via een mp).
OMV heb ik een tijdje geprobeerd. Maar de manier waarop ze rechten en docker containers geregeld hebben vindt ik nodeloos ingewikkeld - met name de rechten rondom samba.
Immich werkt alleen met de standaard opslaglocatie. Terwijl ik JellyFin wel werkend heb met alle data op een share.
Maar Docker en Immich staan op mijn nvme en wil niet dat mijn foto opslag daarop komt. Die moet op de ssd.
Zat ook te denken dat ik misschien een nieuwe lxc moet maken met opslag op de ssd. Dat is misschien makkelijker.
Interessant om te lezen, vind het heel vreemd gedrag. Achja, Windows he_JGC_ schreef op vrijdag 23 mei 2025 @ 09:22:
Was gisteren wat aan het zoeken naar HyperV vs Proxmox benchmarks, kwam ik dit topic tegen:
https://forum.proxmox.com...han-x86-64-v2-aes.159107/
Ik heb sinds februari een Windows 2022 SSD VPS bij Contabo vervangen door een Windows 2025 NVME VPS omdat het oude product niet meer bestond en de prijzen daardoor zouden stijgen. Windows 2025 heeft nooit fatsoenlijk gelopen, altijd traag, altijd idle 10-15% CPU verbruik. Ik heb gisteren een support ticket ingeschoten bij Contabo om de cpu type=host te vervangen door EPYC-IBPBP, kort daarna ging de VPS uit en weer aan, kreeg ik bevestiging dat ze een aanpassing hadden gedaan, VPS was daarna gewoon snel en goed werkbaar.
Iets om in de gaten te houden als je Windows 10 (laatste versie), 11 of 2025 op Proxmox draait. Windows 2019 en 2022 hebben er minder last van, maar merk ook daarmee wel verbetering als de CPU type aangepast wordt.
Er is een chinees die een technische analyse heeft gedaan: https://www.reddit.com/r/...formance_of_windows_when/orvintax schreef op vrijdag 23 mei 2025 @ 16:39:
[...]
Interessant om te lezen, vind het heel vreemd gedrag. Achja, Windows he(Kon deze kans natuurlijk niet laten liggen als Linux man)
Post bevat een link naar een chinese blog die je door google translate moet halen.
Komt erop neer dat Windows met cpu=host bepaalde beveiligingsmaatregelen neemt tegen de vele CPU bugs van de laatste jaren. L1TF en md_clear zijn de schuldige flags. Wat Windows alleen niet weet is dat linux op de achtergrond ook al maatregelen neemt.
klopt, als ik hem op 'hosts' heb staan en ik pas de Microsoft Security Toolkit security templates toe (die doen wat met VBS etc) dan start de VM niet meer op.. zet ik de VM op x86-x64-v2 (of hoger) dan loopt ie wel goed door_JGC_ schreef op vrijdag 23 mei 2025 @ 16:50:
[...]
Er is een chinees die een technische analyse heeft gedaan: https://www.reddit.com/r/...formance_of_windows_when/
Post bevat een link naar een chinese blog die je door google translate moet halen.
Komt erop neer dat Windows met cpu=host bepaalde beveiligingsmaatregelen neemt tegen de vele CPU bugs van de laatste jaren. L1TF en md_clear zijn de schuldige flags. Wat Windows alleen niet weet is dat linux op de achtergrond ook al maatregelen neemt.
A wise man's life is based around fuck you
Met "host" heb je ook nested virtualisatie, met x86-x64-v2 heb je dat niet en werkt VBS niet.Zwelgje schreef op vrijdag 23 mei 2025 @ 19:36:
[...]
klopt, als ik hem op 'hosts' heb staan en ik pas de Microsoft Security Toolkit security templates toe (die doen wat met VBS etc) dan start de VM niet meer op.. zet ik de VM op x86-x64-v2 (of hoger) dan loopt ie wel goed door
Ik heb gisteren nog een 2019 VM op een Ryzen 9 7900 op EPYC-v4 gezet. Had 'm op EPYC-Genoa willen zetten maar de desktop ryzens missen 2 extensies die de EPYC wel heeft. Misschien een custom CPU aanmaken zonder die 2 extensies. Had vandaag het idee dat die VM onder load een stuk beter presteerde.
(als ik dit eerder geweten had zou die klant nu nog op een E-2236 draaien, die was nml niet vooruit te branden).
Andere VM was een Windows 2022 VM op een Xeon E3 v5, die heb ik op Skylake-Client-IBRS-NoTSX gezet, dat presteerde ook direct een stuk beter.
Het is niet specifiek VBS want dat kan je ook uitzetten maar ook dan start de VM niet op. het is dus 'iets' anders maar wat het is ben ik (nog niet) uit_JGC_ schreef op vrijdag 23 mei 2025 @ 19:54:
[...]
Met "host" heb je ook nested virtualisatie, met x86-x64-v2 heb je dat niet en werkt VBS niet.
Ik heb gisteren nog een 2019 VM op een Ryzen 9 7900 op EPYC-v4 gezet. Had 'm op EPYC-Genoa willen zetten maar de desktop ryzens missen 2 extensies die de EPYC wel heeft. Misschien een custom CPU aanmaken zonder die 2 extensies. Had vandaag het idee dat die VM onder load een stuk beter presteerde.
(als ik dit eerder geweten had zou die klant nu nog op een E-2236 draaien, die was nml niet vooruit te branden).
Andere VM was een Windows 2022 VM op een Xeon E3 v5, die heb ik op Skylake-Client-IBRS-NoTSX gezet, dat presteerde ook direct een stuk beter.
A wise man's life is based around fuck you
Ik heb een probleem bij het installeren van Proxmox op mijn nieuwe AI bak. De machine waar ik Proxmox op wil installeren hangt steeds bij het volgende scherm:

De hardware is als volgt:
AMD Ryzen 5800X
ASUS ProArt X570 Creator WiFi
64GB DDR4 @3600MT/s CL17
GPU 1 en 2: 2x AMD Radeon Pro W6800 (t.z.t. te gebruiken als AI accelerator in een VM)
GPU3: Zotac GeForce GT 710 1GB PCIE x 1
SSD: Samsung 970 Epo Plus 2TB
KVM: PiKVM v4 Plus
De KVM hangt aan de GT 710 omdat dit de enige kaart is met een HDMI-uitgang.
Ik heb het zowel met de virtuele media van de PiKVM als met een losse USB-stick geprobeerd.
OpenSUSE Tumbleweed wil wel installeren, dus het lijkt me een probleem met de installer.
Ik weet nu niet zo goed hoe ik hier verder mee moet, dus als iemand mij van advies kan voorzien dan hoor ik dat graag!

De hardware is als volgt:
AMD Ryzen 5800X
ASUS ProArt X570 Creator WiFi
64GB DDR4 @3600MT/s CL17
GPU 1 en 2: 2x AMD Radeon Pro W6800 (t.z.t. te gebruiken als AI accelerator in een VM)
GPU3: Zotac GeForce GT 710 1GB PCIE x 1
SSD: Samsung 970 Epo Plus 2TB
KVM: PiKVM v4 Plus
De KVM hangt aan de GT 710 omdat dit de enige kaart is met een HDMI-uitgang.
Ik heb het zowel met de virtuele media van de PiKVM als met een losse USB-stick geprobeerd.
OpenSUSE Tumbleweed wil wel installeren, dus het lijkt me een probleem met de installer.
Ik weet nu niet zo goed hoe ik hier verder mee moet, dus als iemand mij van advies kan voorzien dan hoor ik dat graag!
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | <X> as a Service --> making you a poor & dependent slave
<duplicate>ocf81 schreef op zaterdag 24 mei 2025 @ 09:17:
Ik heb een probleem bij het installeren van Proxmox op mijn nieuwe AI bak. De machine waar ik Proxmox op wil installeren hangt steeds bij het volgende scherm:
[Afbeelding]
De hardware is als volgt:
AMD Ryzen 5800X
ASUS ProArt X570 Creator WiFi
64GB DDR4 @3600MT/s CL17
GPU 1 en 2: 2x AMD Radeon Pro W6800 (t.z.t. te gebruiken als AI accelerator in een VM)
GPU3: Zotac GeForce GT 710 1GB PCIE x 1
SSD: Samsung 970 Epo Plus 2TB
KVM: PiKVM v4 Plus
De KVM hangt aan de GT 710 omdat dit de enige kaart is met een HDMI-uitgang.
Ik heb het zowel met de virtuele media van de PiKVM als met een losse USB-stick geprobeerd.
OpenSUSE Tumbleweed wil wel installeren, dus het lijkt me een probleem met de installer.
Ik weet nu niet zo goed hoe ik hier verder mee moet, dus als iemand mij van advies kan voorzien dan hoor ik dat graag!
[ Voor 8% gewijzigd door stormfly op 24-05-2025 09:32 ]
Staat je Zotac kaart als primair in je BIOS misschien struikelt hij daarover? Weet niet wat je bios mogelijkheden zijn. Wat doet hij als je de andere video kaarten verwijdert, loopt het dan wel door?|ocf81 schreef op zaterdag 24 mei 2025 @ 09:17:
Ik heb een probleem bij het installeren van Proxmox op mijn nieuwe AI bak. De machine waar ik Proxmox op wil installeren hangt steeds bij het volgende scherm:
[Afbeelding]
De hardware is als volgt:
AMD Ryzen 5800X
ASUS ProArt X570 Creator WiFi
64GB DDR4 @3600MT/s CL17
GPU 1 en 2: 2x AMD Radeon Pro W6800 (t.z.t. te gebruiken als AI accelerator in een VM)
GPU3: Zotac GeForce GT 710 1GB PCIE x 1
SSD: Samsung 970 Epo Plus 2TB
KVM: PiKVM v4 Plus
De KVM hangt aan de GT 710 omdat dit de enige kaart is met een HDMI-uitgang.
Ik heb het zowel met de virtuele media van de PiKVM als met een losse USB-stick geprobeerd.
OpenSUSE Tumbleweed wil wel installeren, dus het lijkt me een probleem met de installer.
Ik weet nu niet zo goed hoe ik hier verder mee moet, dus als iemand mij van advies kan voorzien dan hoor ik dat graag!
Je kunt nog in GRUB met de volgende parameters spelen.
nomodeset -> Voorkomt dat de kernel direct controle neemt over de GPU's tijdens boot
acpi=off -> Schakelt Advanced Configuration and Power Interface (ACPI) volledig uit
Ervaringen met zelf gehoste AI assistenten ter info.
Het kan zijn dat de installer dus andere kaart pakt voor het beeld. Sluit scherm even op andere kaart aan. Of je haalt de andere kaarten eruit en installeert eerst proxmox zonder die kaarten.
Ik ben er uit, maar het was wel even zoeken. De nvidiafb driver schijnt de GT710 niet zo fijn te vinden en gaat kennelijk op zijn bek. De suggestie van @stormfly was daarin wel enigszins behulpzaam. De oplossing was een obscure forum post met een vergelijkbare aanpak. Bedankt voor de suggestie! Dank ook aan @krijn1985 voor het meedenken
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | <X> as a Service --> making you a poor & dependent slave
Even een vraagje voor verduidelijking. Ik heb 3 containers (Samba, NFS en Syncthing) en alle 3 zou ik toegang willen geven tot eenzelfde directory die gemount is op de host. Samba voor Windows shares, NFS voor Linux shares en Syncthing om bepaalde directories te kunnen mirroren (ala dropbox/onedrive). Het liefst zou ik nog verschillende samba share users hebben, een read-only public user en dan verschillende private users met hun eigen share directory.
```
/mnt/share/media
/mnt/personal/jan
/mnt/personal/piet
```
Wat is het beste qua user management? Voor bv de Samba container, maak ik dan 3 users aan op de Samba container, en 3 users op de host en map die naar elkaar? En zet bijhorend de ownership van die folders op de host naar die users. Map ik dan de user op de NFS container naar user op de host of maak ik een nieuwe aan en voeg de nieuwe user toe aan de groep van de eerdere user.
Het is mij niet volledig duidelijk wat de beste manier is om dit te doen.
```
/mnt/share/media
/mnt/personal/jan
/mnt/personal/piet
```
Wat is het beste qua user management? Voor bv de Samba container, maak ik dan 3 users aan op de Samba container, en 3 users op de host en map die naar elkaar? En zet bijhorend de ownership van die folders op de host naar die users. Map ik dan de user op de NFS container naar user op de host of maak ik een nieuwe aan en voeg de nieuwe user toe aan de groep van de eerdere user.
Het is mij niet volledig duidelijk wat de beste manier is om dit te doen.
NFS sharing kan alleen vanuit privileged LXC (want kernel-space) dus de vraag is of je dat wil. Alternatief is evt. VM (met eigen kernel), of gewoon op de host. (Los daarvan; als de directory al gemount is vanaf een andere share is het niet zo zinnig om hem nog een keer te sharen?)
Uitgangspunt zijn verder inderdaad de users, groups en permissions op de host. Daar moet je configuratie zijn zoals je hem wil. Om de services vervolgens in LXC's te draaien met de user/groups van de host zul je de betreffende users moeten idmappen naar de LXC's, en daarna aanmaken in de LXC. (In die volgorde anders gaat het fout en krijgen de users een id/gid +100000 op de host.)
Samba users werkt verder hetzelfde als zonder LXC. Je kunt virtuele users aanmaken met aparte rechten per share (valid users), zolang de onderliggende rechten (force user/group) maar kloppen met je filesysteem in de LXC (en via idmap dus ook op de host).
Zie ook:
https://pve.proxmox.com/w...rectory_bind_mount_points
Handig tooltje om de idmap config te genereren:
https://github.com/ddimick/proxmox-lxc-idmapper
Uitgangspunt zijn verder inderdaad de users, groups en permissions op de host. Daar moet je configuratie zijn zoals je hem wil. Om de services vervolgens in LXC's te draaien met de user/groups van de host zul je de betreffende users moeten idmappen naar de LXC's, en daarna aanmaken in de LXC. (In die volgorde anders gaat het fout en krijgen de users een id/gid +100000 op de host.)
Samba users werkt verder hetzelfde als zonder LXC. Je kunt virtuele users aanmaken met aparte rechten per share (valid users), zolang de onderliggende rechten (force user/group) maar kloppen met je filesysteem in de LXC (en via idmap dus ook op de host).
Zie ook:
https://pve.proxmox.com/w...rectory_bind_mount_points
Handig tooltje om de idmap config te genereren:
https://github.com/ddimick/proxmox-lxc-idmapper
[ Voor 8% gewijzigd door d3vlin op 27-05-2025 12:25 ]
Leaping Lab Rats!
Samba voor er op te geraken via Windows/GSM, NFS via Linux. Dus 2 containers die dezelfde mappen gemount heeft. (Zo zag ik het toch, mss ben ik verkeerd)d3vlin schreef op dinsdag 27 mei 2025 @ 12:17:
(Los daarvan; als de directory al gemount is vanaf een andere share is het niet zo zinnig om hem nog een keer te sharen?)
Ondertussen heb ik dat id mappen al tig keer gedaan dus kan het zowat vanbuitend3vlin schreef op dinsdag 27 mei 2025 @ 12:17:
Uitgangspunt zijn verder inderdaad de users, groups en permissions op de host. Daar moet je configuratie zijn zoals je hem wil. Om de services vervolgens in LXC's te draaien met de user/groups van de host zul je de betreffende users moeten idmappen naar de LXC's, en daarna aanmaken in de LXC. (In die volgorde anders gaat het fout en krijgen de users een id/gid +100000 op de host.)
Samba users werkt verder hetzelfde als zonder LXC. Je kunt virtuele users aanmaken met aparte rechten per share (valid users), zolang de onderliggende rechten (force user/group) maar kloppen met je filesysteem in de LXC (en via idmap dus ook op de host).
Zie ook:
https://pve.proxmox.com/w...rectory_bind_mount_points
Handig tooltje om de idmap config te genereren:
https://github.com/ddimick/proxmox-lxc-idmapper
De id's enzo probeer ik logisch te houden.
Bv. LXC samba heeft id 210. IP is dan .21 en users starten vanaf 2100 die ik dan aanmaak op zowel de host als de LXC.
En aha, misschien is het beter om via die force en valid users te werken. Moet ik maar 1 user mappen ipv ze allemaal. Dank, ik zal het eens bekijken maar zit nu eerst terug met Immich te klooien want ik ben met een herinstall van Proxmox begonnen en ik krijg mijn library niet maar in gang.