Proxmox schrijft zeer intensief metrics en de interne state weg naar de schijf waar het op staat. In het verleden heb ik daar goedkopere SSD's mee weten te slopen, tegenwoordig gaat dat iets beter omdat ook goedkopere SSD's wat beter tegen writes kunnen. Maar USB-sticks zou ik toch wel afraden.Robbie-1 schreef op maandag 5 mei 2025 @ 20:13:
[...]
Dat hoop ik te bereiken, door de USB stick waarop ESXi op staat te ruilen voor die externe USB van Sandisk.
Ik ga er vanuit, dat proxmox, net zoals ESXi verder niets met de interne disks doet toch?
Ik heb zelf een migratie gedaan van ESXi naar Proxmox door de ESXi import te gebruiken. Dat kan als je een 2e systeem optuigt en deze inzet als Proxmox host.
Dan koppel je de bestaande vcenter of ESXi host aan Proxmox en kan je de VMs inladen en importeren.
Scheelt bakken met tijd, en downtime is minimaal.
Wellicht is het een optie om tijdelijk een compacte systeem hiervoor in te zetten.
Eenmaal over en werkend, kan je de ESXi formateren en voorzien van Proxmox en migreer je de boel terug met minimale downtime.
De PC zet je daarna in als 2e host of verkoop je dan weer. De resources die nodig zijn, kunnen minimaal zijn.
Dan koppel je de bestaande vcenter of ESXi host aan Proxmox en kan je de VMs inladen en importeren.
Scheelt bakken met tijd, en downtime is minimaal.
Wellicht is het een optie om tijdelijk een compacte systeem hiervoor in te zetten.
Eenmaal over en werkend, kan je de ESXi formateren en voorzien van Proxmox en migreer je de boel terug met minimale downtime.
De PC zet je daarna in als 2e host of verkoop je dan weer. De resources die nodig zijn, kunnen minimaal zijn.
Alles went behalve een Twent.
⏩ PVOutput☀️
Niet dat ik weet. De vm's kunnen draaien zonder boot disk - dat wel. Maar voor de meeste andere functies heb je de boot disk nodig... En iets repareren gaat alleen via herinstallatie en terugzetten van backups.... tis te zeggen... ik heb geen weet van een installatie methode die je de vm configs weer laat "oppikken" van de nog draaiende vm's (is me bij esx trowens ook nooit gelukt).Robbie-1 schreef op maandag 5 mei 2025 @ 20:13:
[...]
Dat hoop ik te bereiken, door de USB stick waarop ESXi op staat te ruilen voor die externe USB van Sandisk.
Ik ga er vanuit, dat proxmox, net zoals ESXi verder niets met de interne disks doet toch? Nou ja, wel met de VM images natuurijk. Mijn ESXi boot disk was ook al eens stuk. Die kon ik vrij eenvoudig vervangen, door de setup nogmaals te draaien, en weer te koppelen met de VM's, dat gaat met proxmox net zo toch?
makes it run like clockwork
Volgens mij wil je te geavanceerd migreren voor iemand die er (nog) net te weinig vanaf weet. Mijn advies zou zijn keep it simple. Proxmox gebruikt een linux filesystem, waar ESXi vaak VMFS gebruikt een VMware-FileSystem. Je zou uit moeten zoeken of proxmox VMFS support heeft, ik zou dat pad niet bewandelen want je wilt het liefst zo stabiel mogelijk starten met een verse installatie en het oude achter je laten. De tips over een nieuwe disk + separate installatie zijn al gegeven.Robbie-1 schreef op maandag 5 mei 2025 @ 20:13:
[...]
Dat hoop ik te bereiken, door de USB stick waarop ESXi op staat te ruilen voor die externe USB van Sandisk.
Ik ga er vanuit, dat proxmox, net zoals ESXi verder niets met de interne disks doet toch? Nou ja, wel met de VM images natuurijk. Mijn ESXi boot disk was ook al eens stuk. Die kon ik vrij eenvoudig vervangen, door de setup nogmaals te draaien, en weer te koppelen met de VM's, dat gaat met proxmox net zo toch?
https://www.proxmox.com/e...-import-wizard-for-vmware
Wat @Quad aangeeft werkt het goed met de nieuwe VMimporter, je hebt dan wel een 2e server nodig.
Ik heb recent de overstap gemaakt naar Proxmox van VMware. Was in een cluster opstelling, dus daar heb ik eerst alle VM's verplaatst naar 1 machine, deze vervolgens verwijderd in VMware en er Proxmox op gezet.
Vervolgens alle VM's via de importer overgezet.
Dan de tweede server omgezet naar Proxmox en toegevoegd aan mijn cluster.
Lees zeker goed de documentatie door! Er zijn bepaalde randvoorwaarden en tips die er niet voor niets staan (fixed IP's verwijderen bijvoorbeeld in Windows).
Grootste nadeel in mijn scenario was dat ik de VM's niet live kon migreren tussen mijn 2 nodes, dit moest via een backup/restore scenario. Minimale impact op beschikbaarheid, maar duurt gewoon lang als er veel data mee gemoeid is.
LXCs met wat services in zijn supersnel, windows servers met een datastorage van 750gb duren wat langer.
Vervolgens alle VM's via de importer overgezet.
Dan de tweede server omgezet naar Proxmox en toegevoegd aan mijn cluster.
Lees zeker goed de documentatie door! Er zijn bepaalde randvoorwaarden en tips die er niet voor niets staan (fixed IP's verwijderen bijvoorbeeld in Windows).
Grootste nadeel in mijn scenario was dat ik de VM's niet live kon migreren tussen mijn 2 nodes, dit moest via een backup/restore scenario. Minimale impact op beschikbaarheid, maar duurt gewoon lang als er veel data mee gemoeid is.
LXCs met wat services in zijn supersnel, windows servers met een datastorage van 750gb duren wat langer.
Bedoel je dat je tussen de twee PVE hosts niet kan migreren zonder dat je VMs uit moet schakelen?RailHenk87 schreef op dinsdag 6 mei 2025 @ 09:47:
Ik heb recent de overstap gemaakt naar Proxmox van VMware. Was in een cluster opstelling, dus daar heb ik eerst alle VM's verplaatst naar 1 machine, deze vervolgens verwijderd in VMware en er Proxmox op gezet.
Vervolgens alle VM's via de importer overgezet.
Dan de tweede server omgezet naar Proxmox en toegevoegd aan mijn cluster.
Lees zeker goed de documentatie door! Er zijn bepaalde randvoorwaarden en tips die er niet voor niets staan (fixed IP's verwijderen bijvoorbeeld in Windows).
Grootste nadeel in mijn scenario was dat ik de VM's niet live kon migreren tussen mijn 2 nodes, dit moest via een backup/restore scenario. Minimale impact op beschikbaarheid, maar duurt gewoon lang als er veel data mee gemoeid is.
LXCs met wat services in zijn supersnel, windows servers met een datastorage van 750gb duren wat langer.
Alles went behalve een Twent.
⏩ PVOutput☀️
Ik denk dat het wel kan met shared storage in een HA set-up, maar die mogelijkheid had ik niet.
Het kan zeker ook zonder shared storage en zonder HA set-up, maar misschien zijn er nog wel wat voorwaarden waar de hosts in een cluster aan moeten voldoen waarvan ik niet precies weet welke (maar in de paar clusters die ik beheer werkt het).
Volgende major release voor dit najaar Veeam B&R v13, zal volledig op linux werken.ThinkPad schreef op zondag 4 mei 2025 @ 20:38:
[...]
Enige nadeel is dat je er een Windows machine (ik draai het in een VM) voor moet optuigen ...
En ze zullen een VM image aanleveren voor een all-in-one Linux appliance oplossing.
[ Voor 3% gewijzigd door GoBieN-Be op 07-05-2025 18:55 ]
Die schijf die door ESXi is voorzien van een partitie layout en het propitiatory VMWare filesystem (VMFS), zal niet door Proxmox herkend worden. Je leest je best nog eens in, over hoe VM's over te zetten van ESXi naar Proxmox.Robbie-1 schreef op maandag 5 mei 2025 @ 20:13:
[...]
Dat hoop ik te bereiken, door de USB stick waarop ESXi op staat te ruilen voor die externe USB van Sandisk.
Ik ga er vanuit, dat proxmox, net zoals ESXi verder niets met de interne disks doet toch?
Oei, die had ik inderdaad even niet voorzien. Dan zal er nog een tussenstap tussen moeten, eerst de boel op een andere host installeren, en dan inderdaad de VM images stuk voor stuk over zetten.Die schijf die door ESXi is voorzien van een partitie layout en het propitiatory VMWare filesystem (VMFS), zal niet door Proxmox herkend worden. Je leest je best nog eens in, over hoe VM's over te zetten van ESXi naar Proxmox.
Ik hoopte dat de schijven waar de images op staan, door zowel ESXi als Proxmox te gebruiken waren.
@RailHenk87 Ging dat goed met die windows server? moest je die b.v opnieuw activeren?
Mijn server is ongeveer net zo groot, hoe lang duurde het converteren?
[ Voor 13% gewijzigd door Robbie-1 op 07-05-2025 22:37 ]
@Robbie-1 Inderdaad, 2e host met PVE opzetten, kan je eventueel wat testen alvorens je daadwerkelijk de switch maakt.
Met de ESXi import blijft de ESXi VM draaien tot import klaar is, dan afsluiten en nieuwe opstarten.
Voordat je migreert wel even de Virtiodrivers installeren. Dan is de guestagent en ethernetadapter ook actief op de gemigreerde VM.
Met de ESXi import blijft de ESXi VM draaien tot import klaar is, dan afsluiten en nieuwe opstarten.
Voordat je migreert wel even de Virtiodrivers installeren. Dan is de guestagent en ethernetadapter ook actief op de gemigreerde VM.
Alles went behalve een Twent.
⏩ PVOutput☀️
Er stond me nog wat bij over het mounten van Esx(i) datastores onder Linux en nog eens verder gekeken.
Howto: https://www.nakivo.com/bl...re-in-linux-windows-esxi/
FS Driver: https://code.google.com/archive/p/vmfs/
Volgens de howto zit die in Ubuntu en dat betekent dat die onder Proxmox ook gebruikt zou kunnen worden.
En nog even op Proxmox gekeken en daar zit ie ook in.
Howto: https://www.nakivo.com/bl...re-in-linux-windows-esxi/
FS Driver: https://code.google.com/archive/p/vmfs/
Volgens de howto zit die in Ubuntu en dat betekent dat die onder Proxmox ook gebruikt zou kunnen worden.
En nog even op Proxmox gekeken en daar zit ie ook in.
code:
1
2
| p vmfs-tools - Tools to access VMFS filesystems p vmfs6-tools - Tools to access VMFS6 filesystems |
Wie du mir, so ich dir.
Het is niet zo moeilijk:eheijnen schreef op donderdag 8 mei 2025 @ 06:23:
Er stond me nog wat bij over het mounten van Esx(i) datastores onder Linux en nog eens verder gekeken.
Howto: https://www.nakivo.com/bl...re-in-linux-windows-esxi/
FS Driver: https://code.google.com/archive/p/vmfs/
Volgens de howto zit die in Ubuntu en dat betekent dat die onder Proxmox ook gebruikt zou kunnen worden.
En nog even op Proxmox gekeken en daar zit ie ook in.
code:
1 2 p vmfs-tools - Tools to access VMFS filesystems p vmfs6-tools - Tools to access VMFS6 filesystems
:strip_exif()/f/image/xw1t7RCIzR8Ygfbtygk2cs7J.jpg?f=fotoalbum_large)
Alles went behalve een Twent.
⏩ PVOutput☀️
Zie het filmpje wat ik deelde, je mount dan niet de storage maar je mount de ESXi host op het mgmt IP, toch?
Precies als je de importer gebruikt ben je het snelste en op de veiligste manier op je plaats van bestemming.RailHenk87 schreef op dinsdag 6 mei 2025 @ 09:47:
Ik heb recent de overstap gemaakt naar Proxmox van VMware. Was in een cluster opstelling, dus daar heb ik eerst alle VM's verplaatst naar 1 machine, deze vervolgens verwijderd in VMware en er Proxmox op gezet.
Vervolgens alle VM's via de importer overgezet.
Dan de tweede server omgezet naar Proxmox en toegevoegd aan mijn cluster.
Lees zeker goed de documentatie door! Er zijn bepaalde randvoorwaarden en tips die er niet voor niets staan (fixed IP's verwijderen bijvoorbeeld in Windows).
Grootste nadeel in mijn scenario was dat ik de VM's niet live kon migreren tussen mijn 2 nodes, dit moest via een backup/restore scenario. Minimale impact op beschikbaarheid, maar duurt gewoon lang als er veel data mee gemoeid is.
LXCs met wat services in zijn supersnel, windows servers met een datastorage van 750gb duren wat langer.
Wat jij bedoeld is dat je Proxmox op de USB stick zet en dan kan je lokaal de SSD's mounten? Blockstorage kan je alleen ontsluiten in een blokstorage protocol zoals iSCSI over het LAN en dat valt af op ESXi die kan het niet aanbieden alleen mounten. Met deze werkwijze blijf je zitten met de uitdaging dat je dan een Proxmox host hebt zonder native Linux filesystem, zou ik niet willen, dan moet je alsnog daar vanaf weg migreren. Dit kan je wel doen maar dan als tussenstap waarbij je van VMFS de vmx en vmdk overzet naar een NAS/HD en dan later vanuit de de "externe" storage terug importeren.eheijnen schreef op donderdag 8 mei 2025 @ 06:23:
Er stond me nog wat bij over het mounten van Esx(i) datastores onder Linux en nog eens verder gekeken.
Howto: https://www.nakivo.com/bl...re-in-linux-windows-esxi/
FS Driver: https://code.google.com/archive/p/vmfs/
Volgens de howto zit die in Ubuntu en dat betekent dat die onder Proxmox ook gebruikt zou kunnen worden.
En nog even op Proxmox gekeken en daar zit ie ook in.
code:
1 2 p vmfs-tools - Tools to access VMFS filesystems p vmfs6-tools - Tools to access VMFS6 filesystems
Inderdaad als je dat doet via de importer wizard hoef je jezelf niet bezig te houden met converteren van disks etc. Die wizard zit er pas een klein jaartje in dus niet iedereen weet dat deze optie bestaat. Nu je schrijft dat je een 2e host hebt is het plaatje volgens mij rond.Robbie-1 schreef op woensdag 7 mei 2025 @ 22:18:
[...]
Oei, die had ik inderdaad even niet voorzien. Dan zal er nog een tussenstap tussen moeten, eerst de boel op een andere host installeren, en dan inderdaad de VM images stuk voor stuk over zetten.
Ik hoopte dat de schijven waar de images op staan, door zowel ESXi als Proxmox te gebruiken waren.
Automatic Import of Full VM
Proxmox VE provides an integrated VM importer using the storage plugin system for native integration into the API and web-based user interface. You can use this to import the VM as a whole, with most of its config mapped to Proxmox VE's config model and reduced downtime.
Ging helemaal prima! Inderdaad belangrijk om bij de import de disken als IDE te verbinden, anders gaat je server niet booten. Activatie is gewoon geldig gebleven.Robbie-1 schreef op woensdag 7 mei 2025 @ 22:18:
[...]
Ging dat goed met die windows server? moest je die b.v opnieuw activeren?
Mijn server is ongeveer net zo groot, hoe lang duurde het converteren?
Naast je originele disken dan eentje van 1gb met scsi protocol toevoegen en virtio drivers installeren. Vervolgens VM afsluiten, tijdelijke schijf wissen en de originele schijven omzetten naar scsi. Meer is er niet aan!
Anders maak je eerst even een nieuwe windows server op je huidige set-up om als test te migreren? Schijfje van 64gb importeren duurt niet lang. Zo kan de hele procedure duidelijk worden.
Ik moest alles over 1gbps lan poortje trekken, dus wel enkele uren zoet geweest.
Nee, je kunt hiermee de vmware datastore / disc direct onder linux mounten / benaderen.stormfly schreef op donderdag 8 mei 2025 @ 08:21:
[...]
Wat jij bedoeld is dat je Proxmox op de USB stick zet en dan kan je lokaal de SSD's mounten? Blockstorage kan je alleen ontsluiten in een blokstorage protocol zoals iSCSI over het LAN en dat valt af op ESXi die kan het niet aanbieden alleen mounten. Met deze werkwijze blijf je zitten met de uitdaging dat je dan een Proxmox host hebt zonder native Linux filesystem, zou ik niet willen, dan moet je alsnog daar vanaf weg migreren. Dit kan je wel doen maar dan als tussenstap waarbij je van VMFS de vmx en vmdk overzet naar een NAS/HD en dan later vanuit de de "externe" storage terug importeren.
Ik zou dat niet als filesystem gebruiken, maar het kan handig zijn om zaken over te zetten / veilig te stellen / trouble shooting...
Wie du mir, so ich dir.
En Vmware tools de-installeren, want dat lukt achteraf niet makkelijk.Quad schreef op woensdag 7 mei 2025 @ 22:38:
@Robbie-1Voordat je migreert wel even de Virtiodrivers installeren. Dan is de guestagent en ethernetadapter ook actief op de gemigreerde VM.
Ik heb een Proxmox setup met 2 SSDs in mirror:
Zitten dus 3 schijven in mijn setup, met plek voor een 4de. Nu wil ik mijn Kingstons gaan vervangen door WD Reds. Mijn idee was om de mirror uit te breiden met de eerste WD Red, en na resilvering een van de Kingston schijven eruit te gooien, en dit dan te herhalen voor de 2de Kingston.
Mijn stappenplan zou dan zijn:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
| root@pve:~# zpool status pool: rpool state: ONLINE scan: scrub repaired 0B in 00:13:41 with 0 errors on Sun May 11 00:37:42 2025 config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ata-KINGSTON_SA400S37960G_50026B728XXXXXXX-part3 ONLINE 0 0 0 ata-KINGSTON_SA400S37960G_50026B738XXXXXXX-part3 ONLINE 0 0 0 errors: No known data errors |
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
| root@pve:~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS sda 8:0 0 894.3G 0 disk ├─sda1 8:1 0 1007K 0 part ├─sda2 8:2 0 1G 0 part └─sda3 8:3 0 893.3G 0 part sdb 8:16 0 894.3G 0 disk ├─sdb1 8:17 0 1007K 0 part ├─sdb2 8:18 0 1G 0 part └─sdb3 8:19 0 893.3G 0 part sdc 8:32 0 5.5T 0 disk └─frigate_storage-vm--101--disk--0 252:0 0 5T 0 lvm zd0 230:0 0 1M 0 disk zd16 230:16 0 48G 0 disk ├─zd16p1 230:17 0 1M 0 part ├─zd16p2 230:18 0 1G 0 part └─zd16p3 230:19 0 47G 0 part zd32 230:32 0 16G 0 disk ├─zd32p1 230:33 0 2G 0 part └─zd32p2 230:34 0 14G 0 part zd48 230:48 0 32G 0 disk ├─zd48p1 230:49 0 32M 0 part ├─zd48p2 230:50 0 24M 0 part ├─zd48p3 230:51 0 256M 0 part ├─zd48p4 230:52 0 24M 0 part ├─zd48p5 230:53 0 256M 0 part ├─zd48p6 230:54 0 8M 0 part ├─zd48p7 230:55 0 96M 0 part └─zd48p8 230:56 0 31.3G 0 part |
Zitten dus 3 schijven in mijn setup, met plek voor een 4de. Nu wil ik mijn Kingstons gaan vervangen door WD Reds. Mijn idee was om de mirror uit te breiden met de eerste WD Red, en na resilvering een van de Kingston schijven eruit te gooien, en dit dan te herhalen voor de 2de Kingston.
Mijn stappenplan zou dan zijn:
- sgdisk -R=/dev/disk/by-id/ata-NEW_SSD_MODEL_WD_RED /dev/disk/by-id/ata-KINGSTON_SA400S37960G_50026B728XXXXXXX
- sgdisk -G /dev/disk/by-id/ata-NEW_SSD_MODEL_WD_RED
- proxmox-boot-tool format /dev/disk/by-id/ata-NEW_SSD_MODEL_WD_RED-part2
- proxmox-boot-tool init /dev/disk/by-id/ata-NEW_SSD_MODEL_WD_RED-part2
- zpool attach rpool /dev/disk/by-id/ata-KINGSTON_SA400S37960G_50026B728XXXXXX-part3 /dev/disk/by-id/ata-NEW_SSD_MODEL_WD_RED-part3
- zpool status (wachten op resilvering)
- zpool detach rpool /dev/disk/by-id/ata-KINGSTON_SA400S37960G_50026B728XXXXXXX-part3
[ Voor 4% gewijzigd door tjanssen op 12-05-2025 14:20 . Reden: Stappenplan aangepast ]
Kun je niet beter gewoon gebruik maken van de replace functie?
Goede suggestie denk ik. Deze doet de laatste 3 stappen in 1 keer?krijn1985 schreef op maandag 12 mei 2025 @ 13:48:
Kun je niet beter gewoon gebruik maken van de replace functie?
Ik ben hier niet de ZFS expert, maar volgens mij vervang je er gewoon alle commando's mee. In ieder geval in mijn proxmox installatie (ooit begonnen met 6.3 volgens mij toen ZFS nog niet in de GUI zat) heb ik ooit een schijf vervangen uit raidz-1 pool met alleen:tjanssen schreef op maandag 12 mei 2025 @ 14:26:
[...]
Goede suggestie denk ik. Deze doet de laatste 3 stappen in 1 keer?
waarbij device_old als ata-TOSHIBA_DT.... was.zpool replace -f <poolname> <device_old> <device_new>
Maar dat is alleen voor ZFS dan. Als die schijf ook nog een boot drive is met een EFI partitie etc... gaat dat dus mis. Want dan heb je een schijf waar wel de data op staat maar die niet kan booten. Daarom zullen die andere stappen nodig zijn, de proxmox-boot-... commando's.krijn1985 schreef op maandag 12 mei 2025 @ 14:40:
[...]
Ik ben hier niet de ZFS expert, maar volgens mij vervang je er gewoon alle commando's mee. In ieder geval in mijn proxmox installatie (ooit begonnen met 6.3 volgens mij toen ZFS nog niet in de GUI zat) heb ik ooit een schijf vervangen uit raidz-1 pool met alleen:
[...]
waarbij device_old als ata-TOSHIBA_DT.... was.
Goeie opmerking, was inderdaad alleen opslag in mijn geval en geen boot. Had even gemist dat die commando's waren voor het fixen van je boot. @tjanssen het is dus inderdaad vervangen van laatste 3 commando's.RobertMe schreef op maandag 12 mei 2025 @ 14:55:
[...]
Maar dat is alleen voor ZFS dan. Als die schijf ook nog een boot drive is met een EFI partitie etc... gaat dat dus mis. Want dan heb je een schijf waar wel de data op staat maar die niet kan booten. Daarom zullen die andere stappen nodig zijn, de proxmox-boot-... commando's.
Heb jij hier nog last van gehad ?ninjazx9r98 schreef op zondag 20 april 2025 @ 18:57:
@ComTech Sinds een paar dagen heb ik op een NUC die ik al meer dan een jaar heb draaien 'vanuit het niets' vreemde verschijnselen met CPU load en memory gebruik. Het is een i3 NUC van de 11e generatie met 64GB die tot grofweg vorige week altijd probleemloos gedraaid heeft. Afgelopen vrijdag had ik ineens DNS issues en was de Adguard LXC container niet meer fatsoenlijk te gebruiken/benaderen. Console wilde niet fatsoenlijk openen, shutdown wilde ook niet dus heb deze met een kill uit de lucht geschoten en daarna weer gestart.
Verder niet gekeken, gevalletje domme pech dacht ik.
Vandaag exact hetzelfde probleem, Adguard container niet meer te gebruiken, wil niet stoppen, geen console enz enz. Ingelogd met SSH op de hypervisor zelf en met top een load gezien schommelend tussen de 16 en 17. Grootverbruiker was Adguard en toen besloten om proxmox een volledige reboot te geven. Down brengen van de draaiende VM's en containers duurde een 'eeuwigheid', vooral Adguard duurde lang om down te gaan maar uiteindelijk is de reboot gelukt.
Adguard is pas geupdate, proxmox heeft begin van de maand redelijk wat updates gehad en een paar dagen terug wat perl updates.
Ik heb nu in ieder geval een schoon gestart systeem en ga de komende dagen regelmatig inloggen om te zien of en hoe snel de load weer oploopt. Op dit moment heb of Adguard de boosdoener is/was of een gevolg van iets anders.
Mijn reverse proxy LXC was ineens niet bereikbaar hele hoge cpu load en met moeite de LXC kunnen stoppen.
Exact het gedrag wat jij met de Adguard lxc had.
Iemand anders soortgelijke problemen gehad de laatste tijd? Heb het idee dat het gekomen is na de update naar 8.4.1 .
Nope, na de reboot van Proxmox geen last meer gehad. Uptime is 25 dagen en het systeem gedraagd zich keurig. Heb ook het idee dat het met de update te maken heeft (gehad) maar kan niet verklaren waarom het na de reboot niet meer gebeurt is.ComTech schreef op donderdag 15 mei 2025 @ 22:26:
[...]
Heb jij hier nog last van gehad ?
Mijn reverse proxy LXC was ineens niet bereikbaar hele hoge cpu load en met moeite de LXC kunnen stoppen.
Exact het gedrag wat jij met de Adguard lxc had.
Iemand anders soortgelijke problemen gehad de laatste tijd? Heb het idee dat het gekomen is na de update naar 8.4.1 .
Heeft iemand dé gouden tip voor mij?
Ik heb 2 proxmox hosts. Een als "productie"server(prd) en een als speeltuin(tst).
Op prd heb ik onder andere Adguard en Ngingx proxy manager in een eigen LXC draaien. Icm met een duckdns 'domein' kan ik alles wat op mijn 'prd' server draait intern benaderen dmv de in NPM ingestelde proxy hosts (domein.duckdns.org verwijst dus naar een intern IP)
De proxmox gui van de 'tst' server kan ik op dezelfde manier benaderen, dus de hosts zien elkaar. Maar nu het probleem: op 'tst' heb ik een aantal docker containers draaien en deze zijn via intern IP te benaderen. Echter krijg ik het niet voor elkaar om deze om m'n gebruikelijke manier via NPM te benaderen.
Ik vermoed dat het met de networking config in m'n Docker-compose te maken zal hebben. Maar... wat moet ik aanpassen/instellen?
Ik heb 2 proxmox hosts. Een als "productie"server(prd) en een als speeltuin(tst).
Op prd heb ik onder andere Adguard en Ngingx proxy manager in een eigen LXC draaien. Icm met een duckdns 'domein' kan ik alles wat op mijn 'prd' server draait intern benaderen dmv de in NPM ingestelde proxy hosts (domein.duckdns.org verwijst dus naar een intern IP)
De proxmox gui van de 'tst' server kan ik op dezelfde manier benaderen, dus de hosts zien elkaar. Maar nu het probleem: op 'tst' heb ik een aantal docker containers draaien en deze zijn via intern IP te benaderen. Echter krijg ik het niet voor elkaar om deze om m'n gebruikelijke manier via NPM te benaderen.
Ik vermoed dat het met de networking config in m'n Docker-compose te maken zal hebben. Maar... wat moet ik aanpassen/instellen?
Wat je noemt is niet relevant toch? Je hebt een aantal containers op je netwerk die een IP hebben waarop ze zijn te bereiken binnen je netwerk. NGINX moet dan gewoon als reverse proxy voor die containers kunnen fungeren. Gebruik je wel het juiste IP adres, en niet het interne docker IP?HowsMyApple schreef op donderdag 22 mei 2025 @ 13:41:
Heeft iemand dé gouden tip voor mij?
Ik heb 2 proxmox hosts. Een als "productie"server(prd) en een als speeltuin(tst).
Op prd heb ik onder andere Adguard en Ngingx proxy manager in een eigen LXC draaien. Icm met een duckdns 'domein' kan ik alles wat op mijn 'prd' server draait intern benaderen dmv de in NPM ingestelde proxy hosts (domein.duckdns.org verwijst dus naar een intern IP)
De proxmox gui van de 'tst' server kan ik op dezelfde manier benaderen, dus de hosts zien elkaar. Maar nu het probleem: op 'tst' heb ik een aantal docker containers draaien en deze zijn via intern IP te benaderen. Echter krijg ik het niet voor elkaar om deze om m'n gebruikelijke manier via NPM te benaderen.
Ik vermoed dat het met de networking config in m'n Docker-compose te maken zal hebben. Maar... wat moet ik aanpassen/instellen?
@Erwin537 Ik dacht ik benoem zoveel mogelijk van hoe ik het heb draaien, want wellicht zit m'n issue ergens anders dan ikzelf denk.
Maar in NPM gebruik het IP adres van de VM waar de docker containers op draaien icm de juiste port.
In mijn gevalt verwijst http://192.168.1.102:8080 naar de Trilium service (draaiende in een LXC) op 'prd'
en http://192.168.1.204:8080 verwijst naar de Trilium service (draaiende in een docker container) op 'tst'.
Beiden zijn met de ip-adressen te benaderen, maar met NPM (draaiende op 'prd') ertussen kan ik dus geen enkele docker container benaderen draaiende op 'tst'.
Maar in NPM gebruik het IP adres van de VM waar de docker containers op draaien icm de juiste port.
In mijn gevalt verwijst http://192.168.1.102:8080 naar de Trilium service (draaiende in een LXC) op 'prd'
en http://192.168.1.204:8080 verwijst naar de Trilium service (draaiende in een docker container) op 'tst'.
Beiden zijn met de ip-adressen te benaderen, maar met NPM (draaiende op 'prd') ertussen kan ik dus geen enkele docker container benaderen draaiende op 'tst'.
Misschien een domme vraag:HowsMyApple schreef op donderdag 22 mei 2025 @ 14:06:
@Erwin537 Ik dacht ik benoem zoveel mogelijk van hoe ik het heb draaien, want wellicht zit m'n issue ergens anders dan ikzelf denk.
Maar in NPM gebruik het IP adres van de VM waar de docker containers op draaien icm de juiste port.
In mijn gevalt verwijst http://192.168.1.102:8080 naar de Trilium service (draaiende in een LXC) op 'prd'
en http://192.168.1.204:8080 verwijst naar de Trilium service (draaiende in een docker container) op 'tst'.
Beiden zijn met de ip-adressen te benaderen, maar met NPM (draaiende op 'prd') ertussen kan ik dus geen enkele docker container benaderen draaiende op 'tst'.
Maar met welke url kom je binnen op NPM voor de prd kant? En wat is die voor de tst kant?
makes it run like clockwork
Ik denk niet dat ik helemaal begrijp wat je bedoelt met "kom je binnen op NPM".Airw0lf schreef op donderdag 22 mei 2025 @ 14:25:
[...]
Misschien een domme vraag:
Maar met welke url kom je binnen op NPM voor de prd kant? En wat is die voor de tst kant?
Trilium op prd (in LXC) benader ik met notes.domein.duckdns.org - dit werkt
Trilium op tst (in docker container) benader ik met trilium.domein.duckdns.org - dit werkt niet
Vanuit de NPM LXC kan ik naar de VM (op tst) pingen waar de docker containers op draaien
Beantwoordt dat je vraag?
Deels - ergens moet er iets zijn wat die aanvragen naar NPM stuurt.HowsMyApple schreef op donderdag 22 mei 2025 @ 17:02:
[...]
Ik denk niet dat ik helemaal begrijp wat je bedoelt met "kom je binnen op NPM".
Trilium op prd (in LXC) benader ik met notes.domein.duckdns.org - dit werkt
Trilium op tst (in docker container) benader ik met trilium.domein.duckdns.org - dit werkt niet
Vanuit de NPM LXC kan ik naar de VM (op tst) pingen waar de docker containers op draaien
Beantwoordt dat je vraag?
En in NPM moet iets staan wat die aanvraag oppakt en naar de juiste endpoint doorstuurd.
Afgaande op de resultaten lijkt het erop dat je dit voor prd goed hebt ingesteld.
Maar voor tst niet => ergens in de routering/vertaling lijkt er iets niet goed te staan.
makes it run like clockwork
Je hebt beide subdomeinen in duckdns opgezet en de config (los van IP uiteraard) in NPM is voor beide hetzelfde?HowsMyApple schreef op donderdag 22 mei 2025 @ 17:02:
[...]
Ik denk niet dat ik helemaal begrijp wat je bedoelt met "kom je binnen op NPM".
Trilium op prd (in LXC) benader ik met notes.domein.duckdns.org - dit werkt
Trilium op tst (in docker container) benader ik met trilium.domein.duckdns.org - dit werkt niet
Vanuit de NPM LXC kan ik naar de VM (op tst) pingen waar de docker containers op draaien
Beantwoordt dat je vraag?
En wat als je in de console van NPM een ping doet naar je trillium docker container op de test proxmox?
Gebruik je nou trouwens het IP adres van de docker container of het IP adres van de LXC/VM waar docker in draait?
Ik, ik stuur de aanvraag via m'n browser naar NPM? Op duckdns verwijst mijn domein naar intern IP voor NPM.Airw0lf schreef op donderdag 22 mei 2025 @ 17:07:
[...]
Deels - ergens moet er iets zijn wat die aanvragen naar NPM stuurt.
En in NPM moet iets staan wat die aanvraag oppakt en naar de juiste endpoint doorstuurd.
Afgaande op de resultaten lijkt het erop dat je dit voor prd goed hebt ingesteld.
Maar voor tst niet => ergens in de routering/vertaling lijkt er iets niet goed te staan.
@Erwin537
Er is maar 1 subdomein. Vanuit Duckdns dus direct naar NPM die alles intern naar de juiste ip-adressen zou moeten doorsturen.Je hebt beide subdomeinen in duckdns opgezet en de config (los van IP uiteraard) in NPM is voor beide hetzelfde?
root@nginxproxymanager:~# curl http://192.168.1.204:8080En wat als je in de console van NPM een ping doet naar je trillium docker container op de test proxmox?
Found. Redirecting to login
(die redirect lijkt me ook niet het probleem trouwens, ook bij containers waarbij er geen login redirect plaats vindt werkt het niet)
Het IP van de VM waar de docker containers op draaien, aagevuld met juiste poortnummer per applicatie. Dus 192.168.1.204 is IP van VM, en poort 8080 zou naar Trilium moeten gaan.Gebruik je nou trouwens het IP adres van de docker container of het IP adres van de LXC/VM waar docker in draait?
Dit is exact hetzelfde als hoe ik het op m'n prd server heb ingesteld.
Ok - maar dan gebruik je NPM als reverse proxy.HowsMyApple schreef op donderdag 22 mei 2025 @ 18:10:
[...]
Ik, ik stuur de aanvraag via m'n browser naar NPM? Op duckdns verwijst mijn domein naar intern IP voor NPM.
[...]
Het IP van de VM waar de docker containers op draaien, aagevuld met juiste poortnummer per applicatie. Dus 192.168.1.204 is IP van VM, en poort 8080 zou naar Trilium moeten gaan.
Dit is exact hetzelfde als hoe ik het op m'n prd server heb ingesteld.
Wat wil zeggen dat alle aanvragen het Internet op gaan. En via de DNS instellingen van DuckDNS weer terug naar de beoogde VM en verder.
Wat is er aan port forwarding ingesteld op je router?
In een eerder bericht schreef je:
Wat heb je bij NPM precies ingesteld voor PRD? En wat voor TST?Trilium op prd (in LXC) benader ik met notes.domein.duckdns.org - dit werkt
Trilium op tst (in docker container) benader ik met trilium.domein.duckdns.org - dit werkt niet
De vraag lijkt me redelijk off-topic... lijkt me eerder gerelateerd aan NPM dan Proxmox...
[ Voor 5% gewijzigd door Airw0lf op 22-05-2025 18:56 ]
makes it run like clockwork
Klopt, ik ken (nog) geen andere usecase dan dit voor NPM dus dat was van mij vanzelfsprekend. Excuus als dat voor verwarring heeft gezorgd.Airw0lf schreef op donderdag 22 mei 2025 @ 18:20:
[...]
Ok - maar dan gebruik je NPM als reverse proxy.
Wat wil zeggen dat alle aanvragen het Internet op gaan. En via de DNS instellingen van DuckDNS weer terug naar de beoogde VM en verder.
Dat is toch niet relevant lijkt me? Ik zeg tegen Duckdns "hoi ik wil naar notes.domein.duckdns.org" Dan zegt Duckdns "oh prima, het ip adres dat wij kennen bij domein.duckdns.org is 192.168.1.101". Dan kom ik bij mijn NPM uit, en afhankelijk van het subdomein stuurt het me door naar het juiste interne IP-adres.Wat is er aan port forwarding ingesteld op je router?
Niets. Ik heb 2 proxmox hosts. Op de prd host draait NPM die dus als reverse proxy dient en via *naamVanApp.domein.duckdns.org me door kan sturen naar alle LXC's en VM's die op prd draaien. Daarnaast stuurt het me via tst.domein.duckdns.org ook door naar de proxmox GUI draaiende op tst.In een eerder bericht schreef je:
[...]
Wat heb je bij NPM precies ingesteld voor PRD? En wat voor TST?
Zal zo eens testen of ik wel VM's en LXC's op de tst kan benaderen dmv reverse proxy. Mocht dat wel lukken zal het m.i. toch in de docker compose network config moeten zitten.
@HowsMyApple - er gebeurd onder de motorkap meer dan op het eerste oog lijkt.
Ik heb een vergelijkbare opstelling en heb wel degelijk aanpassingen gedaan in de NGINX instellingen van NPM.
Of in mijn geval dan SWAG - die ook van NGINX gebruik maakt voor de reverse proxy functies.
Als je die Trilium diensten niet via Internet beschikbaar wil hebben dan is er inderdaad niks aan port-forwarding nodig.
Blijft over het antwoord op de vraag:
Hoe weet NPM wat ie moet doen bij elke aanvraag? Waar heb je dat ingesteld? Enig idee?
Want je moet iets ingesteld hebben - NPM doet niks uit zichzelf.
Ik heb een vergelijkbare opstelling en heb wel degelijk aanpassingen gedaan in de NGINX instellingen van NPM.
Of in mijn geval dan SWAG - die ook van NGINX gebruik maakt voor de reverse proxy functies.
Als je die Trilium diensten niet via Internet beschikbaar wil hebben dan is er inderdaad niks aan port-forwarding nodig.
Blijft over het antwoord op de vraag:
Hoe weet NPM wat ie moet doen bij elke aanvraag? Waar heb je dat ingesteld? Enig idee?
Want je moet iets ingesteld hebben - NPM doet niks uit zichzelf.
makes it run like clockwork
Dit begint meer op NPM te lijken dan op Proxmox. Misschien handiger om een eigen topic te vragen met deze posts en een duidelijke topic-titel die wellicht de juiste mensen aanspreekt?
Ik denk ook dat er is aangehaakt op de verkeerde punten uit m'n eerste post. NPM, duckdns, portforwarding zijn allemaal niet het probleem. Het probleem zit 'm in de hoek docker+proxmox+network bridge. Want zoals ik al een paar keer had gezegd werkt local dns prima via NPM. Enkel en alleen niet naar docker containers. (edit: ook niet naar containers op 'prd' zelf, zojuist getest)
Ik ga wel op zoek naar een docker topic en/of subreddit. Toch bedankt voor het meedenken
Ik ga wel op zoek naar een docker topic en/of subreddit. Toch bedankt voor het meedenken
[ Voor 7% gewijzigd door HowsMyApple op 22-05-2025 20:02 ]
Ok - dan alvast een suggestie voor het vervolg:HowsMyApple schreef op donderdag 22 mei 2025 @ 20:01:
Ik denk ook dat er is aangehaakt op de verkeerde punten uit m'n eerste post. NPM, duckdns, portforwarding zijn allemaal niet het probleem. Het probleem zit 'm in de hoek docker+proxmox+network bridge. Want zoals ik al een paar keer had gezegd werkt local dns prima via NPM. Enkel en alleen niet naar docker containers. (edit: ook niet naar containers op 'prd' zelf, zojuist getest)
Ik ga wel op zoek naar een docker topic en/of subreddit. Toch bedankt voor het meedenken
Post je docker-compose of docker-cli voor het starten van de containers.
Idem van /etc/network/interfaces van Proxmox.
Wat gebeurd er als je een nslookup doet in PVE?
En wat als je dit in de VM/LXC en de bijbehorende container doet?
makes it run like clockwork
Ik draai nu OMV om shares te maken in het netwerk.
Deze mount in in Proxmox met fstab
Die mount ik weer in een LXC voor Docker.
Ik begreep al dat dit mooier kan.
Ben nu aan het kijken hoe Samba werkt en had een vraag hierover. Ik zie dat er veel tutorials zijn dat Samba in een LXC wordt geïnstalleerd. Is dat de beste optie? Niet direct op de Proxmox host?
Deze mount in in Proxmox met fstab
Die mount ik weer in een LXC voor Docker.
Ik begreep al dat dit mooier kan.
Ben nu aan het kijken hoe Samba werkt en had een vraag hierover. Ik zie dat er veel tutorials zijn dat Samba in een LXC wordt geïnstalleerd. Is dat de beste optie? Niet direct op de Proxmox host?
Was gisteren wat aan het zoeken naar HyperV vs Proxmox benchmarks, kwam ik dit topic tegen:
https://forum.proxmox.com...han-x86-64-v2-aes.159107/
Ik heb sinds februari een Windows 2022 SSD VPS bij Contabo vervangen door een Windows 2025 NVME VPS omdat het oude product niet meer bestond en de prijzen daardoor zouden stijgen. Windows 2025 heeft nooit fatsoenlijk gelopen, altijd traag, altijd idle 10-15% CPU verbruik. Ik heb gisteren een support ticket ingeschoten bij Contabo om de cpu type=host te vervangen door EPYC-IBPBP, kort daarna ging de VPS uit en weer aan, kreeg ik bevestiging dat ze een aanpassing hadden gedaan, VPS was daarna gewoon snel en goed werkbaar.
Iets om in de gaten te houden als je Windows 10 (laatste versie), 11 of 2025 op Proxmox draait. Windows 2019 en 2022 hebben er minder last van, maar merk ook daarmee wel verbetering als de CPU type aangepast wordt.
https://forum.proxmox.com...han-x86-64-v2-aes.159107/
Ik heb sinds februari een Windows 2022 SSD VPS bij Contabo vervangen door een Windows 2025 NVME VPS omdat het oude product niet meer bestond en de prijzen daardoor zouden stijgen. Windows 2025 heeft nooit fatsoenlijk gelopen, altijd traag, altijd idle 10-15% CPU verbruik. Ik heb gisteren een support ticket ingeschoten bij Contabo om de cpu type=host te vervangen door EPYC-IBPBP, kort daarna ging de VPS uit en weer aan, kreeg ik bevestiging dat ze een aanpassing hadden gedaan, VPS was daarna gewoon snel en goed werkbaar.
Iets om in de gaten te houden als je Windows 10 (laatste versie), 11 of 2025 op Proxmox draait. Windows 2019 en 2022 hebben er minder last van, maar merk ook daarmee wel verbetering als de CPU type aangepast wordt.
Ja - dit vindt ik veruit de beste optie en is ook hoe ik het nu gebruik.RedRayMann schreef op vrijdag 23 mei 2025 @ 08:59:
Ik draai nu OMV om shares te maken in het netwerk.
Deze mount in in Proxmox met fstab
Die mount ik weer in een LXC voor Docker.
Ik begreep al dat dit mooier kan.
Ben nu aan het kijken hoe Samba werkt en had een vraag hierover. Ik zie dat er veel tutorials zijn dat Samba in een LXC wordt geïnstalleerd. Is dat de beste optie? Niet direct op de Proxmox host?
Met die kanttekening dat ik de mount door pve laat doen in de vorm van een lvm volume om de lxc te starten en een mp voor alle data => geen pve-lvm-thin of een ext4 mount via fstab.
In diezelfde lxc draai ik dan ook nog een paar docker containers zoals syncthing, nextcloud en mariadb.
De software en configs staan\t op de eerste lvm - de gegevens staan op de tweede (via een mp).
OMV heb ik een tijdje geprobeerd. Maar de manier waarop ze rechten en docker containers geregeld hebben vindt ik nodeloos ingewikkeld - met name de rechten rondom samba.
makes it run like clockwork
Ik heb ook problemen met Immich.Airw0lf schreef op vrijdag 23 mei 2025 @ 09:22:
[...]
Ja - dit vindt ik veruit de beste optie en is ook hoe ik het nu gebruik.
Met die kanttekening dat ik de mount door pve laat doen in de vorm van een lvm volume om de lxc te starten en een mp voor alle data => geen pve-lvm-thin of een ext4 mount via fstab.
In diezelfde lxc draai ik dan ook nog een paar docker containers zoals syncthing, nextcloud en mariadb.
De software en configs staan\t op de eerste lvm - de gegevens staan op de tweede (via een mp).
OMV heb ik een tijdje geprobeerd. Maar de manier waarop ze rechten en docker containers geregeld hebben vindt ik nodeloos ingewikkeld - met name de rechten rondom samba.
Immich werkt alleen met de standaard opslaglocatie. Terwijl ik JellyFin wel werkend heb met alle data op een share.
Maar Docker en Immich staan op mijn nvme en wil niet dat mijn foto opslag daarop komt. Die moet op de ssd.
Zat ook te denken dat ik misschien een nieuwe lxc moet maken met opslag op de ssd. Dat is misschien makkelijker.
Interessant om te lezen, vind het heel vreemd gedrag. Achja, Windows he_JGC_ schreef op vrijdag 23 mei 2025 @ 09:22:
Was gisteren wat aan het zoeken naar HyperV vs Proxmox benchmarks, kwam ik dit topic tegen:
https://forum.proxmox.com...han-x86-64-v2-aes.159107/
Ik heb sinds februari een Windows 2022 SSD VPS bij Contabo vervangen door een Windows 2025 NVME VPS omdat het oude product niet meer bestond en de prijzen daardoor zouden stijgen. Windows 2025 heeft nooit fatsoenlijk gelopen, altijd traag, altijd idle 10-15% CPU verbruik. Ik heb gisteren een support ticket ingeschoten bij Contabo om de cpu type=host te vervangen door EPYC-IBPBP, kort daarna ging de VPS uit en weer aan, kreeg ik bevestiging dat ze een aanpassing hadden gedaan, VPS was daarna gewoon snel en goed werkbaar.
Iets om in de gaten te houden als je Windows 10 (laatste versie), 11 of 2025 op Proxmox draait. Windows 2019 en 2022 hebben er minder last van, maar merk ook daarmee wel verbetering als de CPU type aangepast wordt.
Er is een chinees die een technische analyse heeft gedaan: https://www.reddit.com/r/...formance_of_windows_when/orvintax schreef op vrijdag 23 mei 2025 @ 16:39:
[...]
Interessant om te lezen, vind het heel vreemd gedrag. Achja, Windows he(Kon deze kans natuurlijk niet laten liggen als Linux man)
Post bevat een link naar een chinese blog die je door google translate moet halen.
Komt erop neer dat Windows met cpu=host bepaalde beveiligingsmaatregelen neemt tegen de vele CPU bugs van de laatste jaren. L1TF en md_clear zijn de schuldige flags. Wat Windows alleen niet weet is dat linux op de achtergrond ook al maatregelen neemt.
klopt, als ik hem op 'hosts' heb staan en ik pas de Microsoft Security Toolkit security templates toe (die doen wat met VBS etc) dan start de VM niet meer op.. zet ik de VM op x86-x64-v2 (of hoger) dan loopt ie wel goed door_JGC_ schreef op vrijdag 23 mei 2025 @ 16:50:
[...]
Er is een chinees die een technische analyse heeft gedaan: https://www.reddit.com/r/...formance_of_windows_when/
Post bevat een link naar een chinese blog die je door google translate moet halen.
Komt erop neer dat Windows met cpu=host bepaalde beveiligingsmaatregelen neemt tegen de vele CPU bugs van de laatste jaren. L1TF en md_clear zijn de schuldige flags. Wat Windows alleen niet weet is dat linux op de achtergrond ook al maatregelen neemt.
A wise man's life is based around fuck you
Met "host" heb je ook nested virtualisatie, met x86-x64-v2 heb je dat niet en werkt VBS niet.Zwelgje schreef op vrijdag 23 mei 2025 @ 19:36:
[...]
klopt, als ik hem op 'hosts' heb staan en ik pas de Microsoft Security Toolkit security templates toe (die doen wat met VBS etc) dan start de VM niet meer op.. zet ik de VM op x86-x64-v2 (of hoger) dan loopt ie wel goed door
Ik heb gisteren nog een 2019 VM op een Ryzen 9 7900 op EPYC-v4 gezet. Had 'm op EPYC-Genoa willen zetten maar de desktop ryzens missen 2 extensies die de EPYC wel heeft. Misschien een custom CPU aanmaken zonder die 2 extensies. Had vandaag het idee dat die VM onder load een stuk beter presteerde.
(als ik dit eerder geweten had zou die klant nu nog op een E-2236 draaien, die was nml niet vooruit te branden).
Andere VM was een Windows 2022 VM op een Xeon E3 v5, die heb ik op Skylake-Client-IBRS-NoTSX gezet, dat presteerde ook direct een stuk beter.
Het is niet specifiek VBS want dat kan je ook uitzetten maar ook dan start de VM niet op. het is dus 'iets' anders maar wat het is ben ik (nog niet) uit_JGC_ schreef op vrijdag 23 mei 2025 @ 19:54:
[...]
Met "host" heb je ook nested virtualisatie, met x86-x64-v2 heb je dat niet en werkt VBS niet.
Ik heb gisteren nog een 2019 VM op een Ryzen 9 7900 op EPYC-v4 gezet. Had 'm op EPYC-Genoa willen zetten maar de desktop ryzens missen 2 extensies die de EPYC wel heeft. Misschien een custom CPU aanmaken zonder die 2 extensies. Had vandaag het idee dat die VM onder load een stuk beter presteerde.
(als ik dit eerder geweten had zou die klant nu nog op een E-2236 draaien, die was nml niet vooruit te branden).
Andere VM was een Windows 2022 VM op een Xeon E3 v5, die heb ik op Skylake-Client-IBRS-NoTSX gezet, dat presteerde ook direct een stuk beter.
A wise man's life is based around fuck you
Ik heb een probleem bij het installeren van Proxmox op mijn nieuwe AI bak. De machine waar ik Proxmox op wil installeren hangt steeds bij het volgende scherm:

De hardware is als volgt:
AMD Ryzen 5800X
ASUS ProArt X570 Creator WiFi
64GB DDR4 @3600MT/s CL17
GPU 1 en 2: 2x AMD Radeon Pro W6800 (t.z.t. te gebruiken als AI accelerator in een VM)
GPU3: Zotac GeForce GT 710 1GB PCIE x 1
SSD: Samsung 970 Epo Plus 2TB
KVM: PiKVM v4 Plus
De KVM hangt aan de GT 710 omdat dit de enige kaart is met een HDMI-uitgang.
Ik heb het zowel met de virtuele media van de PiKVM als met een losse USB-stick geprobeerd.
OpenSUSE Tumbleweed wil wel installeren, dus het lijkt me een probleem met de installer.
Ik weet nu niet zo goed hoe ik hier verder mee moet, dus als iemand mij van advies kan voorzien dan hoor ik dat graag!

De hardware is als volgt:
AMD Ryzen 5800X
ASUS ProArt X570 Creator WiFi
64GB DDR4 @3600MT/s CL17
GPU 1 en 2: 2x AMD Radeon Pro W6800 (t.z.t. te gebruiken als AI accelerator in een VM)
GPU3: Zotac GeForce GT 710 1GB PCIE x 1
SSD: Samsung 970 Epo Plus 2TB
KVM: PiKVM v4 Plus
De KVM hangt aan de GT 710 omdat dit de enige kaart is met een HDMI-uitgang.
Ik heb het zowel met de virtuele media van de PiKVM als met een losse USB-stick geprobeerd.
OpenSUSE Tumbleweed wil wel installeren, dus het lijkt me een probleem met de installer.
Ik weet nu niet zo goed hoe ik hier verder mee moet, dus als iemand mij van advies kan voorzien dan hoor ik dat graag!
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | <X> as a Service --> making you a poor & dependent slave
<duplicate>ocf81 schreef op zaterdag 24 mei 2025 @ 09:17:
Ik heb een probleem bij het installeren van Proxmox op mijn nieuwe AI bak. De machine waar ik Proxmox op wil installeren hangt steeds bij het volgende scherm:
[Afbeelding]
De hardware is als volgt:
AMD Ryzen 5800X
ASUS ProArt X570 Creator WiFi
64GB DDR4 @3600MT/s CL17
GPU 1 en 2: 2x AMD Radeon Pro W6800 (t.z.t. te gebruiken als AI accelerator in een VM)
GPU3: Zotac GeForce GT 710 1GB PCIE x 1
SSD: Samsung 970 Epo Plus 2TB
KVM: PiKVM v4 Plus
De KVM hangt aan de GT 710 omdat dit de enige kaart is met een HDMI-uitgang.
Ik heb het zowel met de virtuele media van de PiKVM als met een losse USB-stick geprobeerd.
OpenSUSE Tumbleweed wil wel installeren, dus het lijkt me een probleem met de installer.
Ik weet nu niet zo goed hoe ik hier verder mee moet, dus als iemand mij van advies kan voorzien dan hoor ik dat graag!
[ Voor 8% gewijzigd door stormfly op 24-05-2025 09:32 ]
Staat je Zotac kaart als primair in je BIOS misschien struikelt hij daarover? Weet niet wat je bios mogelijkheden zijn. Wat doet hij als je de andere video kaarten verwijdert, loopt het dan wel door?|ocf81 schreef op zaterdag 24 mei 2025 @ 09:17:
Ik heb een probleem bij het installeren van Proxmox op mijn nieuwe AI bak. De machine waar ik Proxmox op wil installeren hangt steeds bij het volgende scherm:
[Afbeelding]
De hardware is als volgt:
AMD Ryzen 5800X
ASUS ProArt X570 Creator WiFi
64GB DDR4 @3600MT/s CL17
GPU 1 en 2: 2x AMD Radeon Pro W6800 (t.z.t. te gebruiken als AI accelerator in een VM)
GPU3: Zotac GeForce GT 710 1GB PCIE x 1
SSD: Samsung 970 Epo Plus 2TB
KVM: PiKVM v4 Plus
De KVM hangt aan de GT 710 omdat dit de enige kaart is met een HDMI-uitgang.
Ik heb het zowel met de virtuele media van de PiKVM als met een losse USB-stick geprobeerd.
OpenSUSE Tumbleweed wil wel installeren, dus het lijkt me een probleem met de installer.
Ik weet nu niet zo goed hoe ik hier verder mee moet, dus als iemand mij van advies kan voorzien dan hoor ik dat graag!
Je kunt nog in GRUB met de volgende parameters spelen.
nomodeset -> Voorkomt dat de kernel direct controle neemt over de GPU's tijdens boot
acpi=off -> Schakelt Advanced Configuration and Power Interface (ACPI) volledig uit
Ervaringen met zelf gehoste AI assistenten ter info.
Het kan zijn dat de installer dus andere kaart pakt voor het beeld. Sluit scherm even op andere kaart aan. Of je haalt de andere kaarten eruit en installeert eerst proxmox zonder die kaarten.
Ik ben er uit, maar het was wel even zoeken. De nvidiafb driver schijnt de GT710 niet zo fijn te vinden en gaat kennelijk op zijn bek. De suggestie van @stormfly was daarin wel enigszins behulpzaam. De oplossing was een obscure forum post met een vergelijkbare aanpak. Bedankt voor de suggestie! Dank ook aan @krijn1985 voor het meedenken
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | <X> as a Service --> making you a poor & dependent slave
Even een vraagje voor verduidelijking. Ik heb 3 containers (Samba, NFS en Syncthing) en alle 3 zou ik toegang willen geven tot eenzelfde directory die gemount is op de host. Samba voor Windows shares, NFS voor Linux shares en Syncthing om bepaalde directories te kunnen mirroren (ala dropbox/onedrive). Het liefst zou ik nog verschillende samba share users hebben, een read-only public user en dan verschillende private users met hun eigen share directory.
```
/mnt/share/media
/mnt/personal/jan
/mnt/personal/piet
```
Wat is het beste qua user management? Voor bv de Samba container, maak ik dan 3 users aan op de Samba container, en 3 users op de host en map die naar elkaar? En zet bijhorend de ownership van die folders op de host naar die users. Map ik dan de user op de NFS container naar user op de host of maak ik een nieuwe aan en voeg de nieuwe user toe aan de groep van de eerdere user.
Het is mij niet volledig duidelijk wat de beste manier is om dit te doen.
```
/mnt/share/media
/mnt/personal/jan
/mnt/personal/piet
```
Wat is het beste qua user management? Voor bv de Samba container, maak ik dan 3 users aan op de Samba container, en 3 users op de host en map die naar elkaar? En zet bijhorend de ownership van die folders op de host naar die users. Map ik dan de user op de NFS container naar user op de host of maak ik een nieuwe aan en voeg de nieuwe user toe aan de groep van de eerdere user.
Het is mij niet volledig duidelijk wat de beste manier is om dit te doen.
NFS sharing kan alleen vanuit privileged LXC (want kernel-space) dus de vraag is of je dat wil. Alternatief is evt. VM (met eigen kernel), of gewoon op de host. (Los daarvan; als de directory al gemount is vanaf een andere share is het niet zo zinnig om hem nog een keer te sharen?)
Uitgangspunt zijn verder inderdaad de users, groups en permissions op de host. Daar moet je configuratie zijn zoals je hem wil. Om de services vervolgens in LXC's te draaien met de user/groups van de host zul je de betreffende users moeten idmappen naar de LXC's, en daarna aanmaken in de LXC. (In die volgorde anders gaat het fout en krijgen de users een id/gid +100000 op de host.)
Samba users werkt verder hetzelfde als zonder LXC. Je kunt virtuele users aanmaken met aparte rechten per share (valid users), zolang de onderliggende rechten (force user/group) maar kloppen met je filesysteem in de LXC (en via idmap dus ook op de host).
Zie ook:
https://pve.proxmox.com/w...rectory_bind_mount_points
Handig tooltje om de idmap config te genereren:
https://github.com/ddimick/proxmox-lxc-idmapper
Uitgangspunt zijn verder inderdaad de users, groups en permissions op de host. Daar moet je configuratie zijn zoals je hem wil. Om de services vervolgens in LXC's te draaien met de user/groups van de host zul je de betreffende users moeten idmappen naar de LXC's, en daarna aanmaken in de LXC. (In die volgorde anders gaat het fout en krijgen de users een id/gid +100000 op de host.)
Samba users werkt verder hetzelfde als zonder LXC. Je kunt virtuele users aanmaken met aparte rechten per share (valid users), zolang de onderliggende rechten (force user/group) maar kloppen met je filesysteem in de LXC (en via idmap dus ook op de host).
Zie ook:
https://pve.proxmox.com/w...rectory_bind_mount_points
Handig tooltje om de idmap config te genereren:
https://github.com/ddimick/proxmox-lxc-idmapper
[ Voor 8% gewijzigd door d3vlin op 27-05-2025 12:25 ]
Leaping Lab Rats!
Samba voor er op te geraken via Windows/GSM, NFS via Linux. Dus 2 containers die dezelfde mappen gemount heeft. (Zo zag ik het toch, mss ben ik verkeerd)d3vlin schreef op dinsdag 27 mei 2025 @ 12:17:
(Los daarvan; als de directory al gemount is vanaf een andere share is het niet zo zinnig om hem nog een keer te sharen?)
Ondertussen heb ik dat id mappen al tig keer gedaan dus kan het zowat vanbuitend3vlin schreef op dinsdag 27 mei 2025 @ 12:17:
Uitgangspunt zijn verder inderdaad de users, groups en permissions op de host. Daar moet je configuratie zijn zoals je hem wil. Om de services vervolgens in LXC's te draaien met de user/groups van de host zul je de betreffende users moeten idmappen naar de LXC's, en daarna aanmaken in de LXC. (In die volgorde anders gaat het fout en krijgen de users een id/gid +100000 op de host.)
Samba users werkt verder hetzelfde als zonder LXC. Je kunt virtuele users aanmaken met aparte rechten per share (valid users), zolang de onderliggende rechten (force user/group) maar kloppen met je filesysteem in de LXC (en via idmap dus ook op de host).
Zie ook:
https://pve.proxmox.com/w...rectory_bind_mount_points
Handig tooltje om de idmap config te genereren:
https://github.com/ddimick/proxmox-lxc-idmapper
De id's enzo probeer ik logisch te houden.
Bv. LXC samba heeft id 210. IP is dan .21 en users starten vanaf 2100 die ik dan aanmaak op zowel de host als de LXC.
En aha, misschien is het beter om via die force en valid users te werken. Moet ik maar 1 user mappen ipv ze allemaal. Dank, ik zal het eens bekijken maar zit nu eerst terug met Immich te klooien want ik ben met een herinstall van Proxmox begonnen en ik krijg mijn library niet maar in gang.
Sinds de upgrade naar 8.4 heb ik last van random reboots, kwam er per toeval achter. Interval varieerd, voor de upgrade had ik 30+ dagen uptime. In logs zie ik dan het volgende:
Kwam een topic tegen op het promox forum, Proxmox Mystery Random Reboots
Heb deze regel toegevoegd aan de cmdline: quiet pci=assign-busses apicmaintimer idle=poll reboot=cold,hard
Iemand tegen dezelfde issues aangelopen?
Edit, "idle=poll" er maar even uitgehaald, wattage ging van 10W naar 30W idle
Edit2, nog geen verschil. Heb de cpu van m'n Home Assistant vm aangepast naar x86-64-v3 (was kvm64).
Edit3, tot nu toe 15u uptime. Lijkt goed
code:
1
2
3
4
5
| May 30 18:10:48 pve01 pveproxy[1319]: starting 1 worker(s) May 30 18:10:48 pve01 pveproxy[1319]: worker 483475 started May 30 18:10:48 pve01 pveproxy[483470]: got inotify poll request in wrong process - disabling inotify May 30 18:10:49 pve01 pveproxy[483470]: worker exit -- Reboot -- |
Kwam een topic tegen op het promox forum, Proxmox Mystery Random Reboots
Heb deze regel toegevoegd aan de cmdline: quiet pci=assign-busses apicmaintimer idle=poll reboot=cold,hard
Iemand tegen dezelfde issues aangelopen?
Edit, "idle=poll" er maar even uitgehaald, wattage ging van 10W naar 30W idle
Edit2, nog geen verschil. Heb de cpu van m'n Home Assistant vm aangepast naar x86-64-v3 (was kvm64).
Edit3, tot nu toe 15u uptime. Lijkt goed
[ Voor 11% gewijzigd door Harmen op 31-05-2025 20:44 ]
Whatever.
Deduplicatie met PBS gaat hier richting factor 100. Dat is toch aardig wat extra retentie voor dezelfde hoeveelheid backup ruimte.lolgast schreef op woensdag 30 april 2025 @ 10:33:
Ik backup gewoon vanuit Proxmox naar een USB-disk en Backblaze. 2 VM’s en 15 LXC’s met een retentie van 3 backups, gaat om 240GB ofzo. Ik heb 1 keer moeten restoren en dat is eigenlijk ook zo simpel als importeren en starten..
Enige waar ik PBS voor zou overwegen is de deduplicatie en incremental backups, maar met de kosten van een GB ga ik de moeite niet nemen
Daarnaast blijft ook de load op VE veel lager met incremental backups naar PBS. Met een zuinige Alder Lake mini-pc als VE kreeg ik af en toe timeouts op replicaties (voor HA) tijdens de wat langere full backups, met incremental geen enkel probleem.
Leaping Lab Rats!
Ik zit met de volgende puzzel:
Ik wil op de proxmox host graag een bestandslocatie, die:
- bereikbaar is via SMB vanaf diverse clients in het netwerk
- beschikbaar is voor een aantal unprivileged containers
Als ik een lokale map mount naar de containers, moet deze rechten krijgen van de container gid, maar dan is deze niet benaderbaar voor de samba usergroup. Als ik de samba groep koppel, dan is het uiteraard weer andersom.
Ik ben vast niet de eerste met deze gewenste inrichting, echter zie ik door de bomen het bos niet meer.
Op mijn proxmox omgeving heb ik nog geen bijzondere dingen draaien, dus ik wil het graag vanaf het begin goed doen.
Moet ik soms een container in de lucht trekken die de samba service beschikbaar stelt?
Wat ik ook nog bedacht is een container met samba service te maken, en dan de andere containers een samba mount te geven naar die samba-container... Met alle data in die container ipv op de proxmox host. Echter zorgt dat mogelijk weer voor extra overhead?
Ik wil op de proxmox host graag een bestandslocatie, die:
- bereikbaar is via SMB vanaf diverse clients in het netwerk
- beschikbaar is voor een aantal unprivileged containers
Als ik een lokale map mount naar de containers, moet deze rechten krijgen van de container gid, maar dan is deze niet benaderbaar voor de samba usergroup. Als ik de samba groep koppel, dan is het uiteraard weer andersom.
Ik ben vast niet de eerste met deze gewenste inrichting, echter zie ik door de bomen het bos niet meer.
Op mijn proxmox omgeving heb ik nog geen bijzondere dingen draaien, dus ik wil het graag vanaf het begin goed doen.
Moet ik soms een container in de lucht trekken die de samba service beschikbaar stelt?
Wat ik ook nog bedacht is een container met samba service te maken, en dan de andere containers een samba mount te geven naar die samba-container... Met alle data in die container ipv op de proxmox host. Echter zorgt dat mogelijk weer voor extra overhead?
Zie 5 posts terug. 😀
Folder met user/group/rechten op de host als uitgangspunt.
Mount en idmapping toevoegen aan de lxc config. Daarna de user/group aanmaken in de unpriviled LXC waarin samba draait zodat deze overeenkomt met de host.
Lijkt mij sneller/minder overhead om de host folder vervolgens ook gewoon in alle andere LXC's te mounten (met dezelfde idmapping) dan via een samba share vanuit de eerste LXC.
Data in een LXC staat overigens ook gewoon op het filesystem van de host, maar dan met afgebakende toegang vanuit de LXC. Dat is anders dan bij een VM waar het filesystem echt in de VM zit.
Folder met user/group/rechten op de host als uitgangspunt.
Mount en idmapping toevoegen aan de lxc config. Daarna de user/group aanmaken in de unpriviled LXC waarin samba draait zodat deze overeenkomt met de host.
Lijkt mij sneller/minder overhead om de host folder vervolgens ook gewoon in alle andere LXC's te mounten (met dezelfde idmapping) dan via een samba share vanuit de eerste LXC.
Data in een LXC staat overigens ook gewoon op het filesystem van de host, maar dan met afgebakende toegang vanuit de LXC. Dat is anders dan bij een VM waar het filesystem echt in de VM zit.
[ Voor 7% gewijzigd door d3vlin op 03-06-2025 19:22 ]
Leaping Lab Rats!
Ah, ik dacht dat het net anders is dan mijn usecase... ik zie dat ik met die usermappings moet gaan klooien, maar kom er nog niet uit.d3vlin schreef op dinsdag 3 juni 2025 @ 17:15:
Zie 5 posts terug. 😀
Folder met user/group/rechten op de host als uitgangspunt.
Mount en idmapping toevoegen aan de lxc config. Daarna de user/group aanmaken in de unpriviled LXC waarin samba draait zodat deze overeenkomt met de host.
Lijkt mij sneller/minder overhead om de host folder vervolgens ook gewoon in alle andere LXC's te mounten (met dezelfde idmapping) dan via een samba share vanuit de eerste LXC.
Data in een LXC staat overigens ook gewoon op het filesystem van de host, maar dan met afgebakende toegang vanuit de LXC. Dat is anders dan bij een VM waar het filesystem echt in de VM zit.
Ik heb nu een sambaserver, die netjes een user heeft, die ik met UID 101000 rechten heb gegeven op een gemounte directory op de host.
Dan dacht ik; ik koppel de root UID (0) op mijn andere containers aan UID 101000 op de host, zodat de services in die containers ook dezelfde rechten krijgen op de mount.
Helaas gooit dat de rechten in de container compleet over de zeik; ik begrijp nog niet goed waarom de mapping ook invloed heeft op de rechten binnen de container.

Ik zou de idmapping voor alle LXC's gelijk houden aan de host, wel zo handig.
Dus een folder van uid/gid 1000 op de host ook idmappen naar uid/gid 1000 in alle LXC's.
Daarna dus pas de user met uid/gid 1000 in de LXC's aanmaken, anders wordt 1000 in een LXC dus 101000 ipv 1000 op de host.
Dus een folder van uid/gid 1000 op de host ook idmappen naar uid/gid 1000 in alle LXC's.
Daarna dus pas de user met uid/gid 1000 in de LXC's aanmaken, anders wordt 1000 in een LXC dus 101000 ipv 1000 op de host.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
| # Add to /etc/pve/lxc/<container_id>.conf: mp0: /hostfolder,mp=/lxcfolder,size=0T lxc.idmap: u 0 100000 1000 lxc.idmap: g 0 100000 1000 lxc.idmap: u 1000 1000 1 lxc.idmap: g 1000 1000 1 lxc.idmap: g 1001 101001 64535 lxc.idmap: u 1001 101001 64535 # Add to /etc/subuid: root:1000:1 # Add to /etc/subgid: root:1000:1 |
[ Voor 7% gewijzigd door d3vlin op 03-06-2025 21:02 ]
Leaping Lab Rats!
Het probleem waar ik tegenaan loop is dat de containers die ik gebruik, hun services als root draaien. Deze services lezen en schrijven dus van de gemounte folders. Omdat het de root gebruiker is, lijkt het erop dat ik hem niet kan remappen. (of ik zie iets over het hoofd, wat natuurlijk heel goed kand3vlin schreef op dinsdag 3 juni 2025 @ 20:57:
Ik zou de idmapping voor alle LXC's gelijk houden aan de host, wel zo handig.
Dus een folder van uid/gid 1000 op de host ook idmappen naar uid/gid 1000 in alle LXC's.
Daarna dus pas de user met uid/gid 1000 in de LXC's aanmaken, anders wordt 1000 in een LXC dus 101000 ipv 1000 op de host.
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 # Add to /etc/pve/lxc/<container_id>.conf: mp0: /hostfolder,mp=/lxcfolder,size=0T lxc.idmap: u 0 100000 1000 lxc.idmap: g 0 100000 1000 lxc.idmap: u 1000 1000 1 lxc.idmap: g 1000 1000 1 lxc.idmap: g 1001 101001 64535 lxc.idmap: u 1001 101001 64535 # Add to /etc/subuid: root:1000:1 # Add to /etc/subgid: root:1000:1
Ik zou kunnen kijken of ik de services onder een andere user kan draaien, maar dan word het wel weer veel maatwerk in elke container.
Je kan ook group maken en mounten, in LXC groep maken, betreffende user lid maken van de groep in LXC.
Zou moeten kunnen.
https://forum.proxmox.com...mount-cifs-shares.101795/
Bovenstaand heb ik gevolgd, omdat anders m'n Plex LXC bijvoorbeeld niet wilde functioneren. Simpelweg door het feit dat je in de LXC niet als Plexuser kan inloggen, je dus niet echt een mount bind kon toepassen. Door groups te gebruiken lukt dat wel.
Zou moeten kunnen.
https://forum.proxmox.com...mount-cifs-shares.101795/
Bovenstaand heb ik gevolgd, omdat anders m'n Plex LXC bijvoorbeeld niet wilde functioneren. Simpelweg door het feit dat je in de LXC niet als Plexuser kan inloggen, je dus niet echt een mount bind kon toepassen. Door groups te gebruiken lukt dat wel.
[ Voor 58% gewijzigd door Quad op 03-06-2025 21:18 ]
Alles went behalve een Twent.
⏩ PVOutput☀️
Idmappen van lxc root naar host root is nou net wat je niet wil in een unprivileged container.. 😉
Leaping Lab Rats!
Na een avondje lekker prutsen en proberen, heb ik het uiteindelijk opgelost door de acl functie te activeren op het filesystem, hierdoor kan je meerdere UIDs rechten geven op een folder. Op die manier heb ik zowel de 100000 en 101000 user rechten gegeven op de gedeelde map.
Na enige maanden prima te hebben gedraaid, vandaag een (geplande) power outage gehad.
Alles komt netjes weer up (gelukkig), BEHALVE....
Het feit dat ik proxmox zelf niet meer kan benaderen vanuit een ander VLAN.
Proxmox staat in VLAN1, vanaf andere devices in VLAN1 is het te benaderen (192.168.1.10:8006)
Andere devices in VLAN1 kan ik prima vanuit andere VLANs benaderen. 't is dus echt alleen de proxmox host.
Goed, gateway mis-configuration zou je denken, die staat gewoon op 192.168.1.1
Issue is ook dat wat ZFS shares nu niet meer te benaderen zijn vanaf een VM.
Via VPN (5G), kan ik wél bij de interface van proxmox, gek genoeg.
Al geprobeerd met firewall uit/aan binnen proxmox op de network config van de node, helaas ook geen succes.
De VM's zijn in hun eigen VLAN prima te benaderen, ook containers in een ander VLAN draaien prima.
't gaat dus puur om de host zelf.
Op mijn switch gekeken, native VLAN is 1, en dan twee tagged VLANs waarin de VM's / Containers draaien.
VLAN tagging er nog af gehaald, geen verandering.
Wie oh wie heeft voor mij de gouden oplossing?
Switch poort van Native VLAN1, naar 'none' en dan als tagged VLAN1, 20 & 30 op de poort maakt ook niet uit.
Alles komt netjes weer up (gelukkig), BEHALVE....
Het feit dat ik proxmox zelf niet meer kan benaderen vanuit een ander VLAN.
Proxmox staat in VLAN1, vanaf andere devices in VLAN1 is het te benaderen (192.168.1.10:8006)
Andere devices in VLAN1 kan ik prima vanuit andere VLANs benaderen. 't is dus echt alleen de proxmox host.
Goed, gateway mis-configuration zou je denken, die staat gewoon op 192.168.1.1
Issue is ook dat wat ZFS shares nu niet meer te benaderen zijn vanaf een VM.
Via VPN (5G), kan ik wél bij de interface van proxmox, gek genoeg.
Al geprobeerd met firewall uit/aan binnen proxmox op de network config van de node, helaas ook geen succes.
De VM's zijn in hun eigen VLAN prima te benaderen, ook containers in een ander VLAN draaien prima.
't gaat dus puur om de host zelf.
Op mijn switch gekeken, native VLAN is 1, en dan twee tagged VLANs waarin de VM's / Containers draaien.
VLAN tagging er nog af gehaald, geen verandering.
Wie oh wie heeft voor mij de gouden oplossing?
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
| auto lo iface lo inet loopback iface eno1 inet manual auto vmbr0 iface vmbr0 inet static address 192.168.1.10/24 gateway 192.168.1.1 bridge-ports eno1 bridge-stp off bridge-fd 0 bridge-vlan-aware yes bridge-vids 20,30 iface wlp58s0 inet manual auto vmbr0.20 iface vmbr0.20 inet static address 192.168.20.0/24 auto vmbr0.30 iface vmbr0.30 inet static address 192.168.30.0/24 |
Switch poort van Native VLAN1, naar 'none' en dan als tagged VLAN1, 20 & 30 op de poort maakt ook niet uit.
[ Voor 26% gewijzigd door Leaplasher op 06-06-2025 14:23 ]
Ik ben bezig met het opbouwen van m'n eerste Proxmox-gebaseerde servertje. Werkt allemaal vrij intuïtief en ik heb wat containers en VM's draaien.
Waar ik echter niet helemaal uit kom is het volgende.
Edit: Wat ik uiteindelijk wil is een share met mediabestanden die verschillende vm's/lxc-containers kunnen benaderen (Sonarr en Plex bijvoorbeeld).
Waar ik echter niet helemaal uit kom is het volgende.
- Ik heb een ZFS setje (2x1TB SSD in mirror) genaamd flash.
- Ook heb ik een fileserver LXC-container met SMB. Hierop staat de share /mnt/flash en heeft wat subfolders en media-files als test.
- Nu probeer ik in een Jellyfin LXC-container de data in /mnt/flash/* te benaderen door een mount point toe te voegen. Maar dat werkt dus niet.
Edit: Wat ik uiteindelijk wil is een share met mediabestanden die verschillende vm's/lxc-containers kunnen benaderen (Sonarr en Plex bijvoorbeeld).
[ Voor 10% gewijzigd door sOid op 06-06-2025 20:30 ]
@sOid dat is in de posts voor je net besproken. Je moet ervoor zorgen dat je correcte ID's gebruikt om te mappen.
Ik verwacht dat dit je veel gaat helpen: https://forum.proxmox.com...mount-cifs-shares.101795/
Ik verwacht dat dit je veel gaat helpen: https://forum.proxmox.com...mount-cifs-shares.101795/
Alles went behalve een Twent.
⏩ PVOutput☀️
Ah overheen gelezen omdat ik de term niet kende. Ga me inlezen, dank!Quad schreef op vrijdag 6 juni 2025 @ 20:34:
@sOid dat is in de posts voor je net besproken. Je moet ervoor zorgen dat je correcte ID's gebruikt om te mappen.
Ik verwacht dat dit je veel gaat helpen: https://forum.proxmox.com...mount-cifs-shares.101795/
@Leaplasher ik ga dan altijd terug naar de basis.
Met laptop in dezelfde range als pve zonder switch direct in pve. Werkt dat wel even ander switchpoort direct untagged op vlan1. Als dat werkt een router probleem.
Met laptop in dezelfde range als pve zonder switch direct in pve. Werkt dat wel even ander switchpoort direct untagged op vlan1. Als dat werkt een router probleem.
[ Voor 3% gewijzigd door nike op 07-06-2025 14:58 ]
-edit-
Goede tip, dank. Zoals aangegeven heb ik dat echter al uitgesloten. 't ligt niet aan de switch poort/router.nike schreef op vrijdag 6 juni 2025 @ 21:44:
@Leaplasher ik ga dan altijd terug naar de basis.
Met laptop in dezelfde range als pve zonder switch direct in pve. Werkt dat wel even ander switchpoort direct untagged op vlan1. Als dat werkt een router probleem.
't zit em echt in 'iets' in proxmox.
Ook even een oude Pi gepakt, met exact dezelfde setup. Geen issue. Ook niet bij port swap.
Kan het dus ook niet reproduceren. Blijft ook raar dat 't tot aan de power outage prima heeft gewerkt.
Helaas loopt m'n proxmox host weer tegen random reboots aan, heb helaas nog geen oorzaak gevonden.
Ging bijna 4 dagen goed, vanmorgen weer een reboot:
Lijkt wel op een achtergrond taak welke de reboot veroorzaakt, maar welke? Heeft iemand een idee wat ik nog kan checken?
Ging bijna 4 dagen goed, vanmorgen weer een reboot:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
| Jun 08 02:17:01 pve01 CRON[2295835]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0) Jun 08 02:17:01 pve01 CRON[2295836]: (root) CMD (cd / && run-parts --report /etc/cron.hourly) Jun 08 02:17:01 pve01 CRON[2295835]: pam_unix(cron:session): session closed for user root Jun 08 03:04:36 pve01 pvedaemon[2283729]: <root@pam> successful auth for user 'ha-user@pve' Jun 08 03:04:36 pve01 pvedaemon[2236307]: <root@pam> successful auth for user 'ha-user@pve' Jun 08 03:10:01 pve01 CRON[2320925]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0) Jun 08 03:10:01 pve01 CRON[2320926]: (root) CMD (test -e /run/systemd/system || SERVICE_MODE=1 /sbin/e2scrub_all -A -r) Jun 08 03:10:01 pve01 CRON[2320925]: pam_unix(cron:session): session closed for user root Jun 08 03:10:46 pve01 systemd[1]: Starting e2scrub_all.service - Online ext4 Metadata Check for All Filesystems... Jun 08 03:10:46 pve01 systemd[1]: e2scrub_all.service: Deactivated successfully. Jun 08 03:10:46 pve01 systemd[1]: Finished e2scrub_all.service - Online ext4 Metadata Check for All Filesystems. Jun 08 03:17:01 pve01 CRON[2324242]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0) Jun 08 03:17:01 pve01 CRON[2324243]: (root) CMD (cd / && run-parts --report /etc/cron.hourly) Jun 08 03:17:01 pve01 CRON[2324242]: pam_unix(cron:session): session closed for user root Jun 08 03:30:01 pve01 CRON[2330375]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0) Jun 08 03:30:01 pve01 CRON[2330376]: (root) CMD (test -e /run/systemd/system || SERVICE_MODE=1 /usr/lib/x86_64-linux-gnu/e2fsprogs/e2scrub_all_cron) Jun 08 03:30:01 pve01 CRON[2330375]: pam_unix(cron:session): session closed for user root Jun 08 03:43:36 pve01 pvedaemon[2236307]: worker exit Jun 08 03:43:36 pve01 pvedaemon[1300]: worker 2236307 finished Jun 08 03:43:36 pve01 pvedaemon[1300]: starting 1 worker(s) Jun 08 03:43:36 pve01 pvedaemon[1300]: worker 2336802 started -- Reboot -- |
Lijkt wel op een achtergrond taak welke de reboot veroorzaakt, maar welke? Heeft iemand een idee wat ik nog kan checken?
Whatever.
Ik ga ook aan een Proxmox Avontuur beginnen. Ter vervanging van een DS216+II heb ik het volgende:
Nu de vragen:
De vorige set (DS216) heeft ruim 8 jaar gedraaid zonder ernaar om te kijken, dus zoek nu weer iets dat vooral makkelijk/stabiel is met beperkte wear.
Er kunnen nog backups op een USB hard-disk gemaakt worden, dus zeker ivm stroomverbruik heb ik liever geen raid met dubbele disks.
- Ugreen dxp2800. Intel N100, met upgrade naar 16GB Ram (Non-ECC)
- 2TB NVME WD Black SN770 (jong licht gebruikt)
- 10TB WD Red+ (nieuw)
- 250GB Crucial bx250 (oud, uit laptop)
- Home Assitant OS (vm)
- Zigbee2mqtt lxc/docker
- Pihole lxc/docker
- OpenMediaVault als NAS host voor backups.
Nu de vragen:
- OS op een oude 250GB sata ssd, of op de NVME
- ext4 of zfs voor single disk volume van de storage?
- ext4 of zfs voor single ssd volumen van proxmox os[?/li]
De vorige set (DS216) heeft ruim 8 jaar gedraaid zonder ernaar om te kijken, dus zoek nu weer iets dat vooral makkelijk/stabiel is met beperkte wear.
Er kunnen nog backups op een USB hard-disk gemaakt worden, dus zeker ivm stroomverbruik heb ik liever geen raid met dubbele disks.
Soms ben ik er wel, en soms ook weer niet.
@Illusion - Ik heb ook een DXP2800 - en die start niet vanaf een sata disk - foutje in de bios (zo lijkt het). Wel vanaf een nvme of een usb disk.
Maar mocht dat wel (gaan) werken (mijn 0,500 Euro):
* PVE booten vanaf sata SSD
* NVME voor de VM's en LXC's op basis van een (non-thin-)LVM volume.
* 10TB WD Red+ voor backups op basis van een EXT4 volume.
Als het NAS gedeelte inderdaad alleen is voor backups lijkt me OMV overkill.
Je zou dan kunnen volstaan met het activeren van NFS, SAMBA en/of rsync - best via een LXC.
Alle services via een LXC (al dan niet i.c.m. Docker) laten lopen heeft veruit de voorkeur - minste overhead en via PVE kan alles in een keer gebackupped kan worden naar die WD-Red (of een externe USB). Een VM gebruik ik alleen voor iets wat echt niet anders kan - zoals bijvoorbeeld HASS
Mocht booten van SATA niet gaan werken overweeg dan een tweede, kleine NVME disk om van te booten.
Maar mocht dat wel (gaan) werken (mijn 0,500 Euro):
* PVE booten vanaf sata SSD
* NVME voor de VM's en LXC's op basis van een (non-thin-)LVM volume.
* 10TB WD Red+ voor backups op basis van een EXT4 volume.
Als het NAS gedeelte inderdaad alleen is voor backups lijkt me OMV overkill.
Je zou dan kunnen volstaan met het activeren van NFS, SAMBA en/of rsync - best via een LXC.
Alle services via een LXC (al dan niet i.c.m. Docker) laten lopen heeft veruit de voorkeur - minste overhead en via PVE kan alles in een keer gebackupped kan worden naar die WD-Red (of een externe USB). Een VM gebruik ik alleen voor iets wat echt niet anders kan - zoals bijvoorbeeld HASS
Mocht booten van SATA niet gaan werken overweeg dan een tweede, kleine NVME disk om van te booten.
[ Voor 8% gewijzigd door Airw0lf op 08-06-2025 12:44 ]
makes it run like clockwork
Bij een normale reboot krijg je ruim meer regels die daar op wijzen voorafgaand aan de regel met '-- Reboot --'. Op het moment dat jouw systeem herstart, is het om een reden dus al niet meer mogelijk om logs weg te schrijven. Een probleem met hardware en/of drivers ligt daarmee naar mijn idee het meest voor de hand.Harmen schreef op zondag 8 juni 2025 @ 10:25:
Helaas loopt m'n proxmox host weer tegen random reboots aan, heb helaas nog geen oorzaak gevonden.
Ging bijna 4 dagen goed, vanmorgen weer een reboot:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 Jun 08 02:17:01 pve01 CRON[2295835]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0) Jun 08 02:17:01 pve01 CRON[2295836]: (root) CMD (cd / && run-parts --report /etc/cron.hourly) Jun 08 02:17:01 pve01 CRON[2295835]: pam_unix(cron:session): session closed for user root Jun 08 03:04:36 pve01 pvedaemon[2283729]: <root@pam> successful auth for user 'ha-user@pve' Jun 08 03:04:36 pve01 pvedaemon[2236307]: <root@pam> successful auth for user 'ha-user@pve' Jun 08 03:10:01 pve01 CRON[2320925]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0) Jun 08 03:10:01 pve01 CRON[2320926]: (root) CMD (test -e /run/systemd/system || SERVICE_MODE=1 /sbin/e2scrub_all -A -r) Jun 08 03:10:01 pve01 CRON[2320925]: pam_unix(cron:session): session closed for user root Jun 08 03:10:46 pve01 systemd[1]: Starting e2scrub_all.service - Online ext4 Metadata Check for All Filesystems... Jun 08 03:10:46 pve01 systemd[1]: e2scrub_all.service: Deactivated successfully. Jun 08 03:10:46 pve01 systemd[1]: Finished e2scrub_all.service - Online ext4 Metadata Check for All Filesystems. Jun 08 03:17:01 pve01 CRON[2324242]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0) Jun 08 03:17:01 pve01 CRON[2324243]: (root) CMD (cd / && run-parts --report /etc/cron.hourly) Jun 08 03:17:01 pve01 CRON[2324242]: pam_unix(cron:session): session closed for user root Jun 08 03:30:01 pve01 CRON[2330375]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0) Jun 08 03:30:01 pve01 CRON[2330376]: (root) CMD (test -e /run/systemd/system || SERVICE_MODE=1 /usr/lib/x86_64-linux-gnu/e2fsprogs/e2scrub_all_cron) Jun 08 03:30:01 pve01 CRON[2330375]: pam_unix(cron:session): session closed for user root Jun 08 03:43:36 pve01 pvedaemon[2236307]: worker exit Jun 08 03:43:36 pve01 pvedaemon[1300]: worker 2236307 finished Jun 08 03:43:36 pve01 pvedaemon[1300]: starting 1 worker(s) Jun 08 03:43:36 pve01 pvedaemon[1300]: worker 2336802 started -- Reboot --
Lijkt wel op een achtergrond taak welke de reboot veroorzaakt, maar welke? Heeft iemand een idee wat ik nog kan checken?
Iemand een idee hoe ik mDNS resolving kan activeren in een LXC en/of op de Proxmox host zelf?
Ik heb op basis van dit nu wel systemd-resolved geïnstalleerd maar dit heeft nog geen verschil gemaakt, ik denk ook dat ik juist de andere kant op wil?
Ik heb op basis van dit nu wel systemd-resolved geïnstalleerd maar dit heeft nog geen verschil gemaakt, ik denk ook dat ik juist de andere kant op wil?
[ Voor 68% gewijzigd door Beekforel op 10-06-2025 22:19 ]
Sinds kort heb ik problemen met mijn Proxmox hypervisor, versie 8.4.1. Zo nu en dan is de webinterface totaal niet meer te bereiken en moet ik de stroom van mijn NUC er af halen. Ik zie in de logging het volgende.
Iemand een idee? NUC is voorzien van laatste bios.
Ik draai alleen VM met Home Assistant en die is ook niet meer te benaderen.
Iemand een idee? NUC is voorzien van laatste bios.
Ik draai alleen VM met Home Assistant en die is ook niet meer te benaderen.
:strip_exif()/f/image/atLifDTr7Jr6HQNsKKmHLqI0.png?f=user_large)
[ Voor 69% gewijzigd door Acradavos op 20-06-2025 15:51 ]
@Acradavos Been there done that, zie volgende link om het op te lossen. Werkte iig bij mij. 
https://forum.proxmox.com...ple-times-per-day.139115/
https://forum.proxmox.com...ple-times-per-day.139115/
Whatever.
Can confirm, hier had ik het ook en met bovenstaande is het opgelost.
Alles went behalve een Twent.
⏩ PVOutput☀️