In PMX heet die optie unprivileged=no, beetje onhandig want dat betekent privileged=yes. Maar je hebt gelijk
Ja - klopt. Ik realiseerde me dat ook na 3 of 4 van deze lxc's te hebben gemaakt.smesjz schreef op woensdag 16 juli 2025 @ 18:21:
[...]
In PMX heet die optie unprivileged=no, beetje onhandig want dat betekent privileged=yes. Maar je hebt gelijk
Daarna hier mee door gegaan - was me te veel werk om alles om te trappen.
makes it run like clockwork
Even een schaamteloze crosspost uit Quad in "Home Assistant: Open source Python3 home automation - deel 5"
Volgens mij is er geen Proxmox backupsensor binnen HA? De gewone PVE integratie laat in elk geval niets zien.
Ik heb daarom een script gebouwd die geïnstalleerd kan worden in een Proxmox Backupserver VM of LXC en elke x minuten informatie naar een MQTT broker stuurt.
Resultaat is een Proxmox Backup device binnen MQTT met per laatste backup taak een entity.
/f/image/TBR4PxLwFaJFUtIFwIiDwo5Z.png?f=fotoalbum_large)
Dat kan je dan weer gebruiken voor je dashboard of automations:
:strip_exif()/f/image/lnqq3TUgM3iLhAXzrv8ODo0S.png?f=user_large)
Ik heb inmiddels de info eea op Github gezet, maar weet niet of het op een andere installatie goed werkt, omdat ik niet even een 2e PBS kan opspinnen ivm de complexere config binnen Proxmox. Als iemand dit wilt testen, hoor ik het graag, voor ik een niet goed werkende code op Github zet.
Volgens mij is er geen Proxmox backupsensor binnen HA? De gewone PVE integratie laat in elk geval niets zien.
Ik heb daarom een script gebouwd die geïnstalleerd kan worden in een Proxmox Backupserver VM of LXC en elke x minuten informatie naar een MQTT broker stuurt.
Resultaat is een Proxmox Backup device binnen MQTT met per laatste backup taak een entity.
/f/image/TBR4PxLwFaJFUtIFwIiDwo5Z.png?f=fotoalbum_large)
Dat kan je dan weer gebruiken voor je dashboard of automations:
:strip_exif()/f/image/lnqq3TUgM3iLhAXzrv8ODo0S.png?f=user_large)
Ik heb inmiddels de info eea op Github gezet, maar weet niet of het op een andere installatie goed werkt, omdat ik niet even een 2e PBS kan opspinnen ivm de complexere config binnen Proxmox. Als iemand dit wilt testen, hoor ik het graag, voor ik een niet goed werkende code op Github zet.
Alles went behalve een Twent.
⏩ PVOutput☀️
Mijn eerste ervaringen met Proxmox zijn positief.
Ik wilde een oude rPi 3 vervangen als Home Assistant host. Ik heb daarvoor een Beelink S12 Pro (16GB / 500GB) gekocht. In plaats van Home Assistant OS rechtstreeks op de mini-pc te installeren, heb ik eerst Proxmox geïnstalleerd en daarbinnen een VM aangemaakt met behulp van https://community-scripts...xmoxVE/scripts?id=haos-vm
Mocht het nodig zijn, dan kan ik sneller een backup of snapshot terugzetten, dan een het terugzetten van een backup binnen Home Assistant OS.
Voor services zoals Caddy en AdGuard Home, die in feite single binaries zijn, is docker niet per se nodig. Een LXC container voelt voor mij dan logischer, dan kan AdGuard Home gewoon port 53 in gebruik nemen zonder conflicten met de (docker) host. Ik vind het wel fijn dat deze services een dedicated IP krijgen.
Op termijn wil ik een tweede Proxmox host toevoegen. Misschien ook zo'n Beelink, of een Ugreen NAS ter vervanging van een oude Synology.
Dan kan ik services zoals AdGuard Home migreren van de ene host naar de andere, zodat het internet blijft werken thuis, wanneer ik een van de hosts uit moet zetten voor bijvoorbeeld een hardware upgrade.
Voor applicaties die niet als single binary, maar via een officiële docker image worden verspreid heb ik nu docker in een LXC draaien. Tot nu toe werkt dat goed, maar dat is mij om het even of dat een LXC of VM is.
Een Proxmox host met één VM voor Home Assistant OS en één VM voor Docker zou voor mij nog steeds zinvol zijn.
Ik wilde een oude rPi 3 vervangen als Home Assistant host. Ik heb daarvoor een Beelink S12 Pro (16GB / 500GB) gekocht. In plaats van Home Assistant OS rechtstreeks op de mini-pc te installeren, heb ik eerst Proxmox geïnstalleerd en daarbinnen een VM aangemaakt met behulp van https://community-scripts...xmoxVE/scripts?id=haos-vm
Mocht het nodig zijn, dan kan ik sneller een backup of snapshot terugzetten, dan een het terugzetten van een backup binnen Home Assistant OS.
Voor services zoals Caddy en AdGuard Home, die in feite single binaries zijn, is docker niet per se nodig. Een LXC container voelt voor mij dan logischer, dan kan AdGuard Home gewoon port 53 in gebruik nemen zonder conflicten met de (docker) host. Ik vind het wel fijn dat deze services een dedicated IP krijgen.
Op termijn wil ik een tweede Proxmox host toevoegen. Misschien ook zo'n Beelink, of een Ugreen NAS ter vervanging van een oude Synology.
Dan kan ik services zoals AdGuard Home migreren van de ene host naar de andere, zodat het internet blijft werken thuis, wanneer ik een van de hosts uit moet zetten voor bijvoorbeeld een hardware upgrade.
Voor applicaties die niet als single binary, maar via een officiële docker image worden verspreid heb ik nu docker in een LXC draaien. Tot nu toe werkt dat goed, maar dat is mij om het even of dat een LXC of VM is.
Een Proxmox host met één VM voor Home Assistant OS en één VM voor Docker zou voor mij nog steeds zinvol zijn.
Ik ben eigenlijk wel benieuwd of hier mensen vanuit zakelijk ook Proxmox gebruiken en of dit een ding is.
[ Voor 0% gewijzigd door InfoTracer op 17-07-2025 12:27 . Reden: Typo ]
Proxmox is niet enkel bedoeld voor alleen HA en homelab, zakelijk wordt Proxmox heel veel gebruikt en ook met licenties (enterprice repo)InfoTracer schreef op donderdag 17 juli 2025 @ 11:05:
Ik ben eigenlijk wel benieuwd of hier wensen vanuit zakelijk ook Proxmox gebruiken en of dit een ding is.
Si vis pacem, para bellum
Wij draaien Proxmox bij veel klanten. Ons datacenter bestaat ook enkel uit Proxmox hosts met CEPH datastoreclusters.InfoTracer schreef op donderdag 17 juli 2025 @ 11:05:
Ik ben eigenlijk wel benieuwd of hier wensen vanuit zakelijk ook Proxmox gebruiken en of dit een ding is.
Thuis 2 zuinige pc's met lokale storage in (niet ha)cluster.
Alles went behalve een Twent.
⏩ PVOutput☀️
Wij gebruiken het al jaren maar sinds Broadcom VMware heeft overgenomen en de prijzen drastisch verhoogd heeft is Proxmox erg populair aan het worden binnen de zakelijke markt.InfoTracer schreef op donderdag 17 juli 2025 @ 11:05:
Ik ben eigenlijk wel benieuwd of hier mensen vanuit zakelijk ook Proxmox gebruiken en of dit een ding is.
We do what we must because we can.
Duitse VPS provider Contabo gebruikt het. Booten met VNC geeft een mooi Proxmox BIOS/EFI logoInfoTracer schreef op donderdag 17 juli 2025 @ 11:05:
Ik ben eigenlijk wel benieuwd of hier wensen vanuit zakelijk ook Proxmox gebruiken en of dit een ding is.
Daarnaast ook wat @ResuCigam aangeeft. Perikelen rondom ESXi lijkt ook wel wat beweging gebracht te hebben hierin met (vele?) overstappers naar Proxmox.
Ruim een jaar of tien alweer.InfoTracer schreef op donderdag 17 juli 2025 @ 11:05:
Ik ben eigenlijk wel benieuwd of hier wensen vanuit zakelijk ook Proxmox gebruiken en of dit een ding is.
Edit:
En niet alleen VE, maar we maken ook dankbaar gebruik van de Backup Server en Mail Gateway.
[ Voor 16% gewijzigd door Polderviking op 17-07-2025 12:27 ]
Hier ben ik druk bezig met een migratie naar Proxmox... komen vanaf HyperV.InfoTracer schreef op donderdag 17 juli 2025 @ 11:05:
Ik ben eigenlijk wel benieuwd of hier mensen vanuit zakelijk ook Proxmox gebruiken en of dit een ding is.
De keuze was Windows 2025 met storage spaces direct of Proxmox met CEPH. Keuze is daarbij gevallen op Proxmox. Licentietechnisch maakt het niet veel uit, want we moeten toch Windows Datacenter aanschaffen per node (alhoewel ik nu alles op 2 nodes knal en de 3e het linux spul laat draaien, wat 1000 euro per maand bespaart). Verder vond ik de documentatie over storage spaces direct niet heel erg denderend. CEPH is wat dat betreft een stuk duidelijker gedocumenteerd en is veel meer over te vinden.
Enige wat ik jammer vind is dat management heeft besloten dat we bij VEEAM blijven. Het is een duur, traag en omslachtig kutpakket vergeleken met Proxmox Backup Server.
Ik keek gisteren een filmpje van Level1Techs en deze datacenter draait ook voornamelijk Proxmox.
Dat gaf wel even inzicht dat Proxmox heel breed gebruikt wordt, van thuis in je homelab tot mega grote en snelle datacenters
Dat gaf wel even inzicht dat Proxmox heel breed gebruikt wordt, van thuis in je homelab tot mega grote en snelle datacenters
[ Voor 23% gewijzigd door Theetjuh op 17-07-2025 14:38 ]
Ik had diverse Pi's en heb nu een Odroid main server en heb één RPi3 hergebruikt met Docker en een Unifi netwerk controller backup (passief, doet niets tot ik hem activeer als mijn main server uit moet) en een 2de AdGuard Home. Die wel actief is.M-ThijZ schreef op donderdag 17 juli 2025 @ 10:35:
Mijn eerste ervaringen met Proxmox zijn positief.
Ik wilde een oude rPi 3 vervangen als Home Assistant host. Ik heb daarvoor een Beelink S12 Pro (16GB / 500GB) gekocht. In plaats van Home Assistant OS rechtstreeks op de mini-pc te installeren, heb ik eerst Proxmox geïnstalleerd en daarbinnen een VM aangemaakt met behulp van https://community-scripts...xmoxVE/scripts?id=haos-vm
Mocht het nodig zijn, dan kan ik sneller een backup of snapshot terugzetten, dan een het terugzetten van een backup binnen Home Assistant OS.
Voor services zoals Caddy en AdGuard Home, die in feite single binaries zijn, is docker niet per se nodig. Een LXC container voelt voor mij dan logischer, dan kan AdGuard Home gewoon port 53 in gebruik nemen zonder conflicten met de (docker) host. Ik vind het wel fijn dat deze services een dedicated IP krijgen.
Op termijn wil ik een tweede Proxmox host toevoegen. Misschien ook zo'n Beelink, of een Ugreen NAS ter vervanging van een oude Synology.
Dan kan ik services zoals AdGuard Home migreren van de ene host naar de andere, zodat het internet blijft werken thuis, wanneer ik een van de hosts uit moet zetten voor bijvoorbeeld een hardware upgrade.
Voor applicaties die niet als single binary, maar via een officiële docker image worden verspreid heb ik nu docker in een LXC draaien. Tot nu toe werkt dat goed, maar dat is mij om het even of dat een LXC of VM is.
Een Proxmox host met één VM voor Home Assistant OS en één VM voor Docker zou voor mij nog steeds zinvol zijn.
In de actieve Unifi controller heb ik ook 2 dns servers ingesteld, zodat wanneer één van de twee uit is, de andere de routes oppakt.
DNS is round robin. Requests worden naar een willekeurige server gestuurd, en als dat mislukt/timeout pakt die een ander. Het is dus niet primaire en secondaire in de zin van "gebruik de primaire en als die niet werkt dan de secondaire". Ze zijn gewoon gelijk (en met een dobbelsteen wordt beslist welke server gebruikt wordt voor een request?).RedRayMann schreef op donderdag 17 juli 2025 @ 17:49:
In de actieve Unifi controller heb ik ook 2 dns servers ingesteld, zodat wanneer één van de twee uit is, de andere de routes oppakt.
Klopt, maar alsnog zorg ik hiermee dat één van beide servers of diensten offline kunnen en het internet blijft werken.RobertMe schreef op donderdag 17 juli 2025 @ 17:55:
[...]
DNS is round robin. Requests worden naar een willekeurige server gestuurd, en als dat mislukt/timeout pakt die een ander. Het is dus niet primaire en secondaire in de zin van "gebruik de primaire en als die niet werkt dan de secondaire". Ze zijn gewoon gelijk (en met een dobbelsteen wordt beslist welke server gebruikt wordt voor een request?).
Leuk om te kijken! Ook tof om te zien dat ze o.a. Grafana gebruiken, wat ook in menig Homelabs gebruikt wordtTheetjuh schreef op donderdag 17 juli 2025 @ 14:37:
Ik keek gisteren een filmpje van Level1Techs en deze datacenter draait ook voornamelijk Proxmox.
[YouTube: Inside the Modern Data Center! SuperClusters at Applied Digital]
Dat gaf wel even inzicht dat Proxmox heel breed gebruikt wordt, van thuis in je homelab tot mega grote en snelle datacenters
Sinds eind juni de eerste klant die groot genoege kloten had mogen voorzien van een Proxmox cluster. Wij zijn als bedrijf nog ongetraind (behalve homelab) dus het zeer conventioneel met een SAN opgebouwd en het draait als een trein.InfoTracer schreef op donderdag 17 juli 2025 @ 11:05:
Ik ben eigenlijk wel benieuwd of hier mensen vanuit zakelijk ook Proxmox gebruiken en of dit een ding is.
Eigenlijk alles wel kunnen bereiken wat Maffia toko Broadcom met ESXi ook kon en ook op gloedje nieuw HPE Gen11 spul zonder problemen.
Zeker iets waar wij op de zaak training op gaan volgen en wellicht zakelijk volledig gaan ondersteunen voor de lange termijn
I reject your reality and substitute my own
Proxmox 9 beta is beschikbaar sinds vandaag en is gebaseerd op Debian 13. En met kernel 6.14, zfs 2.3, qemu 10 en meer mooie dingen. Er is nog geen release date voor stabiele versie.
Zie https://forum.proxmox.com...9-0-beta-released.168619/ voor de wijzigingen en waarschuwingen.
Zie https://forum.proxmox.com...9-0-beta-released.168619/ voor de wijzigingen en waarschuwingen.
Ik heb gisteren frigate uit Home Assistant OS (VM) gehaald en in een eigen LXC (met Docker) gestopt. Goede zet geweest, het stroomverbruik is met 4W omlaag gegaan en de interference speed voor de CoralTPU is van 20ms naar gemiddeld 10ms voor 3 streams gegaan.
De interface en alles is ook vlotter tot nu toe. Kleine tip voor wie dit ook overweegt.
De interface en alles is ook vlotter tot nu toe. Kleine tip voor wie dit ook overweegt.
Alles went behalve een Twent.
⏩ PVOutput☀️
Debian heeft zover ik kan zien zo snel ook nog geen release date voor Trixie, dus het is denk ik ook nog de release daarvan afwachten voordat Proxmox 9 uit beta zal gaan. Al waren ze met 8 geloof ik wel iets eerder dan Debian.smesjz schreef op vrijdag 18 juli 2025 @ 23:05:
Proxmox 9 beta is beschikbaar sinds vandaag en is gebaseerd op Debian 13. En met kernel 6.14, zfs 2.3, qemu 10 en meer mooie dingen. Er is nog geen release date voor stabiele versie.
Zie https://forum.proxmox.com...9-0-beta-released.168619/ voor de wijzigingen en waarschuwingen.
Bij ons op het werk ligt er een offerte klaar voor 2 nieuwe servers en shared storage. Dat zal voorzien worden met Proxmox met de Enterpise repo. De VMware licenties waren te duur, zoals verwacht.
Ik heb nu al 1 workstation draaien met Proxmox met enkele monitoring en test vm's.
Ik heb nu al 1 workstation draaien met Proxmox met enkele monitoring en test vm's.
Verkeerd gelezen...Quad schreef op vrijdag 18 juli 2025 @ 23:15:
Ik heb gisteren frigate uit Home Assistant OS (VM) gehaald en in een eigen LXC (met Docker) gestopt. Goede zet geweest, het stroomverbruik is met 4W omlaag gegaan en de interference speed voor de CoralTPU is van 20ms naar gemiddeld 10ms voor 3 streams gegaan.
De interface en alles is ook vlotter tot nu toe. Kleine tip voor wie dit ook overweegt.

Ik heb vorig jaar ook al eens een poging gedaan om HA naar een LXC te brengen.
Maar dat kreeg ik toen niet voor elkaar - kreeg het niet eens geinstalleerd.
Formeel lijkt het niet te kunnen:
https://www.home-assistant.io/installation/
En met Docker containers lijken er 2 beperkingen.
Waarvan het gebrek aan add-ons voor mij het meest "pijnlijke" is.
Kan je aangeven hoe je dat gedaan hebt?
Werken de add-ons en updates bij jou ook nog?
makes it run like clockwork
Ok, misschien was upgrade naar Proxmox 9 beta niet zo'n goed idee.
LXC (Arch) geeft:
"[root@ha ~]$ docker start tesla-teslamate-1
Error response from daemon: failed to create task for container: failed to create shim task: OCI runtime create failed: runc create failed: unable to start container process: error during container init: error mounting "mqueue" to rootfs at "/dev/mqueue": change mount propagation through procfd: resolving path inside rootfs failed: lstat /var/lib/docker/overlay2/4c901c1fd77671f5f86e3edd0a92ea0edf5a06967dc30e439ed574b1036adaca/merged//dev/mqueue: permission denied"
Host (PMX 9) geeft via systemd logs:
Jul 19 08:42:58 pve kernel: audit: type=1400 audit(1752907378.099:472): apparmor="DENIED" operation="getattr" class="posix_mqueue" profile="lxc-105_</var/lib/lxc>" name="/" pid=59342 comm="runc:[2:INIT]" requested="getattr" denied="getattr"class="posix_mqueue" fsuid=0 ouid=0
Bij eerdere upgrades 7 -> 8 dit niet gehad en bij eerdere kernel upgrades dit niet mee gezien. Google helpt niet echt maar het moet goed komen...misschien toch eens die upgrade notes gaan lezen.
Als tijdelijke oplossing apparmor maar uitgezet in kernel.
LXC (Arch) geeft:
"[root@ha ~]$ docker start tesla-teslamate-1
Error response from daemon: failed to create task for container: failed to create shim task: OCI runtime create failed: runc create failed: unable to start container process: error during container init: error mounting "mqueue" to rootfs at "/dev/mqueue": change mount propagation through procfd: resolving path inside rootfs failed: lstat /var/lib/docker/overlay2/4c901c1fd77671f5f86e3edd0a92ea0edf5a06967dc30e439ed574b1036adaca/merged//dev/mqueue: permission denied"
Host (PMX 9) geeft via systemd logs:
Jul 19 08:42:58 pve kernel: audit: type=1400 audit(1752907378.099:472): apparmor="DENIED" operation="getattr" class="posix_mqueue" profile="lxc-105_</var/lib/lxc>" name="/" pid=59342 comm="runc:[2:INIT]" requested="getattr" denied="getattr"class="posix_mqueue" fsuid=0 ouid=0
Bij eerdere upgrades 7 -> 8 dit niet gehad en bij eerdere kernel upgrades dit niet mee gezien. Google helpt niet echt maar het moet goed komen...misschien toch eens die upgrade notes gaan lezen.
Als tijdelijke oplossing apparmor maar uitgezet in kernel.
[ Voor 2% gewijzigd door smesjz op 19-07-2025 09:52 . Reden: Tijdelijk opgelost ]
Klopt - verkeerd gelezen.RudolfR schreef op zaterdag 19 juli 2025 @ 08:29:
@Airw0lf
Quad schrijft over alleen frigate, niet heel Home Assisant?
makes it run like clockwork
@Airw0lf inderdaad, Home Assistant blijft lekker in z'n eigen OS. 
Ik ben bezig zoveel mogelijk addons naar een eigen LXC te brengen. Z2M en Frigate zijn al gelukt. MQTT broker en Z-wave zijn de volgende.
Edit: Home Assistant container draait op docker, zie niet direct een reden waarom dat niet kan.
Wil je browsen of visual code server gebruiken, dan ga je binnen diezelfde Docker nog 2 containers opspinnen. Met behulp van js en een rewrite binnen de configuration yaml kan je die containers zelfs in iframe binnen je Home Assistant installatie zien.
Ik ga dit voor je testen tzt.
Ik ben bezig zoveel mogelijk addons naar een eigen LXC te brengen. Z2M en Frigate zijn al gelukt. MQTT broker en Z-wave zijn de volgende.
Edit: Home Assistant container draait op docker, zie niet direct een reden waarom dat niet kan.
Wil je browsen of visual code server gebruiken, dan ga je binnen diezelfde Docker nog 2 containers opspinnen. Met behulp van js en een rewrite binnen de configuration yaml kan je die containers zelfs in iframe binnen je Home Assistant installatie zien.
YAML:
1
2
3
4
5
6
7
8
9
10
11
| # configuration.yaml # CustomSideBar panel_custom: - name: Zigbee2MQTT sidebar_title: Zigbee2MQTT sidebar_icon: mdi:zigbee url_path: zigbee2mqtt module_url: /local/zigbee2mqtt_redirect.js embed_iframe: true require_admin: true |
Ik ga dit voor je testen tzt.
[ Voor 67% gewijzigd door Quad op 19-07-2025 09:59 ]
Alles went behalve een Twent.
⏩ PVOutput☀️
Priviliged LXC? En maak je ook nog gebruik van docker in de LXC?
Zeer zeker, op een project 2 VE's draaien (niet clustered, gewoon 2 "standalones") met alle HA op hogerliggende applicatie-lagen etc.InfoTracer schreef op donderdag 17 juli 2025 @ 11:05:
Ik ben eigenlijk wel benieuwd of hier mensen vanuit zakelijk ook Proxmox gebruiken en of dit een ding is.
Machines zijn +- 48 cores, 256GB RAM per stuk en een 3TB mirrored storage per unit met een 25Gbits/sec link naar LAN
Werkt gewoon prima, geen AL te hoge eisen.
Geen cent licensing naar Broadcom etc
Ondertussen ook een Proxmox Backup Server opgezet etc.
Frigate?Theetjuh schreef op zaterdag 19 juli 2025 @ 09:56:
Priviliged LXC? En maak je ook nog gebruik van docker in de LXC?
Unprivileged LXC met docker, er is volgens mij geen geadviseerde installatie zonder docker.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
| # lxc .conf arch: amd64 cores: 2 dev0: /dev/bus/usb/002/002 features: fuse=1,nesting=1 hostname: frigate memory: 4096 mp0: local-lvm:vm-1006-disk-1,mp=/mnt/vm-1006-disk-0,size=8G net0: name=eth0,bridge=vmbr0,gw=192.168.20.252,hwaddr=BC:24:11:03:33:7D,ip=192.168.20.209/24,tag=20,type=veth ostype: debian rootfs: local-lvm:vm-1006-disk-0,size=16G swap: 2048 unprivileged: 1 lxc.cgroup2.devices.allow: c 226:0 rwm lxc.cgroup2.devices.allow: c 226:128 rwm lxc.mount.entry: /dev/dri dev/dri none bind,optional,create=dir lxc.mount.entry: /dev/dri/renderD128 dev/dri/renderD128 none bind,optional,create=file lxc.hook.pre-start: sh -c "chown 100000:100000 /dev/dri/" lxc.hook.pre-start: sh -c "chown 100000:100104 /dev/dri/renderD128" |
Docker config (stack in Portainer):
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
| services: frigate: container_name: frigate privileged: true restart: unless-stopped stop_grace_period: 10s image: ghcr.io/blakeblackshear/frigate:stable shm_size: "256mb" devices: - /dev/bus/usb:/dev/bus/usb - /dev/dri/renderD128 volumes: - /etc/localtime:/etc/localtime:ro - /apps/frigate/config:/config - /mnt/vm-1006-disk-0/frigate:/media/frigate # CT disk voor opslag media - geen backup - type: tmpfs target: /tmp/cache tmpfs: size: 1000000000 ports: - "8971:8971" # Frigate Web UI - "8554:8554" # RTSP output - "8555:8555/tcp" # WebRTC - "8555:8555/udp" # WebRTC |
Home Assistant in docker in een LXC werkt ook, althans ik heb prima een unprivileged container op kunnen zetten met een restore van mijn configuratie (zonder add-ons).
Alles went behalve een Twent.
⏩ PVOutput☀️
Mijn trouwe VE doos is vandaag heengegaan, althans. De A400 die erin zat en welke nu teruggaat naar Informatique onder garantie; of ze het willen of niet
SA500 besteld, komt hopelijk morgen binnen..
Murphy doet weer goed z'n werk uiteraard, ga maandag op vakantie. Ruim 6,5u met de trein dus ik had mij "verheugd en verwend" op een Samsung A9 Tablet waarop ik via selfhosted Plex films en series kon gaan kijken.. Zonder backup en hardware, lekker handig. Zij het niet dat ik nog een Asus Vivobook Max en een 2TB HDD had rondslingeren.
:strip_exif()/f/image/zPEkDYQBSGmXpGJt4qAg3jsR.jpg?f=fotoalbum_large)
Zodoende is dat spul nu per vandaag geridderd tot Kratos, redder in nood. Pijnigen van een N4200 op Proxmox VE 8.4.0, het kan blijkbaar.
Moraal van het verhaal: schedule je backups!
Murphy doet weer goed z'n werk uiteraard, ga maandag op vakantie. Ruim 6,5u met de trein dus ik had mij "verheugd en verwend" op een Samsung A9 Tablet waarop ik via selfhosted Plex films en series kon gaan kijken.. Zonder backup en hardware, lekker handig. Zij het niet dat ik nog een Asus Vivobook Max en een 2TB HDD had rondslingeren.
:strip_exif()/f/image/zPEkDYQBSGmXpGJt4qAg3jsR.jpg?f=fotoalbum_large)
Zodoende is dat spul nu per vandaag geridderd tot Kratos, redder in nood. Pijnigen van een N4200 op Proxmox VE 8.4.0, het kan blijkbaar.
Moraal van het verhaal: schedule je backups!
Ik wil tüteren, tüteren grote blij.
Ik heb een uitvoering: Dell OptiPlex 5060-46N2Y MFF draaien als Proxmox servertje. Dat draait uitstekend, maar voor zo'n klein computertje vond ik hem nog redelijk wat stroom gebruiken, 18W gemiddeld.
Allereerst de CPU scaling governor op 'powersave' gezet, toen ging het van 18W gemiddeld naar 15W gemiddeld, 3W besparing.
Gisteren powertop --auto-tune gedraaid en toen ging er nogmaals 3W af, van 15W naar 12W gemiddeld en met uitschieters omlaag naar 9W.
Makkelijk bespaard
Gemeten met een HomeWizard tussenstekker.
Zie voor meer uitleg en hoe je het na een reboot automatisch laat activeren (anders is het na een reboot weg): https://unloadbrain.com/t...ion-optimize-proxmox.html
Allereerst de CPU scaling governor op 'powersave' gezet, toen ging het van 18W gemiddeld naar 15W gemiddeld, 3W besparing.
Gisteren powertop --auto-tune gedraaid en toen ging er nogmaals 3W af, van 15W naar 12W gemiddeld en met uitschieters omlaag naar 9W.
Makkelijk bespaard
Zie voor meer uitleg en hoe je het na een reboot automatisch laat activeren (anders is het na een reboot weg): https://unloadbrain.com/t...ion-optimize-proxmox.html
[ Voor 4% gewijzigd door ThinkPad op 20-07-2025 10:04 ]
@ThinkPad zie Het grote zuinige server topic - deel 3 voor nog meer tips. 
Wat heb je er verder op draaien en aangesloten?
Wat heb je er verder op draaien en aangesloten?
[ Voor 20% gewijzigd door Quad op 20-07-2025 10:51 ]
Alles went behalve een Twent.
⏩ PVOutput☀️
Klopt, uit dat topic heb ik m'n tips ook gehaald maar vond het wel handig om het hier even te posten. 5 min. werk en gelijk stuk zuiniger.
Er zit een NVMe en een mSATA SSD in, 2x16GB RAM. Verder geen randapparatuur aangesloten.
4 VM's actief (Debian met Docker, een Windows Server VM, Veeam en een gevirtualiseerde OPNsense), load is vrij laag. Als hij druk bezig is met backup e.d. dan stijgt het naar 30W met uitschieters naar 50W.
Edit: niet helemaal juist qua randapparatuur. Er hangt nog een Homewizard P1 aan die via USB van de server voeding krijgt. En een ESP8266. Die zullen samen +/- 2W gebruiken.
Er zit een NVMe en een mSATA SSD in, 2x16GB RAM. Verder geen randapparatuur aangesloten.
4 VM's actief (Debian met Docker, een Windows Server VM, Veeam en een gevirtualiseerde OPNsense), load is vrij laag. Als hij druk bezig is met backup e.d. dan stijgt het naar 30W met uitschieters naar 50W.
Edit: niet helemaal juist qua randapparatuur. Er hangt nog een Homewizard P1 aan die via USB van de server voeding krijgt. En een ESP8266. Die zullen samen +/- 2W gebruiken.
[ Voor 16% gewijzigd door ThinkPad op 21-07-2025 08:44 ]
Ik heb destijds ook gekeken naar shared storage, maar toch besloten een derde server te pakken en voor Ceph te gaan. Eigenlijk zou er nog een vierde bij moeten of zelfs een vijfde, maar vind het nu ook prima draaien.GoBieN-Be schreef op vrijdag 18 juli 2025 @ 23:54:
Bij ons op het werk ligt er een offerte klaar voor 2 nieuwe servers en shared storage. Dat zal voorzien worden met Proxmiox met de Enterpise repo. De VMware licenties waren te duur, zoals verwacht.
Ik heb nu al 1 workstation draaien met Proxmox met enkele monitoring en test vm's.
Maar snap ook dat als je van VMWare af komt en voor het eerst wat met Proxmox gaat doen dat Ceph een flinke sprong in het diepe is.
Bug aangemaakt in hun bugzilla en binnen 2 dagen opgelost in Proxmox. Nu is apparmor weer aangezet.smesjz schreef op zaterdag 19 juli 2025 @ 09:01:
Ok, misschien was upgrade naar Proxmox 9 beta niet zo'n goed idee.
Als tijdelijke oplossing apparmor maar uitgezet in kernel.
Voor LXC heeft UX nu checkbox voor protected naast privileged. Als ze ook nog cloud-init toevoegen voor LXC is het helemaal perfect
Ik wil een opnsense op proxmox gaan zetten.
De WAN wil ik gewoon als pci device doorzetten.
Maar wat is nu slim voor de lan adapter.
- Zet ik die ook door en maak ik de vlans in opnsense
- Maak ik de vlans op proxmox met aparte bridges en zet ik die door
- Overige suggesties
Hoop op jullie advies daarvoor
De WAN wil ik gewoon als pci device doorzetten.
Maar wat is nu slim voor de lan adapter.
- Zet ik die ook door en maak ik de vlans in opnsense
- Maak ik de vlans op proxmox met aparte bridges en zet ik die door
- Overige suggesties
Hoop op jullie advies daarvoor
De WAN-poort heb ik via een aparte bridge (vmbr1) direct aangesloten op de NT/modem van KPN.commentator schreef op dinsdag 22 juli 2025 @ 22:18:
Ik wil een opnsense op proxmox gaan zetten.
De WAN wil ik gewoon als pci device doorzetten.
Maar wat is nu slim voor de lan adapter.
- Zet ik die ook door en maak ik de vlans in opnsense
- Maak ik de vlans op proxmox met aparte bridges en zet ik die door
- Overige suggesties
Hoop op jullie advies daarvoor
De LAN-poort heb ik met vlan-aware gekoppeld aan vmbr0 (waar ook Proxmox zelf op zit).
De opgegeven vlan range is 2-400. De vlans heb ik in OpnSense aangemaakt.
Daarnaast heb ik nog een LAN-poort (vmbr2) opgenomen in een vlan voor gasten en een vlan voor forensisch onderzoek. In beide gevallen is vlan ingesteld in Proxmox middels de vmbr-interface - in dit geval alleen 380 en 390.
De bijbehorende vlan interfaces heb ik weer in OpnSense aangemaakt - analoog aan die op de LAN-poort (vmbr0).
makes it run like clockwork
Wat een verademing... voorheen met losse HyperV servers updaten was het 1 voor 1 alle VMs eraf trekken, puzzelen waar het past ivm geheugen en diskruimte, heel lang wachten, updates uitvoeren en dan alles weer 1 voor 1 terug.
Vanmorgen geheugen bijgeprikt in 2 nodes:
Wachten tot de VMs wegvliegen
apt update; apt upgrade; shutdown -h now, geheugen bijprikken en daarna server weer opstarten.
Na de reboot:
Weer wachten tot de VMs van de andere servers wegvliegen en dan de volgende server pakken...
Enige tegenvaller was een VM met lokale ZFS storage waar ik 23 minuten op moest wachten
. Die heeft nu Ceph storage, dat bijt me niet nogmaals.
Vanmorgen geheugen bijgeprikt in 2 nodes:
code:
1
2
| ceph osd set noout ha-manager crm-command node-maintenance enable pve1 |
Wachten tot de VMs wegvliegen
apt update; apt upgrade; shutdown -h now, geheugen bijprikken en daarna server weer opstarten.
Na de reboot:
code:
1
| ha-manager crm-command node-maintenance disable pve1 |
Weer wachten tot de VMs van de andere servers wegvliegen en dan de volgende server pakken...
Enige tegenvaller was een VM met lokale ZFS storage waar ik 23 minuten op moest wachten
Ik werk gewoon met bridge interfaces, dus geen pci doorzetten (bridge voelt mij gewoon robuuster aan qua upgrades). Bridge vmbr0 is gekoppeld aan mijn LAN en ik laat alle vlans toe en bridge vmbr1 is mijn WAN. Als je bv Odido hebt, kan je kiezen tagging op proxmox te doen of in de VM (beide werken).commentator schreef op dinsdag 22 juli 2025 @ 22:18:
Ik wil een opnsense op proxmox gaan zetten.
De WAN wil ik gewoon als pci device doorzetten.
Maar wat is nu slim voor de lan adapter.
- Zet ik die ook door en maak ik de vlans in opnsense
- Maak ik de vlans op proxmox met aparte bridges en zet ik die door
- Overige suggesties
Hoop op jullie advies daarvoor
Dit is wel mijn WAN1 via vmbr1 :-) Mijn WLAN2 doe ik tagged doorsturen naar vmbr0.
[ Voor 5% gewijzigd door UTMachine op 23-07-2025 13:05 ]
Heb je misschien een diagram van je (netwerk)setup? Ik sta bijna op het punt om m'n TP link Deco's van router naar AP modus om te zetten en direct achter m'n ONT een minipc met OPNsense VM op proxmox te zetten. Heb zelf ook Odido maar heb nog niet gevonden hoe ik het "internet vlan 300" stuk in OPNsense moet toepassen.UTMachine schreef op woensdag 23 juli 2025 @ 13:03:
[...]
Ik werk gewoon met bridge interfaces, dus geen pci doorzetten (bridge voelt mij gewoon robuuster aan qua upgrades). Bridge vmbr0 is gekoppeld aan mijn LAN en ik laat alle vlans toe en bridge vmbr1 is mijn WAN. Als je bv Odido hebt, kan je kiezen tagging op proxmox te doen of in de VM (beide werken).
Dit is wel mijn WAN1 via vmbr1 :-) Mijn WLAN2 doe ik tagged doorsturen naar vmbr0.
(elke andere toelichting van je setup is ook meer dan welkom)
Inderdaad gewoon bridges vmbr0 -> WAN en vmbr1 -> LAN in Proxmox en de rest in OPNSense configureren.
YouTube: Virtualizing OPNsense on Proxmox as Your Primary Router
Met bridges gewoon 440fx / Seabios gebruiken voor je VM. Dan hoeft dat gedoe met secureboot in de bios ook niet.
YouTube: Virtualizing OPNsense on Proxmox as Your Primary Router
Met bridges gewoon 440fx / Seabios gebruiken voor je VM. Dan hoeft dat gedoe met secureboot in de bios ook niet.
[ Voor 20% gewijzigd door d3vlin op 24-07-2025 23:47 ]
Leaping Lab Rats!
Mijn minisforum ms-a2 arriveert morgen dus het wordt hoog tijd dat ik de extra onderdelen ga bestellen.
Vraag hierbij..is een enkele consumer SSD ok, of beter toch OS scheiden van de rest of toch beter naar pro SSD's kijken?
Reden van de vraag is dat ik hier en daar wat tegenkom over extreme ssd wearout met proxmox..
Server gaat dus proxmox draaien met als eerste VMs OPNsense, HomeAssistant, Clearpass, docker (al heb ik nog geen idee hoe dat fatsoenlijk aan te pakken), ...
Ga hopelijk ook meer en meer functie van mijn Synology naar dit servertje verhuizen.. denk dan primair aan reverse proxy, mail en DNS services.
Vraag hierbij..is een enkele consumer SSD ok, of beter toch OS scheiden van de rest of toch beter naar pro SSD's kijken?
Reden van de vraag is dat ik hier en daar wat tegenkom over extreme ssd wearout met proxmox..
Server gaat dus proxmox draaien met als eerste VMs OPNsense, HomeAssistant, Clearpass, docker (al heb ik nog geen idee hoe dat fatsoenlijk aan te pakken), ...
Ga hopelijk ook meer en meer functie van mijn Synology naar dit servertje verhuizen.. denk dan primair aan reverse proxy, mail en DNS services.
Dat alles op een enkele server?
Zoja, hoe ga je dan met updates/downtime om?
Zoja, hoe ga je dan met updates/downtime om?
Zoals elke thuisgebruiker die niet 24/7 online hoeft te zijn?Theetjuh schreef op vrijdag 25 juli 2025 @ 11:46:
Dat alles op een enkele server?
Zoja, hoe ga je dan met updates/downtime om?
Gisteren mijn OPNsense VM een schop gegeven naar 25.7, die 5 minuten kijken ze maar even geen Youtube.
Server SSD's hebben typisch geen low power idle, gebruik beter een goede SSD voor de consumentenmarkt.witchdoc schreef op vrijdag 25 juli 2025 @ 09:42:
Mijn minisforum ms-a2 arriveert morgen dus het wordt hoog tijd dat ik de extra onderdelen ga bestellen.
Vraag hierbij..is een enkele consumer SSD ok, of beter toch OS scheiden van de rest of toch beter naar pro SSD's kijken?
Stoppen bepaalde services zorgt ervoor dat er veel minder I/O is.Reden van de vraag is dat ik hier en daar wat tegenkom over extreme ssd wearout met proxmox..
Ik zat net even te knutselen in m'n hoofd, ik zat te denken aan een Mikrotik standalone routert als main en een opnsense vm als backup (dubbele nic), mocht je daar waarde aan hechten (denk bijv. aan je bedrijfswebsite selfhosten) en het goed inricht zou dat eventueel nog kunnen.._JGC_ schreef op vrijdag 25 juli 2025 @ 11:57:
[...]
Zoals elke thuisgebruiker die niet 24/7 online hoeft te zijn?
Gisteren mijn OPNsense VM een schop gegeven naar 25.7, die 5 minuten kijken ze maar even geen Youtube.
Maar het lijkt me niet dat vrouw/manlief of die krijskabouters (sorry, ik heb geen kinderen) nu echt even niet een paar minuten zonder internet kunnen. 4G(+)/5G bestaat ook nog.
Ik wil tüteren, tüteren grote blij.
Met het stoppen van die specifieke services zal het denk ik niet veel verschil maken. Wellicht iets zuiniger, maar I/O zal meevallen.mrmrmr schreef op vrijdag 25 juli 2025 @ 11:59:
[...]
Stoppen bepaalde services zorgt ervoor dat er veel minder I/O is.
De grootste "boosdoener" op het vlak van I/O en CPU/stroomverbruik zal de statistieken daemon zijn. Die kan ook gestopt worden (naam is vast in dit of het zuinige server topic te vinden), maar heeft uiteraard wel een (grote) functionele impact. Je mist dan immers ook de statistieken / grafieken in de Proxmox web UI. Als die ze niet meer opslaat kan die ze immers ook niet laten zien
Interessant onderwerp, maar waar stopt het? Je internet, power, netwerk, pc, etc moet allemaal redundant zijn om fully seamless dingen te kunnen upgraden (of stuk gaan). Alles staat en valt met hoge kosten en complexiteit. Dit moet ik regelmatig uitleggen aan klantenTheetjuh schreef op vrijdag 25 juli 2025 @ 11:46:
Dat alles op een enkele server?
Zoja, hoe ga je dan met updates/downtime om?
Ik zeg ook niet dat het redundant moet hè ... dat moet een ieder zelf weten.
Zolang er maar over na gedacht wordt, we praten niet over een simpele service, maar over je router, dns en in dit geval ook nog clearpass.
Zolang er maar over na gedacht wordt, we praten niet over een simpele service, maar over je router, dns en in dit geval ook nog clearpass.
Ik ben aan het kijken of ik hier een diagram voor kan maken. Globaal gezien heb ik nu:HowsMyApple schreef op woensdag 23 juli 2025 @ 21:07:
[...]
Heb je misschien een diagram van je (netwerk)setup? Ik sta bijna op het punt om m'n TP link Deco's van router naar AP modus om te zetten en direct achter m'n ONT een minipc met OPNsense VM op proxmox te zetten. Heb zelf ook Odido maar heb nog niet gevonden hoe ik het "internet vlan 300" stuk in OPNsense moet toepassen.
(elke andere toelichting van je setup is ook meer dan welkom)
* Intel NUC13 met 2x 2.5Gb (dus met expansie slot)
* Mijn LAN is aangesloten op NIC1
* Mijn WAN1 is aangesloten via NIC2
* Ik koos NIC1 als LAN, dat leek me het makkelijkste (ik heb meerdere NUCs)
* OPNsense geinstalleerd met vmbr0 op NIC1 en vmbr1 op NIC2. Alleen een LAN ip op NIC1, niets op NIC2
* vmbr1 geef ik door aan OPNsense met een vlan tag van 300 (Odido). Scheelt een vlan tag in OPNsense
* vmbr0 heeft geen vlan tag, gewoon 1 op 1 doorgegeven. Alle VLANs worden gedaan in OPNsense
* Mijn WAN2 heb ik op een VLAN 600 gezet op mijn switch (via LAN kabel). En dan geef ik deze als een 3e nic door aan OPNsense met vmbr0 met VLAN 600
Voordeel voor mij met bridge interfaces:
* Minder complex dan PCI doorgeven
* NIC namen en MAC adressen zitten aan de VM vast, ik kan deze verhuizen naar een andere NUC node zonder enige impact. Superhandig als je modem in bridge mode draait
* USB NIC is ruk, vandaar ik WAN2 via de switch en vlan tagging werk
Dus je hebt vanuit je modem een kabel in je switch zitten?UTMachine schreef op vrijdag 25 juli 2025 @ 15:21:
[...]
Ik ben aan het kijken of ik hier een diagram voor kan maken. Globaal gezien heb ik nu:
* Intel NUC13 met 2x 2.5Gb (dus met expansie slot)
* Mijn LAN is aangesloten op NIC1
* Mijn WAN1 is aangesloten via NIC2
* Ik koos NIC1 als LAN, dat leek me het makkelijkste (ik heb meerdere NUCs)
* OPNsense geinstalleerd met vmbr0 op NIC1 en vmbr1 op NIC2. Alleen een LAN ip op NIC1, niets op NIC2
* vmbr1 geef ik door aan OPNsense met een vlan tag van 300 (Odido). Scheelt een vlan tag in OPNsense
* vmbr0 heeft geen vlan tag, gewoon 1 op 1 doorgegeven. Alle VLANs worden gedaan in OPNsense
* Mijn WAN2 heb ik op een VLAN 600 gezet op mijn switch (via LAN kabel). En dan geef ik deze als een 3e nic door aan OPNsense met vmbr0 met VLAN 600
Voordeel voor mij met bridge interfaces:
* Minder complex dan PCI doorgeven
* NIC namen en MAC adressen zitten aan de VM vast, ik kan deze verhuizen naar een andere NUC node zonder enige impact. Superhandig als je modem in bridge mode draait
* USB NIC is ruk, vandaar ik WAN2 via de switch en vlan tagging werk
Heb je dan bij Odido 2 wan aansluitingen?
Nee, mijn WAN1 is Odido en WAN2 is Ziggo.commentator schreef op vrijdag 25 juli 2025 @ 22:05:
[...]
Dus je hebt vanuit je modem een kabel in je switch zitten?
Heb je dan bij Odido 2 wan aansluitingen?
Dus geen failover richting Odido, want dan heb je een /29 subnet nodig (wij krijgen maar 1 IP adres). Ook is mijn Odido media converter niet dual uitgevoerd 🤣
@commentatorUTMachine schreef op vrijdag 25 juli 2025 @ 22:14:
[...]
Nee, mijn WAN1 is Odido en WAN2 is Ziggo.
Dus geen failover richting Odido, want dan heb je een /29 subnet nodig (wij krijgen maar 1 IP adres). Ook is mijn Odido media converter niet dual uitgevoerd 🤣
Zo ziet het er ongeveer uit:
/f/image/ubtPqIxT4LmgkO5O5NbYTb0a.png?f=fotoalbum_large)
En screenshot van mijn Proxmox VM:
/f/image/YIgZATvwsG6HTdQeoN6G0829.png?f=fotoalbum_large)
Paar vragen ;ThinkPad schreef op zondag 13 april 2025 @ 14:47:
Lijkt erop dat dit het issue is (uit 2019 al schijnbaar, vreemd dat ik er nu met update naar 8.4 pas tegenaan loop): https://forum.proxmox.com...driver-hang.58284/page-13
Apr 13 07:53:19 proxmox kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
Heb het nu hopelijk opgelost door in /etc/network/interfaces een post-up commando toe te voegen:
Diff:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 auto lo iface lo inet loopback iface eno1 inet manual auto vmbr0 iface vmbr0 inet static address 192.168.4.3/24 gateway 192.168.4.1 bridge-ports eno1 bridge-stp off bridge-fd 0 + post-up /sbin/ethtool -K eno1 tso off gso off gro off source /etc/network/interfaces.d/*
Daarna netwerkkaart herstarten (let op: je systeem verliest kort even de netwerkverbinding):
ifdown vmbr0 && ifup vmbr0
En checken met ethtool of deze 'off' aangeeft voor tso / gso / gro:
ethtool -k eno1 | grep -E 'tso|gso|gro'
Vanavond maar even kijken of het goed gaat als de backup heeft gedraaid (de bug wordt getriggerd als de netwerkkaart flink belast wordt).
Moet die + erbij voor die regel van postup? Lijkt mij niet?
Afijn, als ik volgend commando intype,
ethtool -k eno1 | grep -E 'tso|gso|gro'
Als ik dit intype ; ifdown vmbr0 && ifup vmbr0[/cmd]
valt netwerkverbinidng weg, maar komt niet terug
Uioteindelijk reboot ik maar
krijg ik dit
netlink error: no device matches name (offset 24)
netlink error: No such device
Even een vraagje voor degene die een proxmox cluster hebben of daar ervaring mee hebben.
Hoe hebben jullie je cluster/publieke netwerk ingericht?
Ik heb em zo ingericht dat ceph backups en datastore shares ook over het clusternetwerk gaan.
Nu merk ik dat dat ceph heel soms een waarschuwing geeft als er backups gedraaid worden. De reden dat ik backups via het clusternetwerk laat lopen is dat m'n publieke netwerk 1gbe is en m'n clusternetwerk 2.5gbe is. Omdat m'n router ook in een vm draait voorkom ik dus op deze manier dat m'n internet hinder ondervindt van m'n backups. Elke server heeft nog wel een 2.5gbe over maar moet dan wel extra/üandere switch kopen maar vraag me af of er ook andere manieren zijn om te voorkomen dat ik waarschuwingen krijg in ceph
Hoe hebben jullie je cluster/publieke netwerk ingericht?
Ik heb em zo ingericht dat ceph backups en datastore shares ook over het clusternetwerk gaan.
Nu merk ik dat dat ceph heel soms een waarschuwing geeft als er backups gedraaid worden. De reden dat ik backups via het clusternetwerk laat lopen is dat m'n publieke netwerk 1gbe is en m'n clusternetwerk 2.5gbe is. Omdat m'n router ook in een vm draait voorkom ik dus op deze manier dat m'n internet hinder ondervindt van m'n backups. Elke server heeft nog wel een 2.5gbe over maar moet dan wel extra/üandere switch kopen maar vraag me af of er ook andere manieren zijn om te voorkomen dat ik waarschuwingen krijg in ceph
@jwvdst Ik heb 3 servers draaien in een cluster met 4x1Gbit en 4x25Gbit interfaces:
Van elke server:
- poort 1+2 active/passive VM netwerk over 2 switches
- poort 3 cluster netwerk switch1
- poort 4 fallback cluster netwerk switch2
25Gb poorten meshed met DAC kabels, elke server heeft nog 2x25Gbpoorten vrij voor evt uitbreiding. 25Gb is voor Ceph.
Migration en backups lopen over het cluster fallback netwerk. Over het VM netwerk trek ik de interface dicht en zijn de ping tijden 60ms wat onacceptabel is. Backups lopen door switch1 en switch2, dus mocht switch1 uitvallen trekt de backup het cluster fallback netwerk niet dicht.
Van elke server:
- poort 1+2 active/passive VM netwerk over 2 switches
- poort 3 cluster netwerk switch1
- poort 4 fallback cluster netwerk switch2
25Gb poorten meshed met DAC kabels, elke server heeft nog 2x25Gbpoorten vrij voor evt uitbreiding. 25Gb is voor Ceph.
Migration en backups lopen over het cluster fallback netwerk. Over het VM netwerk trek ik de interface dicht en zijn de ping tijden 60ms wat onacceptabel is. Backups lopen door switch1 en switch2, dus mocht switch1 uitvallen trekt de backup het cluster fallback netwerk niet dicht.
Ik had dat met normale backups vanaf Proxmox naar de NAS ook. Heb toen met bandwith limieten gespeeld in Proxmox om e.a wat minder agressief te maken op het netwerk.jwvdst schreef op zondag 3 augustus 2025 @ 11:11:
Even een vraagje voor degene die een proxmox cluster hebben of daar ervaring mee hebben.
Hoe hebben jullie je cluster/publieke netwerk ingericht?
Ik heb em zo ingericht dat ceph backups en datastore shares ook over het clusternetwerk gaan.
Nu merk ik dat dat ceph heel soms een waarschuwing geeft als er backups gedraaid worden. De reden dat ik backups via het clusternetwerk laat lopen is dat m'n publieke netwerk 1gbe is en m'n clusternetwerk 2.5gbe is. Omdat m'n router ook in een vm draait voorkom ik dus op deze manier dat m'n internet hinder ondervindt van m'n backups. Elke server heeft nog wel een 2.5gbe over maar moet dan wel extra/üandere switch kopen maar vraag me af of er ook andere manieren zijn om te voorkomen dat ik waarschuwingen krijg in ceph
Backup naar Proxmox backup server (eventueel ook in LXC). Backups zijn na de eerste alleen nog maar incrementeel dus veel minder network traffic en worden daarnaast ook nog eens gededupliceerd opgeslagen. Ik maak elk uur een backup van alle VM's en LXC's in mijn cluster naar PBS in een LXC over gigabit ethernet waar ook de rest over loopt. Daar merkt je niets of nauwelijks iets van. De enige LXC die ik backup buiten PBS om is die van PBS zelf.
[ Voor 19% gewijzigd door d3vlin op 03-08-2025 12:59 ]
Leaping Lab Rats!
Van de Proxmox Backup LXC maak ik wel eens, naast de reguliere backup, een clone naar andere host.
Alles went behalve een Twent.
⏩ PVOutput☀️
"Het zijn maar incrementals"
Total running time: 2h 41m 41s
Total size: 8.859 TiB
Dat is van pve1, 1 backup per dag. PBS server staat nu nog in een ander DC maar verhuist komende week naar hetzelfde rack. Helaas gaat dan VEEAM weer in gebruik genomen worden, enige wat PBS dan nog gaat backuppen is de VM van VEEAM.
Total running time: 2h 41m 41s
Total size: 8.859 TiB
Dat is van pve1, 1 backup per dag. PBS server staat nu nog in een ander DC maar verhuist komende week naar hetzelfde rack. Helaas gaat dan VEEAM weer in gebruik genomen worden, enige wat PBS dan nog gaat backuppen is de VM van VEEAM.
wat is dan het voordeel van VEEAM ten opzichte van PBS?_JGC_ schreef op zondag 3 augustus 2025 @ 13:08:
"Het zijn maar incrementals"
Total running time: 2h 41m 41s
Total size: 8.859 TiB
Dat is van pve1, 1 backup per dag. PBS server staat nu nog in een ander DC maar verhuist komende week naar hetzelfde rack. Helaas gaat dan VEEAM weer in gebruik genomen worden, enige wat PBS dan nog gaat backuppen is de VM van VEEAM.
Ik heb ergens gelezen dat het moest van management bij @_JGC_.jwvdst schreef op zondag 3 augustus 2025 @ 17:44:
[...]
wat is dan het voordeel van VEEAM ten opzichte van PBS?
Alles went behalve een Twent.
⏩ PVOutput☀️
Het enige voordeel wat ik zie is dat je kunt restoren naar een ander platform. Daar maak ik nu ook dankbaar gebruik van om HyperV naar Proxmox te migreren.jwvdst schreef op zondag 3 augustus 2025 @ 17:44:
[...]
wat is dan het voordeel van VEEAM ten opzichte van PBS?
De klant van mij heeft VEEAM benoemd in een aantal contracten met eindklanten, en dat zijn geen klanten waar je halverwege even een contract mee gaat openbreken. Ik zeg dus ook "helaas", want technisch zie ik alleen maar nadelen. Het is niet geïntegreerd en het kost me 3x100GB schijfruimte, een paar gigabyte geheugen, wat extra cores en uiteraard ook 4 extra IP adressen.
Veeam heeft vele mooie functies, maar nog niet allemaal beschikbaar op PVE:
- Application aware backups (Microsoft Active Directory, SQL Server, SharePoint, Exchange, Oracle, PostgreSQL)
- Item restore (files, AD objects, DB objects, ...)
- Malware scan op back-ups
- Sure back-up (opstarten back-up in isolated als auto-test)
- Replication
- Back-up copy
- Immutability
Helaas veel van deze functies nog enkel voor VMware.
- Application aware backups (Microsoft Active Directory, SQL Server, SharePoint, Exchange, Oracle, PostgreSQL)
- Item restore (files, AD objects, DB objects, ...)
- Malware scan op back-ups
- Sure back-up (opstarten back-up in isolated als auto-test)
- Replication
- Back-up copy
- Immutability
Helaas veel van deze functies nog enkel voor VMware.
@GoBieN-Be Veel van die features zitten alleen in de Enterprise versie, en mijn klant huurt de standaard versie zonder application aware backups. De backups die we jarenlang op HyperV gehad zijn is gewoon van het type "stekker eruitgetrokken". Het doet niet eens een VSS backup.
Malware scan is nieuw in de laatste release, die had ik nog niet eerder gezien.
Verder is de immutability niks anders dan een chattr +i op de backup bestanden, dat kan je in Proxmox ook doen als je wilt. Als iemand je backup repo hackt en root krijgt kan die ook gewoon chattr -i doen op je bestanden en gooi je het hele zooitje zo weg.
Wat PBS geeft wat VEEAM niet heeft:
- volledig geintegreerd in Proxmox, tot aan bladeren van bestanden toe
- geen gezeik als een VM verhuist naar een andere fysieke server
- Geen gedoe met een proxy VM, gewoon ingebouwd in proxmox zelf
- VM opstarten vanuit de backup terwijl de restore nog loopt
Malware scan is nieuw in de laatste release, die had ik nog niet eerder gezien.
Verder is de immutability niks anders dan een chattr +i op de backup bestanden, dat kan je in Proxmox ook doen als je wilt. Als iemand je backup repo hackt en root krijgt kan die ook gewoon chattr -i doen op je bestanden en gooi je het hele zooitje zo weg.
Wat PBS geeft wat VEEAM niet heeft:
- volledig geintegreerd in Proxmox, tot aan bladeren van bestanden toe
- geen gezeik als een VM verhuist naar een andere fysieke server
- Geen gedoe met een proxy VM, gewoon ingebouwd in proxmox zelf
- VM opstarten vanuit de backup terwijl de restore nog loopt
Als je het vervolgens in VMWare of Nutanix wilt draaien ja. Instant restore op Proxmox doen ze niet.
Application aware back-up zit trouwens in de basis versie van Veeam al heel lang.
[ Voor 6% gewijzigd door GoBieN-Be op 04-08-2025 20:13 ]
Ik blijf maar vechten met Proxmox.
Ik heb een VM met daarin docker en de nodige containers. Daar wilde ik mee experimenteren. Dat werkt prima.
Ik wilde er wat mee experimenteren.
Mijn eerste gedachte was: Ik maak een clone en daar ga ik mee aan de gang.
Helaas, dat werkt niet om een reden die ik niet begrijp mag ik geen full clone maken. Dat heeft iets te maken met een drive die gemount is in het origineel.
Toen dacht ik: Misschien is een linked clone wat voor me. Helaas dat mocht ook niet om dezelfde reden.
Maar na deze poging wilde mijn VM niets meer doen. Ik kon hem niet meer starten. De knop waar dat mee moest is weg. Rebooten helpt ook niet.
Toen dacht ik: Nu ja Proxmox maakt keurig backups dus ik zet die van een paar uur geleden terug. Dat gaat goed, de VM is er weer en hij werkt.
Maar Docker wil niet meer starten
Ik zal ongetwijfeld van alles fout gedaan hebben. Maar ik wil wel graag dat alles werkt en dat ook de backups zinvol zijn. Anders heb ik niets aan het hele systeem
Ik heb een VM met daarin docker en de nodige containers. Daar wilde ik mee experimenteren. Dat werkt prima.
Ik wilde er wat mee experimenteren.
Mijn eerste gedachte was: Ik maak een clone en daar ga ik mee aan de gang.
Helaas, dat werkt niet om een reden die ik niet begrijp mag ik geen full clone maken. Dat heeft iets te maken met een drive die gemount is in het origineel.
Toen dacht ik: Misschien is een linked clone wat voor me. Helaas dat mocht ook niet om dezelfde reden.
Maar na deze poging wilde mijn VM niets meer doen. Ik kon hem niet meer starten. De knop waar dat mee moest is weg. Rebooten helpt ook niet.
Toen dacht ik: Nu ja Proxmox maakt keurig backups dus ik zet die van een paar uur geleden terug. Dat gaat goed, de VM is er weer en hij werkt.
Maar Docker wil niet meer starten
Ik zal ongetwijfeld van alles fout gedaan hebben. Maar ik wil wel graag dat alles werkt en dat ook de backups zinvol zijn. Anders heb ik niets aan het hele systeem
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Met VSS ja, dat kan Proxmox zelf ook gewoon met de guest agent. VEEAM installeert daarvoor ook een guest agent in de VM lijkt het, je moet er Administrator credentials voor opgeven.GoBieN-Be schreef op maandag 4 augustus 2025 @ 19:20:
Application aware back-up zit trouwens in de basis versie van Veeam al heel lang.
Bij de processing options kan je kiezen voor SQL/Oracle/Postgres, die hebben alle 3 Enterprise nodig.
Overigens gisteren de VM van VEEAM verhuisd door een backup van zichzelf te maken. Gaf wat verrassende effecten na de restore op het nieuwe platform, maar had het zo weer draaien. Moest alleen daarna de VEEAM transport van de laatste HyperV server weggooien en herinstalleren, nieuwe backups van dat ding werden pertinent geweigerd omdat de proxy een "upgrade" nodig had.
Vanavond de laatste 5 VMs, dan mag ik deze week een auto vol staal ophalen. Vervolgens backup server en de fallback switch ophangen in het oude rack.
Binnenkort 384GB extra geheugen bestellen, CEPH vreet toch meer geheugen dan verwacht, ik kan nu alsnog met moeite een failover doen. Ik wil eigenlijk niet afhankelijk zijn van KSM en Balloon daarvoor.
Wat was de precieze melding die je kreeg? Ik maak regelmatig backups en clones en tot nu toe werken ze allemaal nog hier.Ortep schreef op dinsdag 5 augustus 2025 @ 12:10:
Ik blijf maar vechten met Proxmox.
Ik heb een VM met daarin docker en de nodige containers. Daar wilde ik mee experimenteren. Dat werkt prima.
Ik wilde er wat mee experimenteren.
Mijn eerste gedachte was: Ik maak een clone en daar ga ik mee aan de gang.
Helaas, dat werkt niet om een reden die ik niet begrijp mag ik geen full clone maken. Dat heeft iets te maken met een drive die gemount is in het origineel.
Toen dacht ik: Misschien is een linked clone wat voor me. Helaas dat mocht ook niet om dezelfde reden.
Maar na deze poging wilde mijn VM niets meer doen. Ik kon hem niet meer starten. De knop waar dat mee moest is weg. Rebooten helpt ook niet.
Toen dacht ik: Nu ja Proxmox maakt keurig backups dus ik zet die van een paar uur geleden terug. Dat gaat goed, de VM is er weer en hij werkt.
Maar Docker wil niet meer starten
Ik zal ongetwijfeld van alles fout gedaan hebben. Maar ik wil wel graag dat alles werkt en dat ook de backups zinvol zijn. Anders heb ik niets aan het hele systeem
@jimmy87
De exacte foutmelding weet ik niet meer. Maar het was iets als: De externe drive die gemount is op.... is niet bereikbaar.
Ik kan het niet meer herhalen omdat de hele VM nu niet meer goed functioneert.
Toen ik gewoon een clone probeerde te maken was er behalve de foutmelding weinig aan de hand. Alles werkte nog gewoon. Het ging echt mis toen ik probeerde een template te maken. Ik kreeg de dezelfde foutmelding maar daarna kon ik helemaal niets meer met de VM. Niet stoppen, niet starten, echt niets meer.
Toen heb ik mijn hele systeem gereboot en daarna kon ik er nog steeds niets mee.
Ik dacht dan zet ik maar een backup terug. Dat gaat braaf aan de gang, waarschuwt dat ik de huidige zal overschrijven. Prima, doe maar. En daarna lijkt alles wel op te starten.
Maar dat doet het dus niet. Er draait wel een VM, maar die heeft niets te maken met wat er gisteren draaide. Heel docker wil niet meer starten.
Ik krijg soms ook in de console het volgende te zien:
De exacte foutmelding weet ik niet meer. Maar het was iets als: De externe drive die gemount is op.... is niet bereikbaar.
Ik kan het niet meer herhalen omdat de hele VM nu niet meer goed functioneert.
Toen ik gewoon een clone probeerde te maken was er behalve de foutmelding weinig aan de hand. Alles werkte nog gewoon. Het ging echt mis toen ik probeerde een template te maken. Ik kreeg de dezelfde foutmelding maar daarna kon ik helemaal niets meer met de VM. Niet stoppen, niet starten, echt niets meer.
Toen heb ik mijn hele systeem gereboot en daarna kon ik er nog steeds niets mee.
Ik dacht dan zet ik maar een backup terug. Dat gaat braaf aan de gang, waarschuwt dat ik de huidige zal overschrijven. Prima, doe maar. En daarna lijkt alles wel op te starten.
Maar dat doet het dus niet. Er draait wel een VM, maar die heeft niets te maken met wat er gisteren draaide. Heel docker wil niet meer starten.
Ik krijg soms ook in de console het volgende te zien:
You are in emergency mode. After logging in, type "journalctl -xb" to view
system logs, "systemctl reboot" to reboot, "systemctl default" or "exit"
to boot into default mode.
Press Enter for maintenance
(or press Control-D to continue):
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Klinkt alsof er iets met je filesystem gebeurd is.
Heerlijk zo'n backup
Ik zal dus wel weer helemaal overnieuw moeten beginnen. Dat overkomt me met Linux bijna nooit. Nu ja, eigenlijk altijd wel.
[Edit]
Ook de andere backups doen het niet. Ik ben via de console gaan kijken en het blijkt dat er 2 van de drives niet worden gemount. Het zijn externe drives op mijn Synology. Ze worden zelf niet geback-upt omdat er heel veel data op staat.
Maar omdat docker er wel gebruik van maakt stort docker in.
Wat is nu het nut van een backup als je hem niet kan gebruiken omdat essentiële verwijzingen niet worden meegenomen?
Zo kan ik het net zo goed niet doen en bidden dat het nooit fout gaat
Ik zal dus wel weer helemaal overnieuw moeten beginnen. Dat overkomt me met Linux bijna nooit. Nu ja, eigenlijk altijd wel.
[Edit]
Ook de andere backups doen het niet. Ik ben via de console gaan kijken en het blijkt dat er 2 van de drives niet worden gemount. Het zijn externe drives op mijn Synology. Ze worden zelf niet geback-upt omdat er heel veel data op staat.
Maar omdat docker er wel gebruik van maakt stort docker in.
Wat is nu het nut van een backup als je hem niet kan gebruiken omdat essentiële verwijzingen niet worden meegenomen?
Zo kan ik het net zo goed niet doen en bidden dat het nooit fout gaat
[ Voor 138% gewijzigd door Ortep op 05-08-2025 14:22 ]
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
En Proxmox 9 is er: https://forum.proxmox.com...ment-9-0-released.169258/
- Based on Debian 13 "Trixie" but uses Linux kernel 6.14.8-2 as new stable default
- VM snapshots on thick-provisioned LVM storages
- HA rules for node and resource affinity
- Fabrics for the Software-Defined Networking stack
- Modernized mobile web interface
- Comprehensive upgrade guide from 8 to 9
- ZFS 2.3.3 with support for adding new devices to RAIDZ pools without downtime
- QEMU 10.0.2, LXC 6.0.4, Ceph Squid 19.2.3
- and much more...
Doen de backups het niet? Of doen de backups het wel maar starten de docker packages niet? Of starten de docker containers niet omdat de externe drives op je Synology niet gemount worden?Ortep schreef op dinsdag 5 augustus 2025 @ 13:26:
Heerlijk zo'n backup
Ik zal dus wel weer helemaal overnieuw moeten beginnen. Dat overkomt me met Linux bijna nooit. Nu ja, eigenlijk altijd wel.
[Edit]
Ook de andere backups doen het niet. Ik ben via de console gaan kijken en het blijkt dat er 2 van de drives niet worden gemount. Het zijn externe drives op mijn Synology. Ze worden zelf niet geback-upt omdat er heel veel data op staat.
Maar omdat docker er wel gebruik van maakt stort docker in.
Wat is nu het nut van een backup als je hem niet kan gebruiken omdat essentiële verwijzingen niet worden meegenomen?
Zo kan ik het net zo goed niet doen en bidden dat het nooit fout gaat
Zoals je het omschrijft klinkt het als het laatste. Afhankelijk hoe je je drives gemount hebt, moet je deze na een restart van je VM weer opnieuw mounten (wss omdat na het restoren van je backup je VM opnieuw gestart is).
@daily.data.inj
De backups kan ik terug zetten en de VM start. Ik kan ook een terminal openen. Maar docker wil niet meer starten. Dat is op raar, want de docker deamon heeft die externe drives helemaal niet nodig. Ik krijg hem met de hand ook niet aan de gang.
De VM restarten was hiervoor nooit een probleem. Docker kwam keurig op en de containers ook. Dat is een van de eerste dingen die ik heb getest. Het mounten bij een restart was dus in orde.
Blijkbaar is een backup niet echt een backup
Maar dit was niet het enige probleem. Proberen om een clone te maken of een template werkte ook niet. Bij het maken van een template stopte alles in de VM. Hij was niet benaderbaar meer. Ik kon zien dat hij actief was in het hoofdscherm, maar een terminal werkte niet en ook alle buttons met 'stop' 'shutdown' waren verdwenen.
Er is blijkbaar heel veel vrij gammel.
Het enige wat ik ooit zonder problemen op proxmox aan de praat kreeg was de Home Assistant VM. Dat werkte in 5 minuten en ook dingen als USB sticks waren bruikbaar.
Ik heb voor de 30ste keer alles maar weer gewist en ben gelijk naar versie 9 gegaan. Morgen maar eens kijken of ik alle post install dingen kan uitvoeren.
De backups kan ik terug zetten en de VM start. Ik kan ook een terminal openen. Maar docker wil niet meer starten. Dat is op raar, want de docker deamon heeft die externe drives helemaal niet nodig. Ik krijg hem met de hand ook niet aan de gang.
De VM restarten was hiervoor nooit een probleem. Docker kwam keurig op en de containers ook. Dat is een van de eerste dingen die ik heb getest. Het mounten bij een restart was dus in orde.
Blijkbaar is een backup niet echt een backup
Maar dit was niet het enige probleem. Proberen om een clone te maken of een template werkte ook niet. Bij het maken van een template stopte alles in de VM. Hij was niet benaderbaar meer. Ik kon zien dat hij actief was in het hoofdscherm, maar een terminal werkte niet en ook alle buttons met 'stop' 'shutdown' waren verdwenen.
Er is blijkbaar heel veel vrij gammel.
Het enige wat ik ooit zonder problemen op proxmox aan de praat kreeg was de Home Assistant VM. Dat werkte in 5 minuten en ook dingen als USB sticks waren bruikbaar.
Ik heb voor de 30ste keer alles maar weer gewist en ben gelijk naar versie 9 gegaan. Morgen maar eens kijken of ik alle post install dingen kan uitvoeren.
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Dit klinkt toch een beetje alsof er iets niet in de haak in je 'post install'-dingen want standaard komt een VM op storage terecht die ondersteuning heeft voor het door laten draaien van de VM terwijl er zaken als clones/back-ups worden gemaakt.
Ik heb al veel geklooid met Proxmox en het ook meerdere keren goed gesloopt, maar ik heb nog nooit het gevoel gehad dat Proxmox iets fout deed. Het was altijd degene achter het toetsenbord.
Ik heb al veel geklooid met Proxmox en het ook meerdere keren goed gesloopt, maar ik heb nog nooit het gevoel gehad dat Proxmox iets fout deed. Het was altijd degene achter het toetsenbord.
Ik heb het post install script gebruikt dat ongeveer door iedereen wordt aangeraden. En ook door veel mensen wordt gebruikt. https://community-scripts...ripts?id=post-pve-installlolgast schreef op dinsdag 5 augustus 2025 @ 19:20:
Ik heb al veel geklooid met Proxmox en het ook meerdere keren goed gesloopt, maar ik heb nog nooit het gevoel gehad dat Proxmox iets fout deed. Het was altijd degene achter het toetsenbord.
Ik zeg ook nergens dat Proxmox dingen fout doet. Ik kan er ook dingen wel in. Zoals Home Assistant.
Het probleem zit tussen Linux en mij. Het blijft er voor mij uit zien als een bord kwade spaghetti waar alles via 80 omwegen aan elkaar is geknoopt.
Als voorbeeld: Eind jaren 90 ging ik voor mijn werk naar een Linux training. We kregen vers geïnstalleerde machines om op te oefenen.
Oke mensen, we beginnen met het starten van VI. Prima, bij 9 van de 10 deelnemers werkte dat prima. Ik kreeg een kernel panic gevolgd door een coredump

Het is daarna nooit veel beter geworden
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Maar waarom probeer je een template te maken? Dat wat je beschrijft is namelijk precies de bedoeling van een template. Je maakt een VM en zet die om in een template, een soort van blauwdruk om snel weer een nieuwe VM uit te kunnen rollen met dezelfde software, config en dergelijke zoals de VM waar je een template van gemaakt hebt.Ortep schreef op dinsdag 5 augustus 2025 @ 19:17:
Maar dit was niet het enige probleem. Proberen om een clone te maken of een template werkte ook niet. Bij het maken van een template stopte alles in de VM. Hij was niet benaderbaar meer. Ik kon zien dat hij actief was in het hoofdscherm, maar een terminal werkte niet en ook alle buttons met 'stop' 'shutdown' waren verdwenen.
Een template kun je ook niet starten, dat is niet de bedoeling. Het is de bedoeling dat je een clone maakt van een template en daarmee weer een werkende VM hebt zonder van scratch te beginnen met een ISO en dergelijke.
Voor wat betreft je docker issue, heeft zo goed als zeker weinig tot niets te maken met Proxmox dus je zou ook eens kunnen buurten in het Linux topic. Hopelijk heb je niet alles gewist en kun je de VM met Docker nog restoren? Kijken naar de logging waarom docker niet wil starten kan een hoop inzichten geven en wie weet is het heel simpel op te lossen.
Backups in Proxmox werken prima, been there done that en dat heeft me al meerdere keren gered na de zoveelste error between keyboard and chair.
Goed bedoelde tip, tel eerst tot 10, tot 100 of nog meer mocht dat nodig zijn en ga rustig kijken in logfiles voor je iets drastisch doet zoals alles wissen. Dat is een investering in tijd maar leer je over het algemeen het meeste van.
Logging in Unix achtigen is over het algemeen zeer goed en geeft vrij snel een richting waarin je het probleem moet zoeken of letterlijk de oplossing.
@Ortep - ik begrijp dat het allemaal niet gladjes loopt.
Maar als je iets post is het wel goed om wat meer context erbij te geven:
(1) - Wat probeer je voor elkaar te krijgen?
(2) - Welk stappen heb je afgelopen om daar te komen?
(3) - Waar loop je nu tegen aan?
(4) - Heb je pogingen gedaan om het op te lossen (en zo ja welke)?
Ik kan er op dit moment weinig of geen chocola van maken.
Laat staan mogelijke oplossingen aandragen.
Maar als je iets post is het wel goed om wat meer context erbij te geven:
(1) - Wat probeer je voor elkaar te krijgen?
(2) - Welk stappen heb je afgelopen om daar te komen?
(3) - Waar loop je nu tegen aan?
(4) - Heb je pogingen gedaan om het op te lossen (en zo ja welke)?
Ik kan er op dit moment weinig of geen chocola van maken.
Laat staan mogelijke oplossingen aandragen.
makes it run like clockwork
Ik wilde een clone maken om daar wat mee te kunnen experimenteren. Dat werkte niet, maar alles bleef werken.ninjazx9r98 schreef op dinsdag 5 augustus 2025 @ 22:03:
[...]
Maar waarom probeer je een template te maken? Dat wat je beschrijft is namelijk precies de bedoeling van een template. Je maakt een VM en zet die om in een template, een soort van blauwdruk om snel weer een nieuwe VM uit te kunnen rollen met dezelfde software, config en dergelijke zoals de VM waar je een template van gemaakt hebt.
Een template kun je ook niet starten, dat is niet de bedoeling. Het is de bedoeling dat je een clone maakt van een template en daarmee weer een werkende VM hebt zonder van scratch te beginnen met een ISO en dergelijke.
Toen bedacht ik dan maar een template. Maar toen ik dat probeerde stopte echt alles. De hele originele VM deed niets meer en was onbereikbaar. Ik kwam niet eens zo ver dat er een template was.
Docker werkte prima, tot ik een backup terug probeerde te zettenVoor wat betreft je docker issue, heeft zo goed als zeker weinig tot niets te maken met Proxmox dus je zou ook eens kunnen buurten in het Linux topic. Hopelijk heb je niet alles gewist en kun je de VM met Docker nog restoren?
Bij mij niet dus. Alles werkte prima, na een reboot ook, ook na een bewuste stroomuitval. Tot het moment dat ik een backup probeerde terug te zeten. Daarna werkte de VM niet meer goed.Backups in Proxmox werken prima, been there done that en dat heeft me al meerdere keren gered na de zoveelste error between keyboard and chair.
Het zal ongetwijfeld een Linux probleem zijn in de VM. Ik was onder andere twee gemounte drives kwijt. En die drives kwamen dus altijd keurig op na een reboot of stroomstoring.
Bovendien was de docker deamon niet meer te starten. Er was dus echt iets serieus mis in de VM.
Maar het was wel het resultaat van een backup die met proxmox werd gemaakt. Blijkbaar was het toch niet helemaal een goede backup.
Ik gebruik met tussenpozen al een jaar of 30 linux. Daarvoor met Unix Het blijft een gevecht.Goed bedoelde tip, tel eerst tot 10, tot 100 of nog meer mocht dat nodig zijn en ga rustig kijken in logfiles voor je iets drastisch doet zoals alles wissen. Dat is een investering in tijd maar leer je over het algemeen het meeste van.
Logging in Unix achtigen is over het algemeen zeer goed en geeft vrij snel een richting waarin je het probleem moet zoeken of letterlijk de oplossing.
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Ik dacht dat ik het al duidelijk had uitgelegd. Maar ik probeer het nu anders te verwoordenAirw0lf schreef op dinsdag 5 augustus 2025 @ 22:24:
@Ortep - ik begrijp dat het allemaal niet gladjes loopt.
Maar als je iets post is het wel goed om wat meer context erbij te geven:
Ik had een draaiende VM met docker er in en een stuk of 6 containers. Die deed het prima, ook na reboots(1) - Wat probeer je voor elkaar te krijgen?
Ik wilde wat dingen testen en dacht dat het handig was om daar een clone voor te gebruiken zodat ik niets kon verzieken
Ik probeerde via de GUI een clone te maken nadat ik de VM gestopt had. Dat werkte niet.(2) - Welk stappen heb je afgelopen om daar te komen?
Toen probeerde ik het via een template te doen. Dat werkte ook niet
Dat zodra ik de template probeerde te maken de originele VM in elkaar stortte en volkomen onbereikbaar werd. Niet meer te stoppen, niet te rebooten, niets meer. Zelfs alle knoppen waar normaal staat shutdown, stop, en reboot waren verdwenen.(3) - Waar loop je nu tegen aan?
Ja ik heb pogingen gedaan om het op te lossen. Proberen pve te rebooten. De stroom van het apparaat af te halen. Niets hielp. de VM bleef onbereikbaar.(4) - Heb je pogingen gedaan om het op te lossen (en zo ja welke)?
Toen geprobeerd een backup terug te zetten. Dat lijkt prima te gaan, maar het resultaat is een VM die wel boot maar niet werkt. Drives zijn onvindbaar, docker kan niet meer starten enz.
Die backup is dus niet in orde.
Omdat ik er helemaal genoeg van had heb ik maar alles gewist en ben gelijk naar versie 9 gegaan.
Daar ga ik me van de week wel weer eens in verdiepen.
Zoals ik al een paar keer heb gezegd: Een andere VM, die met Home Assistant er in werkt prima.
Er is dus in de basis niets fout met het systeem
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Had afgelopen weekend al wat preview zaken voorbij zien komen en gisteren ook youtube melding vanuit proxmox zelf.dcm360 schreef op dinsdag 5 augustus 2025 @ 15:22:
En Proxmox 9 is er: https://forum.proxmox.com...ment-9-0-released.169258/
[...]
Ben zelf nog wel even voorzichtig en ga niet te vroeg migreren over een maandje lijkt mij wel een mooie tijd om de wellicht 1e bugjes te laten plat slaan
Ik gebruik geen ceph dus al de gemaakte verbeteringen daarin zijn niet voor mij van toepassing. De kernel update is voor mij wel "belangrijker" omdat daarin ook NPU support zit voor AMD CPU's en laat mijn CPU nou net ook een NPU hebben
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
@Ortep - misschien wat flauw en muggezifterig... maar toch...
Het gaat mij om de stappen daarvoor - hoe ziet je systeem eruit, hoe is Proxmox geinstalleerd, hoe is de VM aangemaakt en hoe zien de Docker scripts eruit?
Belangrijk daarbij is de manier waarop disken/volumes ingezet zijn en met welke rechten.
Kortom.. even een stapje terug naar de basis en het prille begin. Want 10 keer hetzelfde doen (d.w.z. alles poetsen en dezelfde stappen opnieuw doen) resulteert doorgaans in hetzelfde resultaat... IT is wat dat betreft erg voorspelbaar...
Voor zover nog relevant: een running VM converteren naar een template is geen handige (als het al lukt!).
Eerst de VM stoppen, dan converteren naar een template, deze template dan clonen naar een "nieuwe" VM en dan die "nieuwe" VM weer opstarten.
Het gaat mij om de stappen daarvoor - hoe ziet je systeem eruit, hoe is Proxmox geinstalleerd, hoe is de VM aangemaakt en hoe zien de Docker scripts eruit?
Belangrijk daarbij is de manier waarop disken/volumes ingezet zijn en met welke rechten.
Kortom.. even een stapje terug naar de basis en het prille begin. Want 10 keer hetzelfde doen (d.w.z. alles poetsen en dezelfde stappen opnieuw doen) resulteert doorgaans in hetzelfde resultaat... IT is wat dat betreft erg voorspelbaar...
Voor zover nog relevant: een running VM converteren naar een template is geen handige (als het al lukt!).
Eerst de VM stoppen, dan converteren naar een template, deze template dan clonen naar een "nieuwe" VM en dan die "nieuwe" VM weer opstarten.
[ Voor 36% gewijzigd door Airw0lf op 06-08-2025 08:19 ]
makes it run like clockwork
Zoals gezegd, dat is logisch dat alles stopte en te verwachten gedrag. De VM gaat geconverteerd worden naar een template en is daarna geen VM meer. Als je het geduld niet hebt om dat proces af te wachten en dit halverwege onderbreekt dan heb je geen VM en geen template. Dat is geen fout van Proxmox, dat is een fout/vergissing van de gebruiker.Ortep schreef op dinsdag 5 augustus 2025 @ 23:24:
[...]
Ik wilde een clone maken om daar wat mee te kunnen experimenteren. Dat werkte niet, maar alles bleef werken.
Toen bedacht ik dan maar een template. Maar toen ik dat probeerde stopte echt alles. De hele originele VM deed niets meer en was onbereikbaar. Ik kwam niet eens zo ver dat er een template was.
Dat de template nog niet klaar was zegt natuurlijk ook niks, je hebt een proces in gang gezet en er is "onder water" al van alles gebeurt met je VM om uiteindelijk een tempate te worden. Zo'n proces kun je niet zomaar even stoppen en dan verwachten dat er een soort van magische rollback is waarna alles weer bij het oude is.
Vergelijkingen zijn altijd lastig maar als je een boom gaat omzagen en halverwege stopt met zagen moet je niet vreemd opkijken dat er een zaagsnede in je boom zit ondanks dat deze nog niet omgevallen is.
Hoezo was er iets serieus mis in de VM? Wat stond er dan in de logfiles?[...]
Docker werkte prima, tot ik een backup terug probeerde te zetten
[...]
Bij mij niet dus. Alles werkte prima, na een reboot ook, ook na een bewuste stroomuitval. Tot het moment dat ik een backup probeerde terug te zeten. Daarna werkte de VM niet meer goed.
Het zal ongetwijfeld een Linux probleem zijn in de VM. Ik was onder andere twee gemounte drives kwijt. En die drives kwamen dus altijd keurig op na een reboot of stroomstoring.
Bovendien was de docker deamon niet meer te starten. Er was dus echt iets serieus mis in de VM.
Maar het was wel het resultaat van een backup die met proxmox werd gemaakt. Blijkbaar was het toch niet helemaal een goede backup.
Zonder informatie uit logging en/of zonder een foutmelding van docker die niet start kun je geen grote conclusies trekken dat er serieus iets mis was in de VM of dat het geen goede backup was.
Het kan echt iets heel onbenulligs zijn en om een recent voorbeeld te geven:
Gisteravond heb ik één van mijn Proxmox NUCs geupgrade van versie 8 naar versie 9.
Na de reboot kon ik met geen mogelijkheid meer een connectie maken via SSH maar de webinterface was er wel weer. Terminal geopend in de webinterface en inderdaad SSH daemon was niet gestart en weigerde ook te starten. Vervolgens gekeken naar de logging en op regel 125 van de config zou een optie staan die niet (meer) gesupport wordt. De bewuste regel "uitgehekked" en voila SSH daemon kon weer gestart worden. Dat was een regel/optie die ik er in het verleden zelf ingezet heb na wat spelen met Lynis en Wazuh om Proxmox te hardenen. Het stond zelfs in de release notes maar die had ik "uiteraard" niet goed/volledig gelezen.
Proxmox 9 schoon installeren en backups terugzetten had ook een werkende optie geweest maar uitzoeken en fixen heeft toch echt mijn voorkeur.
Ik werk ongeveer 25 jaar met Unix/Linux en soms is dat inderdaad een gevecht maar met geduld en lezen/analyseren van logging blijkt de vechtersbaas meestal tussen het toetdsenbord en de stoel te zitten. In tegenstelling tot Windows is Unix/Linux over het algemeen zeer duidelijk in datgene wat er mis gaat mits je de moeite neemt om er tijd in te stoppen door onder andere logging te bekijken.[...]
Ik gebruik met tussenpozen al een jaar of 30 linux. Daarvoor met Unix Het blijft een gevecht.
Direct poetsen en opnieuw beginnen is niet de Unix/Linux manier.
Upgrade naar 9 gaat goed
Deze fix werkt niet https://pve.proxmox.com/w...move_package_'proxmox-ve'
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| After this operation, 595 MB of additional disk space will be used. Do you want to continue? [Y/n] Y W: (pve-apt-hook) !! WARNING !! W: (pve-apt-hook) You are attempting to remove the meta-package 'proxmox-ve'! W: (pve-apt-hook) W: (pve-apt-hook) If you really want to permanently remove 'proxmox-ve' from your system, run the following command W: (pve-apt-hook) touch '/please-remove-proxmox-ve' W: (pve-apt-hook) run apt purge proxmox-ve to remove the meta-package W: (pve-apt-hook) and repeat your apt invocation. W: (pve-apt-hook) W: (pve-apt-hook) If you are unsure why 'proxmox-ve' would be removed, please verify W: (pve-apt-hook) - your APT repository settings W: (pve-apt-hook) - that you are using 'apt full-upgrade' to upgrade your system E: Sub-process /usr/share/proxmox-ve/pve-apt-hook returned an error code (1) E: Failure running script /usr/share/proxmox-ve/pve-apt-hook |
Deze fix werkt niet https://pve.proxmox.com/w...move_package_'proxmox-ve'
Ik wacht nog wel even met upgraden... tot 9.1 uit ismakooy schreef op woensdag 6 augustus 2025 @ 10:05:
Upgrade naar 9 gaat goed![]()
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 After this operation, 595 MB of additional disk space will be used. Do you want to continue? [Y/n] Y W: (pve-apt-hook) !! WARNING !! W: (pve-apt-hook) You are attempting to remove the meta-package 'proxmox-ve'! W: (pve-apt-hook) W: (pve-apt-hook) If you really want to permanently remove 'proxmox-ve' from your system, run the following command W: (pve-apt-hook) touch '/please-remove-proxmox-ve' W: (pve-apt-hook) run apt purge proxmox-ve to remove the meta-package W: (pve-apt-hook) and repeat your apt invocation. W: (pve-apt-hook) W: (pve-apt-hook) If you are unsure why 'proxmox-ve' would be removed, please verify W: (pve-apt-hook) - your APT repository settings W: (pve-apt-hook) - that you are using 'apt full-upgrade' to upgrade your system E: Sub-process /usr/share/proxmox-ve/pve-apt-hook returned an error code (1) E: Failure running script /usr/share/proxmox-ve/pve-apt-hook
Deze fix werkt niet https://pve.proxmox.com/w...move_package_'proxmox-ve'

Ik stap ook niet te snel over. Alle proxmox community scripts werken ook nog niet geloof ik, en daar is mijn hele proxmox op gebouwd. Dat verhaal van npu support klink nog wel zinvol misschien aangezien ik een ryzen 5 7600 heb die volgens mij ook npu heeft. Maar zou dat in de praktijk iets uitmaken voor mijn vm en lxc?The-Source schreef op woensdag 6 augustus 2025 @ 07:20:
[...]
Had afgelopen weekend al wat preview zaken voorbij zien komen en gisteren ook youtube melding vanuit proxmox zelf.
Ben zelf nog wel even voorzichtig en ga niet te vroeg migreren over een maandje lijkt mij wel een mooie tijd om de wellicht 1e bugjes te laten plat slaan
Ik gebruik geen ceph dus al de gemaakte verbeteringen daarin zijn niet voor mij van toepassing. De kernel update is voor mij wel "belangrijker" omdat daarin ook NPU support zit voor AMD CPU's en laat mijn CPU nou net ook een NPU hebbenmaar sinds ik een dedicated AI VM heb met deftige nvidia kaart erin is ook dat minder belangrijk geworden.
NPU is meer voor AI zaken, voor normale compute verwacht ik weinig tot geen verschil.tomdh76 schreef op woensdag 6 augustus 2025 @ 10:42:
[...]
Ik stap ook niet te snel over. Alle proxmox community scripts werken ook nog niet geloof ik, en daar is mijn hele proxmox op gebouwd. Dat verhaal van npu support klink nog wel zinvol misschien aangezien ik een ryzen 5 7600 heb die volgens mij ook npu heeft. Maar zou dat in de praktijk iets uitmaken voor mijn vm en lxc?
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Ik snap dat het frustrerend is. Maar zonder configuratie en foutmelding is het heel moeilijk om hier iets over te zeggen. Wat het denk ik nog vele malen lastiger maakt is dat je het een en ander hebt geprobeerd. Niet enkel een backup/restore bijvoorbeeld.Ortep schreef op dinsdag 5 augustus 2025 @ 13:26:
Heerlijk zo'n backup
Ik zal dus wel weer helemaal overnieuw moeten beginnen. Dat overkomt me met Linux bijna nooit. Nu ja, eigenlijk altijd wel.
[Edit]
Ook de andere backups doen het niet. Ik ben via de console gaan kijken en het blijkt dat er 2 van de drives niet worden gemount. Het zijn externe drives op mijn Synology. Ze worden zelf niet geback-upt omdat er heel veel data op staat.
Maar omdat docker er wel gebruik van maakt stort docker in.
Wat is nu het nut van een backup als je hem niet kan gebruiken omdat essentiële verwijzingen niet worden meegenomen?
Zo kan ik het net zo goed niet doen en bidden dat het nooit fout gaat
Edit: Andere hebben al betere reacties gegeven, die ik nog niet had gezien
[ Voor 4% gewijzigd door orvintax op 06-08-2025 10:57 . Reden: Benoemd in post ]
Die nieuwe kernel kan je met Proxmox 8 ook al draaien, ik heb hier ook alles op 6.14 inmiddels. Beetje zonde van de nieuwe hardware om op een oude kernel te blijven hangen.
Met name bij de EPYC servers die ik net heb ingericht, de performance/Watt verhouding bij de latere versies van de amd_pstate_epp driver ligt gewoon zoveel hoger dan de ACPI driver die gebruikt wordt in oudere kernels.
Ik blijf vooralsnog nog even op Proxmox 8. Op dit moment nog weinig reden om te upgraden:
- kernel 6.14 gebruik ik al
- Ceph squid meteen gekozen bij installatie
- ZFS gebruik ik alleen voor rootfs, niet voor VMs, 2.2 voldoet prima
Verder is mijn Proxmox Backup Server gewoon Debian 12 met OpenZFS 2.3 uit bookworm-backports en daarbovenop Proxmox Backup Server geinstalleerd. Die server was altijd de VEEAM repository.
Ik vraag me ook af of VEEAM wel met Proxmox 9 werkt?
Met name bij de EPYC servers die ik net heb ingericht, de performance/Watt verhouding bij de latere versies van de amd_pstate_epp driver ligt gewoon zoveel hoger dan de ACPI driver die gebruikt wordt in oudere kernels.
Ik blijf vooralsnog nog even op Proxmox 8. Op dit moment nog weinig reden om te upgraden:
- kernel 6.14 gebruik ik al
- Ceph squid meteen gekozen bij installatie
- ZFS gebruik ik alleen voor rootfs, niet voor VMs, 2.2 voldoet prima
Verder is mijn Proxmox Backup Server gewoon Debian 12 met OpenZFS 2.3 uit bookworm-backports en daarbovenop Proxmox Backup Server geinstalleerd. Die server was altijd de VEEAM repository.
Ik vraag me ook af of VEEAM wel met Proxmox 9 werkt?
Ik wacht voorlopig nog even, maar ik ben toch benieuwd waarom ze niet gewoon minimaal een week (drie dagen) hebben gewacht totdat Trixie daadwerkelijk uit is.dcm360 schreef op dinsdag 5 augustus 2025 @ 15:22:
En Proxmox 9 is er: https://forum.proxmox.com...ment-9-0-released.169258/
[...]
Is jouw installer bron de PVE iso of een losse installatie zoals jouw link aangeeft?makooy schreef op woensdag 6 augustus 2025 @ 10:05:
Upgrade naar 9 gaat goed![]()
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 After this operation, 595 MB of additional disk space will be used. Do you want to continue? [Y/n] Y W: (pve-apt-hook) !! WARNING !! W: (pve-apt-hook) You are attempting to remove the meta-package 'proxmox-ve'! W: (pve-apt-hook) W: (pve-apt-hook) If you really want to permanently remove 'proxmox-ve' from your system, run the following command W: (pve-apt-hook) touch '/please-remove-proxmox-ve' W: (pve-apt-hook) run apt purge proxmox-ve to remove the meta-package W: (pve-apt-hook) and repeat your apt invocation. W: (pve-apt-hook) W: (pve-apt-hook) If you are unsure why 'proxmox-ve' would be removed, please verify W: (pve-apt-hook) - your APT repository settings W: (pve-apt-hook) - that you are using 'apt full-upgrade' to upgrade your system E: Sub-process /usr/share/proxmox-ve/pve-apt-hook returned an error code (1) E: Failure running script /usr/share/proxmox-ve/pve-apt-hook
Deze fix werkt niet https://pve.proxmox.com/w...move_package_'proxmox-ve'
Zou die week echt uit maken? De hard freeze van Trixie is er al sinds mei, minimaal 2 maanden dus. En volgens mij is afgelopen zaterdag echt de release volledig bevroren "zodat ze installatie media kunnen maken". Tussen nu en zaterdag gaat dus echt niks meer veranderen aan Trixie. (Of het zou echt een heel kritisch issue moeten zijn, maar dan is het knap dat dat niet gevonden is, uberhaupt niet, en dus al helemaal niet na de hard freeze waarbij in die 2 maanden als het goed is al niks veranderd is).orvintax schreef op woensdag 6 augustus 2025 @ 10:59:
[...]
Ik wacht voorlopig nog even, maar ik ben toch benieuwd waarom ze niet gewoon minimaal een week (drie dagen) hebben gewacht totdat Trixie daadwerkelijk uit is.
En ja, persoonlijk vind ik het ook raar dat ze releasen voor Debian. Maar uiteindelijk maakt het v.w.b. "stabiliteit" niks uit doordat er al maanden een hard freeze is bij Debian en ik meen dus dat er sinds afgelopen zaterdag uberhaupt geen mogelijkheid meer is om wijzigingen te doen aan de release.
Het is niet de eerste keer dat Proxmox de selectie van de kernel op deze manier heeft aangevlogen. Voor 7 en 8 was dit ook al het geval. Voor mij wel reden om even te wachten. Ik heb geen haast en de .1 release zal over een maand of vier er wel zijn, waarna het waarschijnlijk geen problemen op gaat leveren om over te stappen.
[ Voor 5% gewijzigd door ocf81 op 06-08-2025 11:32 ]
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
De kernel is zover ik weet niet eens een afgeleide van de kernel die Debian levert, maar is afgeleid van de kernel van Ubuntu. Wat dat betreft is het niet eens zo spannend dat ze iets eerder zijn met de release van Debian, als je bedenkt dat ze bij Proxmox ook uitgebreid testen, en veel van de packages die Proxmox Proxmox maken uit hun eigen repositories komen (de kernel, ZFS, Ceph, KVM, LXC, etc.).
Ik draai Home Assistant in een VM binnen Proxmox en sinds de update naar 9 werkt de bluetooth passthrough niet meer. Binnen de HA console krijg ik dan ook de melding : FW download error recovery failed.
Betekent dit dat ik moet wachten op een firmware update?
Betekent dit dat ik moet wachten op een firmware update?
Heeft gewerkt, dank je wel!
For future readers, this is what worked:
Navigate to etc/modprobe.d/ on your proxmox host
Create a new file called "bluetooth-blacklist.conf"
input the following:
blacklist bluetooth
blacklist btbcm
blacklist btintel
blacklist btrtl
blacklist btusb
save file
execute "update-initramfs -k all -u" in the terminal
reboot the physical machine
[ Voor 43% gewijzigd door MarkyB op 06-08-2025 13:56 ]