Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Maar je kunt in die 500GB qua data neergooien wat je wilt, niet alleen iso's en VM's? Het is niet alsof bij 1 partitie van 500GB je er niks mee kunt en het opeens wel bruikbare ruimte hebt als je 1 partitie van 50GB hebt voor Proxmox/VM's en 1 partitie van 450GB voor de rest.500GB geblokkeerd. Een tikje veel voor een stel iso's en wat VM's
In die 500GB 'geblokkeerde' ruimte kun je ook prima 400GB aan films of zo zetten.
* Gizz heeft één pool/partitie van 2TB (2x 2TB nvme in mirror) waar Proxmox op staat.
[ Voor 5% gewijzigd door Gizz op 28-06-2025 10:18 ]
Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX
Dat was nu juist NIET het geval, was het maar waar.. Ik mag niets doen met die tweede schijf. Proxmox blokkeert iedere toegang.
Ik kan nu niet bij het systeem. Maar het komt er op neer dat Proxmox zegt: Op die drive stond vroeger Proxmox, ik hernoem hem naar OLD en voor de rest mag je er niets mee. Niet leeg maken, niet verwijderen en opnieuw partitioneren, niets op schrijven helemaal niets.
Als je gaat zoeken op de de foutmelding die ik noemde dan vindt je verwijzingen naar andere mensen die dit ook hebben.
De verklaring schijnt te zijn: Proxmox weet niet zeker wat je miet die schijf wil en of het systeem hem misschien ooit zelf nog een keer nodig heeft. dus bijf je er van af.
Heel erg veilig en vreselijk onhandig.
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Toch niet echt. Ik heb er nu een uurtje of vijf inzitten (tutorials volgen, troubleshooten met chatGPT) om hardware acceleration aan de praat te krijgen, maar ben geen stap verderGizz schreef op vrijdag 27 juni 2025 @ 16:23:
[...]
Ik geloof dat ik vrij dicht bij de kern ben. Maar geen idee wat nou dat laatste dingetje is waarom dit niet werkt

Laatste poging is de route Proxmox -> LXC -> Jellyfin-docker vergeten en direct voor Jellyfin in een LXC te gaan. Hiervoor heb ik het Jellyfin Helper-script gebruikt, waar meteen ffmpeg en voorbereiding voor hardware acceleration in zou moeten zitten.
Het klopt dat in de .conf al netjes de iGPU wordt doorgegeven met dev0 en dev1, inclusief juiste gid:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| arch: amd64 cores: 2 dev0: /dev/dri/card0,gid=44 dev1: /dev/dri/renderD128,gid=104 features: keyctl=1,nesting=1 hostname: jellyfin memory: 2048 mp0: /mnt/truenas_media,mp=/mnt/media net0: name=eth0,bridge=vmbr0,hwaddr=BC:24:11:0B:BF:18,ip=dhcp,type=veth onboot: 1 ostype: ubuntu rootfs: local-zfs:subvol-112-disk-0,size=8G swap: 512 tags: community-script;media unprivileged: 1 |
Ook vainfo laat in de LXC zien dat de VAP-API beschikbaar is en de intel driver bestaat:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
| root@jellyfin:~# vainfo error: can't connect to X server! libva info: VA-API version 1.20.0 libva info: Trying to open /usr/lib/x86_64-linux-gnu/dri/iHD_drv_video.so libva info: Found init function __vaDriverInit_1_20 libva info: va_openDriver() returns 0 vainfo: VA-API version: 1.20 (libva 2.12.0) vainfo: Driver version: Intel iHD driver for Intel(R) Gen Graphics - 24.1.0 () vainfo: Supported profile and entrypoints VAProfileNone : VAEntrypointVideoProc VAProfileNone : VAEntrypointStats VAProfileMPEG2Simple : VAEntrypointVLD VAProfileMPEG2Main : VAEntrypointVLD VAProfileH264Main : VAEntrypointVLD VAProfileH264Main : VAEntrypointEncSliceLP VAProfileH264High : VAEntrypointVLD VAProfileH264High : VAEntrypointEncSliceLP VAProfileJPEGBaseline : VAEntrypointVLD VAProfileJPEGBaseline : VAEntrypointEncPicture VAProfileH264ConstrainedBaseline: VAEntrypointVLD VAProfileH264ConstrainedBaseline: VAEntrypointEncSliceLP VAProfileHEVCMain : VAEntrypointVLD VAProfileHEVCMain : VAEntrypointEncSliceLP VAProfileHEVCMain10 : VAEntrypointVLD VAProfileHEVCMain10 : VAEntrypointEncSliceLP VAProfileVP9Profile0 : VAEntrypointVLD VAProfileVP9Profile0 : VAEntrypointEncSliceLP VAProfileVP9Profile1 : VAEntrypointVLD VAProfileVP9Profile1 : VAEntrypointEncSliceLP VAProfileVP9Profile2 : VAEntrypointVLD VAProfileVP9Profile2 : VAEntrypointEncSliceLP VAProfileVP9Profile3 : VAEntrypointVLD VAProfileVP9Profile3 : VAEntrypointEncSliceLP VAProfileHEVCMain12 : VAEntrypointVLD VAProfileHEVCMain422_10 : VAEntrypointVLD VAProfileHEVCMain422_12 : VAEntrypointVLD VAProfileHEVCMain444 : VAEntrypointVLD VAProfileHEVCMain444 : VAEntrypointEncSliceLP VAProfileHEVCMain444_10 : VAEntrypointVLD VAProfileHEVCMain444_10 : VAEntrypointEncSliceLP VAProfileHEVCMain444_12 : VAEntrypointVLD VAProfileHEVCSccMain : VAEntrypointVLD VAProfileHEVCSccMain : VAEntrypointEncSliceLP VAProfileHEVCSccMain10 : VAEntrypointVLD VAProfileHEVCSccMain10 : VAEntrypointEncSliceLP VAProfileHEVCSccMain444 : VAEntrypointVLD VAProfileHEVCSccMain444 : VAEntrypointEncSliceLP VAProfileAV1Profile0 : VAEntrypointVLD VAProfileHEVCSccMain444_10 : VAEntrypointVLD VAProfileHEVCSccMain444_10 : VAEntrypointEncSliceLP |
Maar wederom, of ik in Jellyfin nou VA-API of QSV kies, elke video waar hij hardware decoding probeert toe te passen eindigt in een fatal player error.
* Gizz begint enigszins te wanhopen.
edit:
In plaats van
1
2
| dev0: /dev/dri/card0,gid=44 dev1: /dev/dri/renderD128,gid=104 |
Ook nog dit geprobeert op basis van deze tutorial, wat (bijna) hetzelfde is als de Jellyfin Proxmox documentatie:
1
2
3
4
| lxc.cgroup2.devices.allow: c 226:0 rwm lxc.cgroup2.devices.allow: c 226:128 rwm lxc.mount.entry: /dev/dri/renderD128 dev/dri/renderD128 none bind,optional,create=file lxc.hook.pre-start: sh -c "chown 0:993 /dev/dri/renderD128" |
Resultaat is hetzelfde; fatal player error bij elke video. En in de shell decoden levert nog steeds the 'impossible to convert between the formats' op, net als bij mijn docker-poging:
1
2
3
4
5
6
7
8
9
10
| Impossible to convert between the formats supported by the filter 'Parsed_null_0' and the filter 'auto_scale_0' [vf#0:0 @ 0x5813f7670640] Error reinitializing filters! [vf#0:0 @ 0x5813f7670640] Task finished with error code: -38 (Function not implemented) [vf#0:0 @ 0x5813f7670640] Terminating thread with return code -38 (Function not implemented) [vost#0:0/hevc_vaapi @ 0x5813f777cf40] Could not open encoder before EOF [vost#0:0/hevc_vaapi @ 0x5813f777cf40] Task finished with error code: -22 (Invalid argument) [vost#0:0/hevc_vaapi @ 0x5813f777cf40] Terminating thread with return code -22 (Invalid argument) [out#0/null @ 0x5813f779db00] Nothing was written into output file, because at least one of its streams received no packets. frame= 0 fps=0.0 q=0.0 Lsize= 0KiB time=N/A bitrate=N/A speed=N/A Conversion failed! |
edit 2:
Er valt mij een verschil in drivers op.
Op de proxmox host levert
1
| apt install intel-media-va-driver-non-free -y |
dit op:
1
| intel-media-va-driver-non-free is already the newest version (23.1.1+ds1-1). |
terwijl ik in de LXC krijg:
1
| intel-media-va-driver-non-free is already the newest version (24.1.0+ds1-1). |
Zou hier het probleem in kunnen zitten
edit 3:
Ik was er een beetje klaar mee en heb Jellyfin direct binnen Proxmox in een docker gegooid. Dus zonder LXC ertussen. Nu werkt hardware decoding direct met simpelweg --device /dev/dri:/dev/dri .
Zou het graag nog netjes in een LXC krijgen, maar ik kan nu in ieder geval video kijken.
[ Voor 20% gewijzigd door Gizz op 28-06-2025 13:23 ]
Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX
Kan nu op afstand even niet voor je kijken welke ik nu aan heb staan. Tweede dag op rij dat ik m'n proxmox niet meer kan benaderen, terwijl alle LXC's en VM's nog lijken te draaien aangezien ik die nog kan benaderen.
Aangezien m'n services nog online zijn zou je denken dat proxmox ook nog (deels) draait, toch? Ligt dan alleen de GUI eruit ofzo? Kan nu eigenlijk niets anders dan een harde reboot doen..
Ik snap er weinig van en vind het lelijk dat ik direct docker binnen Proxmox heb draaien (komt nergens mooi terug in de GUI), maar het werkt wel..
Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX
Ok, begrijp nu wat je bedoelt en had misschien ook duidelijker kunnen zijn. Wat ik wilde zeggen is dat er geen reden is/was om een tweede disk te installeren voor de Proxmox installatie omdat het normaal gedrag is van Proxmox wat er gebeurde en dat je de ruimte gewoon kunt gebruiken.Ortep schreef op zaterdag 28 juni 2025 @ 09:59:
@ninjazx9r98
Misschien heb ik het verkeerd geformuleerd. Ik weet dat die ruimte daar voor wordt gebruikt. Maar ik vind het een tikje onzin dat Proxmox de hele 256 Disk kan gebruiken en dan ook nog 300GB op de tweede drive in gebruik houdt en die weigert vrij te geven.
Totaal heeft hij dan bijna 500GB geblokkeerd. Een tikje veel voor een stel iso's en wat VM's
Mijn vermoeden is dat de verse Proxmox installatie toch iets van de eerste disk in gebruik heeft of denkt te hebben. Dat kan een VM zijn mocht je die al geinstalleerd hebben voor je de tweede disk installeerde of dat de boot start van de eerste disk en verder gaat met de tweede.
Daarvoor zou je diep(er) in de configuratie moeten duiken en goed kunnen interpreteren wat je ziet.
Voor wat betreft de live CD/ISO, geen idee waarom dat niet zou werken en waarom sudo niet zou werken. Normaal gesproken zou dat gewoon moeten werken op een willekeurige live CD/ISO.
Ik vermoed dat je Proxmox geinstalleerd hebt met LVM. In eerste instantie op de 512GB ssd en daarna nog een keer op de 256GB ssd. Bij het booten vanaf de 256GB disk doet hij een LVM scan en vind hij ook de oude volumes op de 512GB SSD die nog in het systeem zit. Je kunt een disk waarop een gekoppeld LVM volume actief is niet zomaar wipen.Ortep schreef op vrijdag 27 juni 2025 @ 16:41:
Ik heb een Beelink S13 gevonden en daar zat een 512GB disk in. Even zitten spelen en Proxmox er op gezet. dat werkte verder goed.
Maar ik vond het een beetje zonde dat ik iets van 300GB van de 512 GB aan Proxmox zou moeten geven. Dat doet hij namelijk vanzelf,
Ik had nog een 256 GB ssd liggen en die heb ik er bij geprikt om vanaf daar te booten.
Even Proxmox opnieuw installeren. Toen kreeg ik tijdens de install de melding dat er een oude Proxmox was. Ik kon maar twee dingen doen, afbreken of de andere hernoemen naar 'Old'. Zeggen gooi maar weg was niet mogelijk.
Geen probleem leek me. Maar nu alles weer draait blijft de oude ssd nog in gebruik te zijn. En er is iets van 300GB voor de oude Proxmox aanwezig. Maar dat ik ik niet, ik wil een lege schijf.
Dus selecteer ik de schijf, ik klik op wipe disk en het antwoord is:
disk/partition '/dev/sda3' has a holder (500)
En ik mag er verder niets mee.
Mint doet waarschijnlijk hetzelfde en importeert ook automatisch de aanwezige LVM volumes als je boot vanaf een Live USB.Ortep schreef op vrijdag 27 juni 2025 @ 19:04:
Ik heb een live USB van Linux mint gepakt en als ik wat dan ook met die ssd probeer te doen dan krijg ik permission denied. Sudo werkt ook niet.
In short; eerst de LVM volumes op de 512GB disk deactiveren, daarna kun je de disk wipen.
Nog een paardenmiddel; het is Proxmox dus als je een backup maakt van je VMs en LXCs kun je ook vrij vlot eerst de disks helemaal leeg maken buiten Proxmox om, dan de hele hypervisor schoon opnieuw installeren en daarna de VMs en LXCs herstellen.
Daarnaast; je kunt in plaats van LVM ook ZFS gebruiken als basis voor Proxmox. Dan hoef je ook niet op voorhand een bepaalde hoeveel ruimte 'aan Proxmox te geven'. Maak je naast de rpool/ROOT en rpool/data datasets van Proxmox gewoon je eigen datasets aan en wordt de benodigde ruimte flexibel toegekend totdat de schijf vol is.
[ Voor 6% gewijzigd door d3vlin op 30-06-2025 10:26 ]
Leaping Lab Rats!
Klopt - met die kanttekening dat je dan wel redelijk wat aan (extra?) geheugen nodig hebt.d3vlin schreef op maandag 30 juni 2025 @ 09:33:
[...]
Daarnaast; je kunt in plaats van LVM ook ZFS gebruiken als basis voor Proxmox. Dan hoef je ook niet op voorhand een bepaalde hoeveel ruimte 'aan Proxmox te geven'. Maak je naast de rpool/ROOT en rpool/data datasets van Proxmox gewoon je eigen datasets aan en wordt de benodigde ruimte flexibel toegekend totdat de schijf vol is.
Als er zwaar ingezet wordt op compressie is een stevige CPU op zijn minst handig.
Een compromis zou kunnen bestaan uit de inzet van lvm-thin.
Heeft niet de compressie en herstel mogelijkheden van ZFS.
Maar wel de genoemde flexibiliteit in gebruikte van diskruimte.
makes it run like clockwork
Ik draai Proxmox met ZFS en zstd op een Alder Lake N95 / 16GB LPDDR5 machientje en dat gaat prima. Volgens mij redelijk vergelijkbaar met de Beelink S13 van @Ortep. Enige minpunt is dat het ding non-ECC geheugen heeft, maar dat neem ik voor lief.Airw0lf schreef op maandag 30 juni 2025 @ 09:50:
[...]
Klopt - met die kanttekening dat je dan wel redelijk wat aan (extra?) geheugen nodig hebt.
Als er zwaar ingezet wordt op compressie is een stevige CPU op zijn minst handig.
[ Voor 3% gewijzigd door d3vlin op 30-06-2025 10:16 ]
Leaping Lab Rats!
Top - en hoeveel diskruimte hangt hier dan onder?d3vlin schreef op maandag 30 juni 2025 @ 10:14:
[...]
Ik draai Proxmox met ZFS en zstd op een Alder Lake N95 / 16GB LPDDR5 machientje en dat gaat prima. Volgens mij redelijk vergelijkbaar met de Beelink S13 van @Ortep. Enige minpunt is dat het ding non-ECC geheugen heeft, maar dat neem ik voor lief.
makes it run like clockwork
uitvoering: Sukotop T9Plus
[ Voor 67% gewijzigd door d3vlin op 30-06-2025 11:10 ]
Leaping Lab Rats!
Dat klinkt alsof dat bij mij zo gegaan is.d3vlin schreef op maandag 30 juni 2025 @ 09:33:
[...]
Ik vermoed dat je Proxmox geinstalleerd hebt met LVM. In eerste instantie op de 512GB ssd en daarna nog een keer op de 256GB ssd. Bij het booten vanaf de 256GB disk doet hij een LVM scan en vind hij ook de oude volumes op de 512GB SSD die nog in het systeem zit. Je kunt een disk waarop een gekoppeld LVM volume actief is niet zomaar wipen.
[...]
Mint doet waarschijnlijk hetzelfde en importeert ook automatisch de aanwezige LVM volumes als je boot vanaf een Live USB.
Er staat nog niet echt iets op. Ik was aan het experimenteren.Nog een paardenmiddel; het is Proxmox dus als je een backup maakt van je VMs en LXCs kun je ook vrij vlot eerst de disks helemaal leeg maken buiten Proxmox om, dan de hele hypervisor schoon opnieuw installeren en daarna de VMs en LXCs herstellen.
Zodra ik bij het systeem kan zal ik kijken of ik alles kan wissen en gewoon een schone instal doen
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Immich werkt ook prima met External libary. Heb ik ook zo, Immich in unprivileged container op PVE, data staat op Synology. Deze wordt via bind mount vanaf de host beschikbaar gemaakt in de container.RedRayMann schreef op vrijdag 23 mei 2025 @ 11:43:
[...]
Ik heb ook problemen met Immich. Immich werkt alleen met de standaard opslaglocatie. Terwijl ik JellyFin wel werkend heb met alle data op een share.
- raid does not fix stupid -
Dank, ik duik er in!Patatjemet schreef op maandag 30 juni 2025 @ 18:04:
[...]
Immich werkt ook prima met External libary. Heb ik ook zo, Immich in unprivileged container op PVE, data staat op Synology. Deze wordt via bind mount vanaf de host beschikbaar gemaakt in de container.
Ik heb Immich in een LXC in Docker. Heb Immich niet "kaal" in een LXC.
[ Voor 8% gewijzigd door RedRayMann op 30-06-2025 21:17 ]
- raid does not fix stupid -
Ik heb Immich wel draaien in een docker (wel in een aparte VM waar alle dockers in draaien ipv LXC).RedRayMann schreef op maandag 30 juni 2025 @ 21:16:
[...]
Dank, ik duik er in!
Ik heb Immich in een LXC in Docker. Heb Immich niet "kaal" in een LXC.
Data mount is naar een andere Truenas VM en werkt prima met CIFS. Het is altijd even zoeken met juiste UIDs en locaties maar als je in de container inlogt kun je vrij snel zoeken of het goed gaat.
Ik heb thuis (ben nu op het werk) LXC met Jellyfin en AMD IGPU draaien en qua stappen zal dat niet veel schelen. (dus LXC zonder docker)Gizz schreef op zaterdag 28 juni 2025 @ 11:07:
[...]
Toch niet echt. Ik heb er nu een uurtje of vijf inzitten (tutorials volgen, troubleshooten met chatGPT) om hardware acceleration aan de praat te krijgen, maar ben geen stap verder![]()
Laatste poging is de route Proxmox -> LXC -> Jellyfin-docker vergeten en direct voor Jellyfin in een LXC te gaan. Hiervoor heb ik het Jellyfin Helper-script gebruikt, waar meteen ffmpeg en voorbereiding voor hardware acceleration in zou moeten zitten.
Het klopt dat in de .conf al netjes de iGPU wordt doorgegeven met dev0 en dev1, inclusief juiste gid:
Bash:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 arch: amd64 cores: 2 dev0: /dev/dri/card0,gid=44 dev1: /dev/dri/renderD128,gid=104 features: keyctl=1,nesting=1 hostname: jellyfin memory: 2048 mp0: /mnt/truenas_media,mp=/mnt/media net0: name=eth0,bridge=vmbr0,hwaddr=BC:24:11:0B:BF:18,ip=dhcp,type=veth onboot: 1 ostype: ubuntu rootfs: local-zfs:subvol-112-disk-0,size=8G swap: 512 tags: community-script;media unprivileged: 1
Ook vainfo laat in de LXC zien dat de VAP-API beschikbaar is en de intel driver bestaat:
Bash:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 root@jellyfin:~# vainfo error: can't connect to X server! libva info: VA-API version 1.20.0 libva info: Trying to open /usr/lib/x86_64-linux-gnu/dri/iHD_drv_video.so libva info: Found init function __vaDriverInit_1_20 libva info: va_openDriver() returns 0 vainfo: VA-API version: 1.20 (libva 2.12.0) vainfo: Driver version: Intel iHD driver for Intel(R) Gen Graphics - 24.1.0 () vainfo: Supported profile and entrypoints VAProfileNone : VAEntrypointVideoProc VAProfileNone : VAEntrypointStats VAProfileMPEG2Simple : VAEntrypointVLD VAProfileMPEG2Main : VAEntrypointVLD VAProfileH264Main : VAEntrypointVLD VAProfileH264Main : VAEntrypointEncSliceLP VAProfileH264High : VAEntrypointVLD VAProfileH264High : VAEntrypointEncSliceLP VAProfileJPEGBaseline : VAEntrypointVLD VAProfileJPEGBaseline : VAEntrypointEncPicture VAProfileH264ConstrainedBaseline: VAEntrypointVLD VAProfileH264ConstrainedBaseline: VAEntrypointEncSliceLP VAProfileHEVCMain : VAEntrypointVLD VAProfileHEVCMain : VAEntrypointEncSliceLP VAProfileHEVCMain10 : VAEntrypointVLD VAProfileHEVCMain10 : VAEntrypointEncSliceLP VAProfileVP9Profile0 : VAEntrypointVLD VAProfileVP9Profile0 : VAEntrypointEncSliceLP VAProfileVP9Profile1 : VAEntrypointVLD VAProfileVP9Profile1 : VAEntrypointEncSliceLP VAProfileVP9Profile2 : VAEntrypointVLD VAProfileVP9Profile2 : VAEntrypointEncSliceLP VAProfileVP9Profile3 : VAEntrypointVLD VAProfileVP9Profile3 : VAEntrypointEncSliceLP VAProfileHEVCMain12 : VAEntrypointVLD VAProfileHEVCMain422_10 : VAEntrypointVLD VAProfileHEVCMain422_12 : VAEntrypointVLD VAProfileHEVCMain444 : VAEntrypointVLD VAProfileHEVCMain444 : VAEntrypointEncSliceLP VAProfileHEVCMain444_10 : VAEntrypointVLD VAProfileHEVCMain444_10 : VAEntrypointEncSliceLP VAProfileHEVCMain444_12 : VAEntrypointVLD VAProfileHEVCSccMain : VAEntrypointVLD VAProfileHEVCSccMain : VAEntrypointEncSliceLP VAProfileHEVCSccMain10 : VAEntrypointVLD VAProfileHEVCSccMain10 : VAEntrypointEncSliceLP VAProfileHEVCSccMain444 : VAEntrypointVLD VAProfileHEVCSccMain444 : VAEntrypointEncSliceLP VAProfileAV1Profile0 : VAEntrypointVLD VAProfileHEVCSccMain444_10 : VAEntrypointVLD VAProfileHEVCSccMain444_10 : VAEntrypointEncSliceLP
Maar wederom, of ik in Jellyfin nou VA-API of QSV kies, elke video waar hij hardware decoding probeert toe te passen eindigt in een fatal player error.
* Gizz begint enigszins te wanhopen.
edit:
In plaats van
code:
1 2 dev0: /dev/dri/card0,gid=44 dev1: /dev/dri/renderD128,gid=104
Ook nog dit geprobeert op basis van deze tutorial, wat (bijna) hetzelfde is als de Jellyfin Proxmox documentatie:
code:
1 2 3 4 lxc.cgroup2.devices.allow: c 226:0 rwm lxc.cgroup2.devices.allow: c 226:128 rwm lxc.mount.entry: /dev/dri/renderD128 dev/dri/renderD128 none bind,optional,create=file lxc.hook.pre-start: sh -c "chown 0:993 /dev/dri/renderD128"
Resultaat is hetzelfde; fatal player error bij elke video. En in de shell decoden levert nog steeds the 'impossible to convert between the formats' op, net als bij mijn docker-poging:
Bash:
1 2 3 4 5 6 7 8 9 10 Impossible to convert between the formats supported by the filter 'Parsed_null_0' and the filter 'auto_scale_0' [vf#0:0 @ 0x5813f7670640] Error reinitializing filters! [vf#0:0 @ 0x5813f7670640] Task finished with error code: -38 (Function not implemented) [vf#0:0 @ 0x5813f7670640] Terminating thread with return code -38 (Function not implemented) [vost#0:0/hevc_vaapi @ 0x5813f777cf40] Could not open encoder before EOF [vost#0:0/hevc_vaapi @ 0x5813f777cf40] Task finished with error code: -22 (Invalid argument) [vost#0:0/hevc_vaapi @ 0x5813f777cf40] Terminating thread with return code -22 (Invalid argument) [out#0/null @ 0x5813f779db00] Nothing was written into output file, because at least one of its streams received no packets. frame= 0 fps=0.0 q=0.0 Lsize= 0KiB time=N/A bitrate=N/A speed=N/A Conversion failed!
edit 2:
Er valt mij een verschil in drivers op.
Op de proxmox host levert
code:
1 apt install intel-media-va-driver-non-free -y
dit op:
code:
1 intel-media-va-driver-non-free is already the newest version (23.1.1+ds1-1).
terwijl ik in de LXC krijg:
code:
1 intel-media-va-driver-non-free is already the newest version (24.1.0+ds1-1).
Zou hier het probleem in kunnen zitten
edit 3:
Ik was er een beetje klaar mee en heb Jellyfin direct binnen Proxmox in een docker gegooid. Dus zonder LXC ertussen. Nu werkt hardware decoding direct met simpelweg --device /dev/dri:/dev/dri .
Zou het graag nog netjes in een LXC krijgen, maar ik kan nu in ieder geval video kijken.
Mocht je nog op zoek zijn dan kan ik er wel naar kijken maar belangrijkste stappen uit mijn hoofd was.
Op PVE IGPU in blacklist zetten.
Via lxc conf file mapping maken en ik dacht dat je daarbij ook ID's moest meegeven.
Daarna als je gewoon in de shell van je LXC het apparaat ziet wordt het vrij simpel om de rest te doen volgens de jellyfin manual.
edit: The-Source in "Het grote Proxmox VE topic" hier begon mijn avontuur. Maar hoe de status nu werkelijk is in de files weet ik niet zeker uit mijn hoofd.
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Ik heb een system rescue gevonden en daarmee alles leeg gemaakt. Daarna heb ik proxmox opnieuw geïnstalleerd.
Dat ging verder zonder problemen. Nu verder op weg om uit te zoeken hoe ik Docker en Home Assistant er op kan zetten en toegang kan geven tot de tweede drive
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Voor iets als docker kun je Dockge pakken als je een simpele webbased GUI op prijs stelt.
Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX
Ik ken ze. Ik heb ze ook even gebruikt. En daarna heb ik alles verwijderd. Ik wil op zijn minst een vaag idee hebben van wat ik aan het doen ben.
Home assistant draait al in de basis vorm. Nu nog de oude install die op mijn synology draait er naar over brengen.
Nu ben ik net Een Debian VM aan het maken waar ik docker en portainer op ga zetten
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Ik overweeg naar Proxmox te gaan voor HA en Pi-Hole (voor nu). Lijkt op wat jij hebt. Ik dacht dat HAOS ook addons heeft, is er een voordeel om Zigbee2mqtt los te draaien en niet in HAOS? Verder benieuwd naar je ervaringen.Illusion schreef op zondag 8 juni 2025 @ 12:13:
Ik ga ook aan een Proxmox Avontuur beginnen. Ter vervanging van een DS216+II heb ik het volgende:Ik heb niet zo'n vetrouwen in een chinees OS, en het lijkt me leuk om Home-assistant als HAOS te draain ipv docker. Dus als services verwacht ik dit.
- Ugreen dxp2800. Intel N100, met upgrade naar 16GB Ram (Non-ECC)
- 2TB NVME WD Black SN770 (jong licht gebruikt)
- 10TB WD Red+ (nieuw)
- 250GB Crucial bx250 (oud, uit laptop)
Machine is verder alleen voor backups. Geen media-library of transcoding.
- Home Assitant OS (vm)
- Zigbee2mqtt lxc/docker
- Pihole lxc/docker
- OpenMediaVault als NAS host voor backups.
Nu de vragen:De meningen over ZFS voor single disk lijken nogal uiteen te lopen.. Op zich zou 16GB ram genoeg moeten zijn voor zfs lijkt me. En snapshots is ook lekker voor de VMs, maar er zijn toch nog wel veel verhalen over extreme wearout.
- OS op een oude 250GB sata ssd, of op de NVME
- ext4 of zfs voor single disk volume van de storage?
- ext4 of zfs voor single ssd volumen van proxmox os[?/li]
De vorige set (DS216) heeft ruim 8 jaar gedraaid zonder ernaar om te kijken, dus zoek nu weer iets dat vooral makkelijk/stabiel is met beperkte wear.
Er kunnen nog backups op een USB hard-disk gemaakt worden, dus zeker ivm stroomverbruik heb ik liever geen raid met dubbele disks.
Ik draai het zo al heel lang en het werkt gewoon goed.
Voordeel van de addons als Z2M is dat het direct integreert met HA incl mqtt.
Alles went behalve een Twent.
⏩ PVOutput☀️
Ik blijf bij zigbee2mqtt ipv zha omdat alles daar al ingeleerd is. Dus dacht dat gewoon net als nu via docker te doen. Maar als dat via een haos plugin kan ipv docker lijkt me dat alleen maar mooi.
Soms ben ik er wel, en soms ook weer niet.
Het werkt!!!Patatjemet schreef op maandag 30 juni 2025 @ 18:04:
[...]
Immich werkt ook prima met External libary. Heb ik ook zo, Immich in unprivileged container op PVE, data staat op Synology. Deze wordt via bind mount vanaf de host beschikbaar gemaakt in de container.
Immich blijft benaderbaar en heb een externe folder toegevoegd!
Ben nu wel benieuwd waar de database en thumbs worden opgeslagen, want de Docker LXC is maar 10gb groot (kan ik vergroter, maar heb liever alles op de SSD ipv op de NVME waar Proxmox op draait)
En tijdens het typen van het bericht zie ik de volume van de LXC vollopen. Ik moet dus ergens nog iets teaken.
--edit--
soms verder kijken dat mijn neus lang is.
https://immich.app/docs/guides/custom-locations
Systeem draait nu. Ik ga vanavond verder!
Yay, weer een stap de juiste richting op!
[ Voor 11% gewijzigd door RedRayMann op 04-07-2025 14:42 ]
Ik heb in Proxmox een paar ZFS pools gemaakt, die ik vanuit de verschillende LXC-containers benader. Een van die containers is een SMB-fileserver, waar ik naar toe schrijf vanuit o.a. mijn macs en ubuntu VM. Voor de LXC's heb ik UID-mapping toegepast.
Op andere machines gebruik ik naar volle tevredenheid borgbackup. Ik heb geprobeerd om een simpele Debian LXC te bouwen met daarin borgbackup, die dan de data via mountpoints of SMB kan benaderen en kan wegschrijven. Maar daarmee kom ik ik de knoei met permissions, ondanks ID-mappings.
Een mogelijke oplossing is om borgbackup direct binnen proxmox te installeren, maar dat is ook niet ideaal...
Ben benieuwd hoe jullie dit oplossing.
Ik draai Proxmox Backup Server in een VM op mijn Synology NAS. De backup van mijn VMs en LXCs gaan dan weer dagelijks naar mijn Google Drive.sOid schreef op vrijdag 4 juli 2025 @ 14:22:
Vraagje. Hoe hebben jullie (offsite) backups van data geregeld? Ik gebruik wel ingebouwde Proxmox Backup-functionaliteit, maar die kan niet alles backuppen.
Ik heb in Proxmox een paar ZFS pools gemaakt, die ik vanuit de verschillende LXC-containers benader. Een van die containers is een SMB-fileserver, waar ik naar toe schrijf vanuit o.a. mijn macs en ubuntu VM. Voor de LXC's heb ik UID-mapping toegepast.
Op andere machines gebruik ik naar volle tevredenheid borgbackup. Ik heb geprobeerd om een simpele Debian LXC te bouwen met daarin borgbackup, die dan de data via mountpoints of SMB kan benaderen en kan wegschrijven. Maar daarmee kom ik ik de knoei met permissions, ondanks ID-mappings.
Een mogelijke oplossing is om borgbackup direct binnen proxmox te installeren, maar dat is ook niet ideaal...
Ben benieuwd hoe jullie dit oplossing.
Voor LXCs en VMs doe ik dat ook indd, maar het gaat echt om data pools die gemaakt zijn onder Proxmox. Die worden niet in die backups meegenomen.tjanssen schreef op vrijdag 4 juli 2025 @ 14:59:
[...]
Ik draai Proxmox Backup Server in een VM op mijn Synology NAS. De backup van mijn VMs en LXCs gaan dan weer dagelijks naar mijn Google Drive.
Ah zo. Mijn NAS gaat op gezette tijden aan, en bij opstarten draai ik een script welke een NFS mount van een VM waarvan de storage ook niet door PBS meegenomen wordt. Dit script doet dus een mount, een rsync om de files naar de NAS te kopiëren en als laatste wanneer deze klaar is een unmount. De folder op de NAS loopt ook mee in Hyper Backup sync naar mijn Google Drive.sOid schreef op vrijdag 4 juli 2025 @ 15:03:
[...]
Voor LXCs en VMs doe ik dat ook indd, maar het gaat echt om data pools die gemaakt zijn onder Proxmox. Die worden niet in die backups meegenomen.
Is dus geen rechtstreekse backup van de data pool (wat voor mij ook niet nodig is), maar wellicht is het voor jou ook een optie.
Wat ik nu doe is op de host met chmod de uid:gid van de betreffende mount (map) aanpassen naar de user/group die toegang tot die map nodig heeft binnen de LXC. Dat werkt en dat vind ik al heel wat...
Is dit best practice? Ik lees ook wel eens iets over usergroups aanmaken op de host en id mapping gebruiken. Maar om eerlijk te zijn snap ik die concepten nog niet goed. Iemand een goed startpunt hierover? Of gewoon niet aan beginnen?
skoda enyaq 80 | holtkamper aero | fiscalist én techneut
Ik laat een combinatie van TrueNAS + PBS al mijn backups regelen.sOid schreef op vrijdag 4 juli 2025 @ 14:22:
Vraagje. Hoe hebben jullie (offsite) backups van data geregeld? Ik gebruik wel ingebouwde Proxmox Backup-functionaliteit, maar die kan niet alles backuppen.
Ik heb in Proxmox een paar ZFS pools gemaakt, die ik vanuit de verschillende LXC-containers benader. Een van die containers is een SMB-fileserver, waar ik naar toe schrijf vanuit o.a. mijn macs en ubuntu VM. Voor de LXC's heb ik UID-mapping toegepast.
Op andere machines gebruik ik naar volle tevredenheid borgbackup. Ik heb geprobeerd om een simpele Debian LXC te bouwen met daarin borgbackup, die dan de data via mountpoints of SMB kan benaderen en kan wegschrijven. Maar daarmee kom ik ik de knoei met permissions, ondanks ID-mappings.
Een mogelijke oplossing is om borgbackup direct binnen proxmox te installeren, maar dat is ook niet ideaal...
Ben benieuwd hoe jullie dit oplossing.
Dit is totaal niet hulpvol, maar dit is dus de reden waarom ik Proxmox specifiek hypervisor laat spelen, en TrueNAS NAS/storage gerlateerde zaken.
Zelf zou ik jouw LXC oplossing met Debian + Borgbackup ook mooi vinden. Maar als je toch al hebt gekozen om Proxmox je storage te laten beheren, is het dan zo erg om Borgbackup daar naast te draaien?
Just my two cents
[ Voor 0% gewijzigd door orvintax op 07-07-2025 21:15 . Reden: Typo ]
Godver. Ik had een hele reactie getikt maar sloot toen de tab...:(orvintax schreef op maandag 7 juli 2025 @ 21:15:
[...]
Ik laat een combinatie van TrueNAS + PBS al mijn backups regelen.
Dit is totaal niet hulpvol, maar dit is dus de reden waarom ik Proxmox specifiek hypervisor laat spelen, en TrueNAS NAS/storage gerlateerde zaken.
Zelf zou ik jouw LXC oplossing met Debian + Borgbackup ook mooi vinden. Maar als je toch al hebt gekozen om Proxmox je storage te laten beheren, is het dan zo erg om Borgbackup daar naast te draaien?
Just my two cents
Anyway, samenvatting: die pools maken natuurlijk gebruik van native functionaliteit van het Proxmox OS. Ik heb daar alleen een paar pools/mounts gecreëerd en een user:group toegevoegd. Aangezien het native is, kan ik ervan uitgaan dat het bij een update/upgrade blijft werken. Bij borgbackup is deze garantie er niet. Op deze manier hoef ik ook geen hardware passhtrough naar een VM/LXC te doen (nog een extra laag waar het fout zou kunnen gaan).
Intussen heb ik een Alpine Linux LXC (Alpine omdat de borgbackup versie daarop veel recenter is dan bij Debian, en het is lekker lightweight) draaien. Privileged, zodat alle permissions goed worden meegenomen. Hier heb ik een test-mountpoint aan toegevoegd en een paar nachten laten backuppen met borgbackup en borgmatic. Lijkt allemaal goed te gaan.
Ik ga nog wel wat beter naar hardening van die container kijken. Privileged blijft natuurlijk een risico, al is dat aanvaardbaar voor mijn thuissituatie. Zo wil ik bijvoorbeeld alleen een outbound connectie whitelisten die direct naar de backuplocatie gaat.
[ Voor 3% gewijzigd door sOid op 08-07-2025 09:58 ]
[ Voor 11% gewijzigd door ThinkPad op 08-07-2025 10:36 ]
Waar ik nog steeds geen goede oplossing voor heb is een backup van de PVE installatie zelf.
Mijn standaard aanpak nu is een copy van alles in /etc.
Maar ik twijfel nog steeds of dat alles is voor een werkend herstel.
En durf het daarom eigenlijk niet te testen.
Ook al omdat er nog een aantal pve-gerelateerde folders zijn in /var/lib.
Maar in hoeverre die relevant zijn voor een herstel van een pve-config...
Iemand nog suggesties?
[ Voor 41% gewijzigd door Airw0lf op 08-07-2025 11:00 ]
makes it run like clockwork
Backup van de PVE host dmv de ingebouwde backup-functionaliteit staat wel op de roadmap van doorontwikkeling. Dus in de toekomst zal dat de meest logische optie zijn. Maar voor nu... goede vraag.Airw0lf schreef op dinsdag 8 juli 2025 @ 10:55:
Mja - een backup van vm's en lxc's is niet echt lastig.
Waar ik nog steeds geen goede oplossing voor heb is een backup van de PVE installatie zelf.
Mijn standaard aanpak nu is een copy van alles in /etc.
Maar ik twijfel nog steeds of dat alles is voor een werkend herstel.
En durf het daarom eigenlijk niet te testen.
Ook al omdat er nog een aantal pve-gerelateerde folders zijn in /var/lib.
Maar in hoeverre die relevant zijn voor een herstel van een pve-config...![]()
Iemand nog suggesties?
Dit is wat ik doe (naast PBS voor alle LXC/VM). Zijn dus 3 directories op de PVE hosts.Airw0lf schreef op dinsdag 8 juli 2025 @ 10:55:
Mja - een backup van vm's en lxc's is niet echt lastig.
Waar ik nog steeds geen goede oplossing voor heb is een backup van de PVE installatie zelf.
Mijn standaard aanpak nu is een copy van alles in /etc.
Maar ik twijfel nog steeds of dat alles is voor een werkend herstel.
En durf het daarom eigenlijk niet te testen.
Ook al omdat er nog een aantal pve-gerelateerde folders zijn in /var/lib.
Maar in hoeverre die relevant zijn voor een herstel van een pve-config...![]()
Iemand nog suggesties?
1
| proxmox-backup-client backup var.pxar:/var/lib/pve-cluster etc.pxar:/etc --include-dev /etc/pve |
Ooit is ergens in het proxmox forum opgepikt, maar kan ik nu even niet vinden.
Draai je dit commando via cron ofzo? Of hoe werkt dit. Vind het wel interessant om dit via PBS te doennassau schreef op dinsdag 8 juli 2025 @ 16:04:
[...]
Dit is wat ik doe (naast PBS voor alle LXC/VM). Zijn dus 3 directories op de PVE hosts.
code:
1 proxmox-backup-client backup var.pxar:/var/lib/pve-cluster etc.pxar:/etc --include-dev /etc/pve
Ooit is ergens in het proxmox forum opgepikt, maar kan ik nu even niet vinden.
Klopt op al mijn nodes via een daily cron. Overigens authenticatie via een api token die ik zet in de environment (PBS_REPOSITORY & PBS_PASSWORD) bij elke run.orvintax schreef op dinsdag 8 juli 2025 @ 20:16:
[...]
Draai je dit commando via cron ofzo? Of hoe werkt dit. Vind het wel interessant om dit via PBS te doen
Ik heb eerst uitgebreid zitten spelen met deze tool, gewoon in de shell. Maar je krijgt gewoon snapshots van die directories in een 'Host' backup op PBS.
Je kunt het ook gebruiken voor beheer (garbage collect, prune, list, etc.)
[ Voor 23% gewijzigd door nassau op 08-07-2025 21:27 ]
Had een 4TB harddisk in een van de servers gestoken om backups naartoe te kopiëren voor het restoren, maar toch maar gekozen voor een Ceph volume. Bij het restoren is die 150MB/s van die disk de beperkende factor. VM van 180GB restoren duurt 2x zo lang

Ik ga Proxmox installeren en de huidige containers (LXC) overzetten.
Dit zijn home assistant, adguard, influxdb. En een nieuwe wat ik wil maken is Immich.
Ik wil onze foto's van iCloud naar Immich overzetten. Gezien deze van waarde zijn, wil ik een backup instellen.
Dat wil ik naar een 2e disk instellen. Daarvandaan encrypten en naar OneDrive (1 Tb) of een externe owncload omgeving (1Tb). Eventueel kan ik ook het e.e.a. via Proton Drive regelen.
Is dit een beetje de manier ?
- Gigabyte X570 AORUS MASTER, amd ryzen 5600x, 128gb ram, 2x nvidia quadro m4000, 1tb+512gb nvme, 4x 2,5gbe rtl8125 ethernet pcie kaart, 2x 6tb hdd
- Gigabyte Z370P D3, intel i3 9100, 64gb ram, 1tb+1tb+512gb nvme, 4x 2,5gbe rtl8125 ethernet pcie kaart
- CWWK N5105, 32gb ram, 512gb sata ssd+1tb nvme, 4x 2.5gbe i225 ethernet onboard
Systeem 2-3 zijn redelijk zuinig schat ik in, verbruik beide gemiddeld 15W? Systeem 1 lijkt mij de pittigste, gebruik je de CPU power en GPU's?
Alles went behalve een Twent.
⏩ PVOutput☀️
- 95/100 watt
- 43/46 watt
- 17/19 watt
Bij server 1 gebruik ik de videokaarten voor ollama. Als ik nvtop moet geloven kun je 24 watt aftrekken voor de 2 quadro's en nog een paar watt voor de hdd's maar dan kom je nooit zo laag als systeem 2. Nadeel van systeem 1 is dit moederbord geen onboard gpu output heeft dus ben je altijd een externe gpu nodig.
bij server 3 zijn de ram en uitbreidingsmogelijkheden zeer beperkt en deze maakt gebruik van de intel I225 nic welke ook niet helemaal foutloos is.
Mijn idee is dat ik een cluster wil met 3 servers waar elke server een primaire hoofdtaak heeft
1 server met de gpu's in passthrough naar de ollama vm
1 server met de hd sata controller in passthrough naar de xpenology vm
1 server met de 1tb nvme in passthrough naar de proxmox backup server vm
wat ik me ook af vroeg is of 4x 2,5gbe onboard ethernet zuiniger is dan een 4x 2,5gbe pcie ethernet?
[ Voor 70% gewijzigd door jwvdst op 09-07-2025 19:02 ]
Met homelab is elke manier die voor jou werkt natuurlijk goed.Signs schreef op woensdag 9 juli 2025 @ 11:41:
Vanavond komt een nieuwe mini-pc binnen die mijn oude proxmox server gaat vervangen.
Ik ga Proxmox installeren en de huidige containers (LXC) overzetten.
Dit zijn home assistant, adguard, influxdb. En een nieuwe wat ik wil maken is Immich.
Ik wil onze foto's van iCloud naar Immich overzetten. Gezien deze van waarde zijn, wil ik een backup instellen.
Dat wil ik naar een 2e disk instellen. Daarvandaan encrypten en naar OneDrive (1 Tb) of een externe owncload omgeving (1Tb). Eventueel kan ik ook het e.e.a. via Proton Drive regelen.
Is dit een beetje de manier ?
Maar je strategie met betrekking tot foto's ziet er gezond uit.
Heb er zelf voor gekozen om iCloud te blijven gebruiken als dagelijkse driver. Maar ik maak een dagelijkse export naar mijn NAS (met gebruik van snaphots). Daarvandaan een encrypted rsync naar een storagebox van Hetzner.
Mijn complete fotobibliotheek "past" ook op al mijn devices (iphone, ipad, imac) en dat zijn dan ook al 3 online copies.
Dat lijkt mij wel, dit voldoet aan de 3-2-1 regel. Welke mij voldoende lijkt voor de gemiddelde homelab. Ik zou nog kijken of je iets van regels in kan stellen dat als iets verwijderd word, het niet meteen weg is. Als voorbeeld: stel je verwijderd iets, dat het niet binnen een dag overal weg is.Signs schreef op woensdag 9 juli 2025 @ 11:41:
Vanavond komt een nieuwe mini-pc binnen die mijn oude proxmox server gaat vervangen.
Ik ga Proxmox installeren en de huidige containers (LXC) overzetten.
Dit zijn home assistant, adguard, influxdb. En een nieuwe wat ik wil maken is Immich.
Ik wil onze foto's van iCloud naar Immich overzetten. Gezien deze van waarde zijn, wil ik een backup instellen.
Dat wil ik naar een 2e disk instellen. Daarvandaan encrypten en naar OneDrive (1 Tb) of een externe owncload omgeving (1Tb). Eventueel kan ik ook het e.e.a. via Proton Drive regelen.
Is dit een beetje de manier ?
Lijkt me van niet... iCloud, OneDrive en Owncloud werken met sync-ing.orvintax schreef op donderdag 10 juli 2025 @ 20:52:
[...]
Dat lijkt mij wel, dit voldoet aan de 3-2-1 regel. Welke mij voldoende lijkt voor de gemiddelde homelab. Ik zou nog kijken of je iets van regels in kan stellen dat als iets verwijderd word, het niet meteen weg is. Als voorbeeld: stel je verwijderd iets, dat het niet binnen een dag overal weg is.
Als je ergens iets verwijderd is het binnen een paar minuten overal weg.
Bij de betaalde versie van OneDrive is er wellicht nog iets te redden.
Afhankelijk van de instellingen wellicht ook bij Owncloud.
Maar het blijft tricky business...
Mijn 0,500 Euro:
Gebruik een kleine NAS en maak een one-way backup van iCloud naar je NAS.
En van hieruit naar een externe disk die je elke 1-3 maanden wisselt.
Pas dan kun je spreken van een 3-2-1 regel.
makes it run like clockwork
Note: Dit is een browser issue, chrome en firefox werken wel.
Ik vind het vreselijk onoverzichtelijk en onlogisch. Maar direct op Debian werken met KVM en Qemu is nog erger. Ik begrijp waarom mensen dat niet doen.
Ik had eerst problemen met de 2 drives die ik niet kon gebruiken zoals ik wilde. Dat is nu zo ver opgelost dat ik alles op de kleinste drive heb staan. De 2e drive is aanwezig, als ik naar het console en lsblk intype dan kan ik hem zien als:
sda
|_sda1
Maar ik kan er verder weer helemaal niets mee. Ik wil hem bv zien in mijn docker VM daar ga ik hem gebruiken. Hoe krijg ik dat voor elkaar.
Ik zoek al dagen en de ene tutorial zegt dit, de andere weer dat. Maar geen van alle werken ze.
De laatste die ik geprobeerd heb is deze:
https://www.vinchin.com/vm-tips/proxmox-mount-disk.html
Natuurlijk met aan mijn systeem aangepaste namen.
De eerste 6 stappen gaan prima, de 7e dus helemaal niet.
Waar kijk ik overheen?
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Je hoeft het denk ik niet op een speciale manier toe te voegen aan Proxmox om de storage in je vm's of containers te krijgen, bind mounts werken op lokale paden prima. Tenminste, de storage die ik in mijn containers gebruik is gewoon alleen gemount op de host (in /mnt ergens, het is wel een eigen lvm met twee disks waar 1 filesystem op staat). Proxmox heeft er zelf verder geen sjoege van: er staat niks onder storage verder. Ik zou zo ook eigenlijk niet weten waarom je dat zou willen?Ortep schreef op maandag 14 juli 2025 @ 17:41:
Ik ben al weken aan het prutsen met Proxmox.
Ik vind het vreselijk onoverzichtelijk en onlogisch. Maar direct op Debian werken met KVM en Qemu is nog erger. Ik begrijp waarom mensen dat niet doen.
Ik had eerst problemen met de 2 drives die ik niet kon gebruiken zoals ik wilde. Dat is nu zo ver opgelost dat ik alles op de kleinste drive heb staan. De 2e drive is aanwezig, als ik naar het console en lsblk intype dan kan ik hem zien als:
sda
|_sda1
Maar ik kan er verder weer helemaal niets mee. Ik wil hem bv zien in mijn docker VM daar ga ik hem gebruiken. Hoe krijg ik dat voor elkaar.
Ik zoek al dagen en de ene tutorial zegt dit, de andere weer dat. Maar geen van alle werken ze.
De laatste die ik geprobeerd heb is deze:
https://www.vinchin.com/vm-tips/proxmox-mount-disk.html
Natuurlijk met aan mijn systeem aangepaste namen.
De eerste 6 stappen gaan prima, de 7e dus helemaal niet.
Waar kijk ik overheen?
(Kan ook zijn dat ik iets over het hoofd zie hoor, maar ik heb het al een paar jaar zo draaien, en het enige dat ik nu niet kan/heb is die lokale directory ook aan de tweede Proxmox-node doorgeven)
Saved by the buoyancy of citrus
Maar hoe krijg ik dan in mijn docker VK de 2e drive te zien?
Daar kan ik hem namelijk niet zien met lsblk. Hij is dus niet benaderbaar.
En alle tutorials hebben pagina's vol met commando's die je moet invoeren voordat proxmox eindelijk in staat is die 2e drive door te zetten.
Ik kan die drive dus wel zien in de shell van pve,
Maar hij is onzichtbaar als ik een terminal open van mijn docker VM.
En ik heb ook gelezen dat je een drive zou moeten kunnen toevoegen via hardware->add drive.
Daar kan ik bv wel mijn nsf map op mijn synology zien maar niet de echte drive in de proxmox server
[ Voor 19% gewijzigd door Ortep op 14-07-2025 18:08 ]
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Het klopt dat jouw guest / VM de disk op de host / Proxmox niet kan benaderen.Ortep schreef op maandag 14 juli 2025 @ 17:41:
Ik ben al weken aan het prutsen met Proxmox.
Ik vind het vreselijk onoverzichtelijk en onlogisch. Maar direct op Debian werken met KVM en Qemu is nog erger. Ik begrijp waarom mensen dat niet doen.
Ik had eerst problemen met de 2 drives die ik niet kon gebruiken zoals ik wilde. Dat is nu zo ver opgelost dat ik alles op de kleinste drive heb staan. De 2e drive is aanwezig, als ik naar het console en lsblk intype dan kan ik hem zien als:
sda
|_sda1
Maar ik kan er verder weer helemaal niets mee. Ik wil hem bv zien in mijn docker VM daar ga ik hem gebruiken. Hoe krijg ik dat voor elkaar.
Ik zoek al dagen en de ene tutorial zegt dit, de andere weer dat. Maar geen van alle werken ze.
De laatste die ik geprobeerd heb is deze:
https://www.vinchin.com/vm-tips/proxmox-mount-disk.html
Natuurlijk met aan mijn systeem aangepaste namen.
De eerste 6 stappen gaan prima, de 7e dus helemaal niet.
Waar kijk ik overheen?
Een guest / VM ziet normaliter alleen de virtuele disk die je aangemaakt hebt voor de VM.
Er zijn twee concepten. Eerste is dat je de hele disk doorgeeft aan een guest / VM (VirtIO). Dit werkt min of meer hetzelfde als het doorgeven van een videokaart of een raid controller aan een guest. Hardware die je op deze manier doorgeeft aan een guest is daarna ook geen onderdeel meer van de host maar enkel van de guest:
https://pve.proxmox.com/pve-docs/chapter-qm.html
https://pve.proxmox.com/w...k_to_Virtual_Machine_(VM)
Tweede is het mounten van een directory op de host / Proxmox naar een guest VM / LXC. Dit was eerder alleen voor LXC's mogelijk, maar kan tegenwoordig ook naar VM met VirtioFS. Dan blijft de disk dus onderdeel van de host / Proxmox en maak je alleen een directory benaderbaar voor de guest.
https://pve.proxmox.com/w...tainer#_bind_mount_points
https://forum.proxmox.com...ofsd-in-pve-8-0-x.130531/
YouTube: Checking out VirtioFS in PVE 8.4
[ Voor 72% gewijzigd door d3vlin op 14-07-2025 18:33 ]
Leaping Lab Rats!
Daarom dat ik dat er ook specifiek bij zetteAirw0lf schreef op donderdag 10 juli 2025 @ 21:09:
[...]
Lijkt me van niet... iCloud, OneDrive en Owncloud werken met sync-ing.
Als je ergens iets verwijderd is het binnen een paar minuten overal weg.
Bij de betaalde versie van OneDrive is er wellicht nog iets te redden.
Afhankelijk van de instellingen wellicht ook bij Owncloud.
Maar het blijft tricky business...![]()
Mijn 0,500 Euro:
Gebruik een kleine NAS en maak een one-way backup van iCloud naar je NAS.
En van hieruit naar een externe disk die je elke 1-3 maanden wisselt.
Pas dan kun je spreken van een 3-2-1 regel.
Ik doe zoveel mogelijk in containers en dan is het simpel met bind mounts. Voorheen had ik een vm met openmediavault die dan als smb-host alles aanbood. Aan die vm gaf ik de lvm door en die werd dan via lvm in die vm gemount. Ik zou even in de configuratie van de backup moeten kijken hoe ik dat ook weer geconfigureerd had, maar dat werkte prima.Ortep schreef op maandag 14 juli 2025 @ 18:04:
@Cyphax
Maar hoe krijg ik dan in mijn docker VK de 2e drive te zien?
Daar kan ik hem namelijk niet zien met lsblk. Hij is dus niet benaderbaar.
Je kunt ook overwegen om een container te gebruiken in plaats van een vm. Die kan je ook als docker-host gebruiken.
Saved by the buoyancy of citrus
Ik ben nog blijven door zoeken en mbv dit YouTube: How to add disks to a Proxmox server filmpje heb ik de zaak nu aan de gang.
De drive is nu zichtbaar in mijn VM
@Cyphax
Ik heb ook zitten kijken naar een LXC met docker er in maar volgens Proxmox zelf is dat juist niet de bedoeling. Dit is een van de tegenstrijdige adviezen die je overal vindt.
Proxmox zelf zegt dat je een VM moet gebruiken.
Anderen zeggen nee hoor, een LXC werkt prima.
En weer anderen zeggen dat ze een LXC hadden en dat na een update er niets meer werkte
Ik probeer op dit moment zo dicht mogelijk bij de adviezen van Proxmox zelf te blijven. Juist omdat ik het systeem niet echt begrijp.
Ik weet dat het Debian is met KVM en daarop een software laag die alles beter beheersbaar zou moeten maken. Maar daar stopt mijn kennis.
Ik heb Debian zelf geprobeerd, maar dat was echt een drama
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Zie ook bijgevoegde afbeelding:Ortep schreef op dinsdag 15 juli 2025 @ 11:39:
@d3vlin
Ik ben nog blijven door zoeken en mbv dit YouTube: How to add disks to a Proxmox server filmpje heb ik de zaak nu aan de gang.
De drive is nu zichtbaar in mijn VM
@Cyphax
Ik heb ook zitten kijken naar een LXC met docker er in maar volgens Proxmox zelf is dat juist niet de bedoeling. Dit is een van de tegenstrijdige adviezen die je overal vindt.
Proxmox zelf zegt dat je een VM moet gebruiken.
Anderen zeggen nee hoor, een LXC werkt prima.
En weer anderen zeggen dat ze een LXC hadden en dat na een update er niets meer werkte
Ik probeer op dit moment zo dicht mogelijk bij de adviezen van Proxmox zelf te blijven. Juist omdat ik het systeem niet echt begrijp.
Ik weet dat het Debian is met KVM en daarop een software laag die alles beter beheersbaar zou moeten maken. Maar daar stopt mijn kennis.
Ik heb Debian zelf geprobeerd, maar dat was echt een drama
Ik draai nu een jaar of 2 met LXC's in Proxmox - allemaal met Debian en de instellingen zoals te zien in de afbeelding. Elke vrijdag-op-zaterdag wordt er via een aantal cronjobs de nodige updates gedraaid voor pve en alle LXC-containers. Aansluitend gaat Watchtower aan de slag om de Docker containers te updaten.
Met deze aanpak ben ik in de afgelopen 2 jaar nog geen breaking-upgrades tegen gekomen...
Keymaker (d.w.z. OpnSense) en HASS (d.w.z. Home Assistant) zijn de enige VM's omdat die niet goed werkend zijn te krijgen in een LXC.
Voor pve gebruik ik een lvm volume op een nvme sdd. Voor backup gebruik ik een sata en usb (spindle-)disk - beiden zijn voorzien van een ext-4 partitie zodat ik hem ook kan aansluiten in/op andere systemen.
Voor de nas functies (d.w.z. mouse) is een tweede lvm volume in gebruik - dit is een met mdadm aangemaakte raid-0 op basis van twee spindle-disks. In de nas-lxc maak ik via Debian gebruik van Samba shares. Met daarnaast 3 Docker containers voor Nextcloud: redis, mariadb en nextcloud van LinuxServer.io.
/f/image/UkqIaTDWSqkqJ4qESfqNP7fB.png?f=fotoalbum_large)
[ Voor 11% gewijzigd door Airw0lf op 15-07-2025 13:40 ]
makes it run like clockwork
Ik gebruik zo weinig mogelijk docker, omdat proxmox een andere containertechnologie ondersteumt, lxc. Docker in een vm of container vind ik ook niet handig maar soms is docker de enige of betere optie (meestal niet per se)Ortep schreef op dinsdag 15 juli 2025 @ 11:39:
Ik heb ook zitten kijken naar een LXC met docker er in maar volgens Proxmox zelf is dat juist niet de bedoeling. Dit is een van de tegenstrijdige adviezen die je overal vindt.
Proxmox zelf zegt dat je een VM moet gebruiken.
Anderen zeggen nee hoor, een LXC werkt prima.
En weer anderen zeggen dat ze een LXC hadden en dat na een update er niets meer werkte
Voor wat betreft adviezen van proxmox; ik snap dat ze wat conservatiever zijn maar je kunt dit soort dingen altijd gewoon proberen. Docker is reproducible: stop alles in compose files, en als een container dan niet goed is gooi je 'm weg en zet je een vm op. Kost hooguit tijd.
Saved by the buoyancy of citrus
Kan je hier wat uitleg bij geven?Cyphax schreef op dinsdag 15 juli 2025 @ 12:42:
[...]
Ik gebruik zo weinig mogelijk docker, omdat proxmox een andere containertechnologie ondersteumt, lxc. Docker in een vm of container vind ik ook niet handig maar soms is docker de enige of betere optie (meestal niet per se)
[..]
Mijn referentiekader voor de inzet van LXC's met Docker containers was (is):
De runtime van Docker is containerd. Die maakt gebruik van de virtualisatie functies van het os van de host.
Ik heb geen weet van een specifieke vorm van virtualisatie waardoor je eigenlijk beter een vm zou kunnen inzetten.
Maar ik hoor graag als dat anders is!
[ Voor 4% gewijzigd door Airw0lf op 15-07-2025 13:45 ]
makes it run like clockwork
Ik gebruik al jaren docker op mijn Syno. Wat jij hier zegt is de reden dat ik het wil gebruiken.Cyphax schreef op dinsdag 15 juli 2025 @ 12:42:
[...]
Docker is reproducible: stop alles in compose files, en als een container dan niet goed is gooi je 'm weg en zet je een vm op. Kost hooguit tijd.
Mijn Syno wordt al wat ouder en daarom heb ik een Beelink gekocht. Dan kan de Syno nog jaren als nas draaien en dingen als Home Assistant VM en mijn containers draaien op de Beelink.
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
VM of LXC (al dan niet als docker host) hangt m.i. vooral af van het guest os/service/applicatie zelf. Vuistregel VM (eigen kernel) voor services die exposed zijn (en natuurlijk alles wat een andere kernel heeft dan de hypervisor) en LXC (kernel van de host) voor al het andere. Eerder was LXC voor services die zwaar op de host storage leunen zonder over het netwerk te moeten (bind mount) ook nog een ding maar daar is met VirtioFS nu ook meer keuze.Airw0lf schreef op dinsdag 15 juli 2025 @ 12:52:
[...]
Mijn referentiekader voor de inzet van LXC's met Docker containers was (is):
De runtime van Docker is containerd. Die maakt gebruik van de virtualisatie functies van het os van de host.
Ik heb geen weet van een specifieke vorm van virtualisatie waardoor je eigenlijk beter een vm zou kunnen inzetten.
Maar ik hoor graag als dat anders is!
[ Voor 4% gewijzigd door d3vlin op 15-07-2025 13:55 ]
Leaping Lab Rats!
Ik merk dat ik de laatste tijd juist meer naar docker containers aan het overstappen ben. Daar zat ik ook voor Proxmox. Een dedicated VM met Portainer vind ik toch net wat lekkerder werken dan Proxmox met LXC's. Nog een VM er naast voor Home Assistant en ik vraag me af waarom ik eigenlijk nog Proxmox draai. Nou ja, je blijft er mee bezigdcm360 schreef op dinsdag 15 juli 2025 @ 13:58:
Mijn vuistregel is eigenlijk dat ik alles in een LXC stop, tenzij er een reden is om dat niet te doen. Docker (of eigenlijk apps die dat nodig hebben) stop ik meestal in een LXC, maar in de situaties dat dat niet werkt wordt het een VM (om maar een voorbeeld te noemen: swarm kreeg ik niet aan de praat in een LXC).
Good taste is for people who can’t afford sapphires
Dat is ook wat ik in eerste instantie dacht.FirePuma142 schreef op dinsdag 15 juli 2025 @ 14:40:
[...]
Ik merk dat ik de laatste tijd juist meer naar docker containers aan het overstappen ben. Daar zat ik ook voor Proxmox. Een dedicated VM met Portainer vind ik toch net wat lekkerder werken dan Proxmox met LXC's. Nog een VM er naast voor Home Assistant en ik vraag me af waarom ik eigenlijk nog Proxmox draai. Nou ja, je blijft er mee bezig
Waarom proxmox? Het enige wat ik nodig heb is een VM voor Home Asistant en Docker bare bone voor een stel docker containers. Proxmox lijkt me nodeloos gecompliceerd.
Ik kreeg alleeen na een paar weken knutselen het niet voor elkaar om KVM en qemu aan de praat te krijgen.
Vooral het netwerk gedeelte was volkomen onbegrijpelijk.
Daarna ben ik met proxmox begonnen. Dat was eenvoudig op te zetten. En de Home Assistranf VM werkt haast automatisch. Maar dan loop ik weer tegen andere ellende aan.
Ik ben er nog niet uit of ik het blijf gebruiken
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Even clonen, inloggen, updaten, fixt IP enz. en de app in Docker zetten.
Alles went behalve een Twent.
⏩ PVOutput☀️
Het gebruiksgemak in combinatie met Proxmox Backup Server is wel echt heel hoog. Veel makkelijker dan elke andere oplossing die ik geprobeerd heb buiten (en binnen) Proxmox om in ieder geval.Ortep schreef op dinsdag 15 juli 2025 @ 17:30:
[...]
Ik ben er nog niet uit of ik het blijf gebruiken
Good taste is for people who can’t afford sapphires
Ik probeer niet te trollen. Ik zit het me alleen maar af te vragen.
Wat heb ik aan Proxmox? Waarom is het makkelijk?
Waarom werkt het eenvoudiger dan bv Debian met een VM voor Home Assistant er op en Docker bare bone?
Als het eenmaal draait heb je er geen omkijken meer naar. En Docker is zeer eenvoudig te back-uppen. Dat hoef je niet echt als je de compose files hebt.
Ik snap dat als je in een bedrijf bezig bet dat je een beheer tool nodig hebt. Of als je zit te ontwikkelen dat je snel iets wil testen. Maar voor iets wat in principe gewoon door moet werken met eens in de 2-3 maanden een verandering?
Ik hou nog steeds rekening met bv Debian met daarop direct docker en virtual box voor die ene VM.
Als je een of andere docker container in een lxc op portainer draait heb je eigenlijk het volgende:
Debian->Proxmox->Debian->Docker->Container
Ik denk dat
Debian->Docker->Container eenvoudiger is.
En zeker als je meer containers hebt. Dan blijft het bij een instance van Debian en een van Docker ipv voor ieder container er ook nog een Debian en een Docker bij.
Ik zit dus nog steeds te testen en waarschijnlijk heb ik mogen bv Ubuntu of Mint als test omgeving
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Een lxc-container doet conceptueel hetzelfde: een proces geisoleerd draaien, maar niet gevirtualiseerd: alle processen draaien op de host en kan je met ps zien draaien. Dat geldt dus voor zowel docker als lxc. Er zitten zeker ook veel verschillen tussen die twee maar in de basis gebruik je ze voor dezelfde reden.Airw0lf schreef op dinsdag 15 juli 2025 @ 12:52:
[...]
Kan je hier wat uitleg bij geven?
Mijn referentiekader voor de inzet van LXC's met Docker containers was (is):
De runtime van Docker is containerd. Die maakt gebruik van de virtualisatie functies van het os van de host.
Ik heb geen weet van een specifieke vorm van virtualisatie waardoor je eigenlijk beter een vm zou kunnen inzetten.
Maar ik hoor graag als dat anders is!
Het probleem is, voor mij althans, resources. Een vm en een lxc hebben resources nodig, met name ram en disk, maar dat is nou juist vrij dynamisch: meer containers = meer resources. Dan zit je met de vraag: hoeveel ken ik aan de container of vm toe? Ik moet dat vooraf proberen in te schatten.
Op het moment dat je je container direct op de host draait (voor proxmox is dat lxc) heb je dat probleem niet, maar dus wel als je tussen je host en je docker container nog een vm of lxc hebt. Het werkt prima, maar ik vind het niet erg handig. Voor mij geldt dan ook nog dat ik maar 16gb ram heb in de primaire node, en ik draai 15 18 containers en een vm die daarbinnen moeten passen (wat uitstekend lukt overigens
Imho is docker prima, en als proxmox ipv lxc docker "native" zou ondersteunen, dan zou ik overal docker containers voor gebruiken.
Maar het is lxc bij Proxmox, dus lxc it is. Dat werkt redelijk handig, zeker met de Helper Scripts waarmee je vrij snel allerhande diensten in de lucht brengt.
Verschil met een VM is dat ze de kernel van de host gebruiken, en niet een eigen kernel met eigen (virtuele) hardware. Het scheelt een hoop overhead qua geheugen en storage.
Proxmox is imho vergelijkbaar met Debian + Docker (Compose) + Portainer (of iets vergelijkbaars), in de basis. Mooie stack. Als je graag helemaal docker-based wil zijn of dat al bent, dan zou ik eerlijk gezegd ook niet direct aan Proxmox denken.Ortep schreef op dinsdag 15 juli 2025 @ 18:16:
@FirePuma142
Ik probeer niet te trollen. Ik zit het me alleen maar af te vragen.
Wat heb ik aan Proxmox? Waarom is het makkelijk?
Waarom werkt het eenvoudiger dan bv Debian met een VM voor Home Assistant er op en Docker bare bone?
Als het eenmaal draait heb je er geen omkijken meer naar. En Docker is zeer eenvoudig te back-uppen. Dat hoef je niet echt als je de compose files hebt.
[ Voor 24% gewijzigd door Cyphax op 15-07-2025 19:21 ]
Saved by the buoyancy of citrus
Als je met name docker gebruikt kan je idd net zo goed Portainer op bare metal Debian (of andere distro) installeren. Proxmox is toch vooral een handige en redelijk uitgebreide schil / GUI voor het beheren van (veel) VM's en LXC's.Ortep schreef op dinsdag 15 juli 2025 @ 18:16:
@FirePuma142
Ik probeer niet te trollen. Ik zit het me alleen maar af te vragen.
Wat heb ik aan Proxmox? Waarom is het makkelijk?
Waarom werkt het eenvoudiger dan bv Debian met een VM voor Home Assistant er op en Docker bare bone?
Als het eenmaal draait heb je er geen omkijken meer naar. En Docker is zeer eenvoudig te back-uppen. Dat hoef je niet echt als je de compose files hebt.
Ik snap dat als je in een bedrijf bezig bet dat je een beheer tool nodig hebt. Of als je zit te ontwikkelen dat je snel iets wil testen. Maar voor iets wat in principe gewoon door moet werken met eens in de 2-3 maanden een verandering?
Ik hou nog steeds rekening met bv Debian met daarop direct docker en virtual box voor die ene VM.
Als je een of andere docker container in een lxc op portainer draait heb je eigenlijk het volgende:
Debian->Proxmox->Debian->Docker->Container
Ik denk dat
Debian->Docker->Container eenvoudiger is.
En zeker als je meer containers hebt. Dan blijft het bij een instance van Debian en een van Docker ipv voor ieder container er ook nog een Debian en een Docker bij.
Ik zit dus nog steeds te testen en waarschijnlijk heb ik mogen bv Ubuntu of Mint als test omgeving
Leaping Lab Rats!
Unattended Upgrades wel eens bekeken?Airw0lf schreef op dinsdag 15 juli 2025 @ 12:16:
[...]
Ik draai nu een jaar of 2 met LXC's in Proxmox - allemaal met Debian en de instellingen zoals te zien in de afbeelding. Elke vrijdag-op-zaterdag wordt er via een aantal cronjobs de nodige updates gedraaid voor pve en alle LXC-containers. Aansluitend gaat Watchtower aan de slag om de Docker containers te updaten.
Leaping Lab Rats!
Proxmox is een GUI om QEMU. En QEMU maakt op zijn beurt weer gebruik van KVM - iets wat in de Kernal zit.Ortep schreef op dinsdag 15 juli 2025 @ 18:16:
@FirePuma142
Ik probeer niet te trollen. Ik zit het me alleen maar af te vragen.
Wat heb ik aan Proxmox? Waarom is het makkelijk?
Waarom werkt het eenvoudiger dan bv Debian met een VM voor Home Assistant er op en Docker bare bone?
Als het eenmaal draait heb je er geen omkijken meer naar. En Docker is zeer eenvoudig te back-uppen. Dat hoef je niet echt als je de compose files hebt.
Ik snap dat als je in een bedrijf bezig bet dat je een beheer tool nodig hebt. Of als je zit te ontwikkelen dat je snel iets wil testen. Maar voor iets wat in principe gewoon door moet werken met eens in de 2-3 maanden een verandering?
Ik hou nog steeds rekening met bv Debian met daarop direct docker en virtual box voor die ene VM.
Als je een of andere docker container in een lxc op portainer draait heb je eigenlijk het volgende:
Debian->Proxmox->Debian->Docker->Container
Ik denk dat
Debian->Docker->Container eenvoudiger is.
En zeker als je meer containers hebt. Dan blijft het bij een instance van Debian en een van Docker ipv voor ieder container er ook nog een Debian en een Docker bij.
Ik zit dus nog steeds te testen en waarschijnlijk heb ik mogen bv Ubuntu of Mint als test omgeving
Deze combi wordt ook wel een type 1 hypervisor genoemd vanwege de KVM-in-de-Kernal
VirtualBox is een zogenaamde type 2 hypervisor is te zien als een applicatie waardoor het allemaal net wat langzamer is.
Als je je zou verdiepen in QEMU (een CLI-ding) dan heb je de best mogelijke prestaties zonder de overhead van de Proxmox GUI - analoog aan wat Portainer is voor Docker containers.
De grootste plus van Proxmox is voor mij dat de backups eenvoudig te regelen zijn - al dan niet via PBS.
Goede tweede is het gebruik van LVM-volumes waardoor de prestaties binnen VM's en LXC's net iets beter zijn.
Met dit soort volumes is er geen overhead van een journaling (onderdeel van ext4 - hoewel dat ook weer uit te zetten is).
Bij een native Debian installatie moet ik die dingen zelf regelen - met name de backup.
Bij een backup zou dit neerkomen op het scripten via zoiets als Duplicati.
Qua backup heb ik in beide gevallen dezelfde uitdaging: de backup van de boot-disk is niet eenvoudig te doen en gaat vrijwel altijd gepaard met downtijd.
makes it run like clockwork
Ja, het zijn verre neven van elkaar, maar that's it. LXC = een "lightweight VM". Docker = een "applicatie geisoleerd". Twee totaal verschillende dingen dus. Bij LXC gaat het om het draaien van een (volledig) besturingssysteem, dat is dus incl. bv logging, SSH, process/service manager (systemd / initd / ...). Bij Docker gaat het om het draaien van een specifieke applicatie (of applicatie stack). Bij Docker zul je dus nooit zien dat er een logging daemon in de container zit, of SSH, of wat dan ook (ok, soms een process / service manager als het een applicatie stack is, maar puristisch draait elke applicatie dan nog steeds in zijn eigen container).
En dat is dus ook de hele reden waarom Proxmox LXC gebruikt, en ondersteund, en Docker niet. Proxmox is een hypervisor, en in een hypervisor ga je geen applicaties (die wellicht zijn gepackaged in een Docker image) draaien. In een hypervisor draai je een besturingssysteem (middels een VM, of LXC), en daarbinnen draai je je applicaties.
Als je niet op zoek bent naar het draaien van een (lightweight variant van een) VM dan is Proxmox in principe gewoon de verkeerde keuze en kun je beter wat anders zoeken.
Edit/aanvulling:
Overigens gebruiken LXC en Docker wel gedeeltelijk dezelfde kernel features (chroot, network namespaces, process namespaces, ...). Maar er zijn wel meer applicaties die dezelfde kernel features gebruiken, en die applicaties kun je niet perse vergelijken met elkaar.
En als je Docker ergens mee wilt vergelijken is het "echte" alternatief Podman, die heeft zelfs een Docker compatible daemon. Iets verder weg staat Kubernetes (en al zijn alternatieven). En bij incompatible maar dezelfde filosofie (en gebruik makende van een deel van dezelfde kernel features) krijg je zaken als Snap en Flatpack. En kilometers verder komt LXC, want totaal andere filosofie.
[ Voor 21% gewijzigd door RobertMe op 15-07-2025 19:35 ]
Daar begin ik nu ook achter te komen. De reden dat ik naar Proxmox keek is om dat ik één enkele VM wil draaien. Die van Home Assistant.RobertMe schreef op dinsdag 15 juli 2025 @ 19:28:
Als je niet op zoek bent naar het draaien van een (lightweight variant van een) VM dan is Proxmox in principe gewoon de verkeerde keuze en kun je beter wat anders zoeken.
Voor de rest heb ik op dit moment alles in dockers op mijn Syno.
Ik heb dus zelf geprobeerd om KVM aan de gang te krijgen op Debian voor die ene container. En dat kreeg ik niet voor elkaar. KVM lukte wel, maar het netwerk werd gesloopt en ik kreeg het niet aan de gang.
Docker met portainer was eenvoudig op Debian.
Misschien moet ik het op Ubuntu proberen en Proxmox achter me laten. Ik heb wel geleerd dat het heel veel kan. Maar het is niet echt waar ik persoonlijk wat aan heb
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Hiermee mis ik dan ook eigenlijk een tussenweg om zowel enkele VM's als primair meerdere Docker containers te draaien. De backup functies van Proxmox zijn ook met deze opstelling alsnog erg handig, maar het geheel kan efficiënter te beheren zijn zonder LXC. Mocht je een oplossing of alternatief platform vinden waar dit geschikter mee is, dan ben ik geïnteresseerd
Hoi
Dit zou je kunnen zien als de Proxmox voor Docker containers.
Het combineert Docker met Swarm en Traefik - en dat eventueel voor meerdere Docker hosts.
Onder de motorkap blijft het allemaal Docker Compose.
[ Voor 18% gewijzigd door Airw0lf op 15-07-2025 21:05 ]
makes it run like clockwork
Het zou moeten kunnen, maar binnenkort is deze manier niet meer ondersteund.TheBrones schreef op dinsdag 15 juli 2025 @ 20:49:
Je voorbeeld met Home Assistant heb ik onder andere ook nog in een VM, maar deze zou in theorie ook in Docker moeten kunnen.
https://community.home-as...32-bit-systems/893617/705
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
HA OS: dat je bare metal of als VM kunt draaien
HA Container: HA in een container omgeving, zoals docker.
De mogelijkheid om HA niet als VM maar in een docker container te draaien verdwijnt dus niet
Zie ook HA installation methods.
Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX
Volgens mij zijn daar wel meerdere opties voor. Wat ik ook vaker voorbij zie komen is Komodo. Ook die kan volgens mij met een centraal beheer paneel / management server werken en "agents" op verschillende servers. Incl. vervolgens fancy dashboard met resource usage etc etc.Airw0lf schreef op dinsdag 15 juli 2025 @ 21:04:
Voor degene die alleen maar Docker containers gebruiken: misschien is Dokploy iets?
Dit zou je kunnen zien als de Proxmox voor Docker containers.
Het combineert Docker met Swarm en Traefik - en dat eventueel voor meerdere Docker hosts.
Onder de motorkap blijft het allemaal Docker Compose.
Er is op internet vrij weinig over het bedrijf te vinden, geen tutorial om het op te zetten, geen handleidingen op de site. En hun verdienmodel is mij ook niet duidelijk. Hoe zie jullie dit? Is dit betrouwbaar genoeg als remote backup locatie?
Wat is de link naar Proxmox?spitsv schreef op dinsdag 15 juli 2025 @ 22:42:
Heeft iemand ervaring met https://dashboard.remote-backups.com? Ik kwam het net tegen, maar het ziet er eigenlijk te mooi uit om waar te zijn. 100GB gratis opslag, alleen moet je een verbinding naar internet openzetten zodat zij een kopie van jouw back-up disk kunnen maken.
Er is op internet vrij weinig over het bedrijf te vinden, geen tutorial om het op te zetten, geen handleidingen op de site. En hun verdienmodel is mij ook niet duidelijk. Hoe zie jullie dit? Is dit betrouwbaar genoeg als remote backup locatie?
Als het te mooi is om waar te zijn is het dat meestal ook...
Poortje open zetten om een backup te maken?
En je overweegt serieus om dit te doen?

makes it run like clockwork
Since PBS can now also push to other remotes, you can add your remote-backups datastore to your local PBS and setup a push sync job on there to sync your backups from your local PBS with remote-backups
.
Een poort openzetten is dus niet meer nodig. Als je je backups encrypt, is het denk ik te proberen waard 9f zie ik dan nog iets over het hoofd?
Nog twee dingen tjekke:spitsv schreef op woensdag 16 juli 2025 @ 07:39:
Na een vraag gesteld te hebben (hij reageert wel snel) zegt hij het volgende:
Since PBS can now also push to other remotes, you can add your remote-backups datastore to your local PBS and setup a push sync job on there to sync your backups from your local PBS with remote-backups
.
Een poort openzetten is dus niet meer nodig. Als je je backups encrypt, is het denk ik te proberen waard 9f zie ik dan nog iets over het hoofd?
(1) - doorlooptijd: wat is alles bij elkaar de doorvoersnelheid en hoeveel GB zou je willen backuppen?
(2) - herstelacties: wat moet je in stelling brengen om zo een backup terug te kunnen zetten?
makes it run like clockwork
Kom er nu achter dat het geheugen weer de bottleneck is... van 16 cores met 128GB naar 48 cores en 384GB. Heb er nu anderhalve HyperV server naartoe geschoven, CPU usage (zelfs met Ceph) is 1-2%... hele park had op 1 server kunnen draaien

Zou de PBS backup wel encrypten.Airw0lf schreef op dinsdag 15 juli 2025 @ 22:48:
[...]
Wat is de link naar Proxmox?
Als het te mooi is om waar te zijn is het dat meestal ook...![]()
Poortje open zetten om een backup te maken?
En je overweegt serieus om dit te doen?
Omdat ze praktisch gezien voor veel mensen hetzelfde doel bereiken. Of je nu een dedicated LXC of Docker draait voor Zigbee2mqtt bijvoorbeeld, maakt in het gros van het gebruik bijzonder weinig uit.RobertMe schreef op dinsdag 15 juli 2025 @ 19:28:
Ik snap de vergelijking tussen Docker & LXC hier eerlijk gezegd niet zo?
Ik denk dat Proxmox nog andere voordelen heeft, zoals de heel eenvoudige backups van VM's/LXC's. Ik draai een nog een paar LXC's (die ik overigens veel vervelender vindt om te troubleshooten dan een docker container, juist omdat het een VM-light is), die zullen ook wel overgaan naar een docker container.Als je niet op zoek bent naar het draaien van een (lightweight variant van een) VM dan is Proxmox in principe gewoon de verkeerde keuze en kun je beter wat anders zoeken.
Dan vind ik Proxmox nog wel ontzettend handig voor een tijdelijk VMmetje voor wat uitprobeersels. Ook erg fijn is dat ik gerust een VM kan verkloten en met een paar minuutjes de remote backup weer terug heb staan.
Good taste is for people who can’t afford sapphires
Een nieuw docker image deployen is natuurlijk niet hetzelfde als een backup, inclusief data, restoren. Dat kan met Proxmox met een paar muisklikken.Ortep schreef op dinsdag 15 juli 2025 @ 18:16:
@FirePuma142
Ik probeer niet te trollen. Ik zit het me alleen maar af te vragen.
Wat heb ik aan Proxmox? Waarom is het makkelijk?
Waarom werkt het eenvoudiger dan bv Debian met een VM voor Home Assistant er op en Docker bare bone?
Als het eenmaal draait heb je er geen omkijken meer naar. En Docker is zeer eenvoudig te back-uppen. Dat hoef je niet echt als je de compose files hebt.
Good taste is for people who can’t afford sapphires
Bedoel je dat je met hyper-v meer geheugen nodig had dan nu met proxmox?_JGC_ schreef op woensdag 16 juli 2025 @ 08:43:
Hier al lekker op weg met migratie naar Proxmox. Eerste HyperV server is leeg en uit, nog 5 te gaan.
Kom er nu achter dat het geheugen weer de bottleneck is... van 16 cores met 128GB naar 48 cores en 384GB. Heb er nu anderhalve HyperV server naartoe geschoven, CPU usage (zelfs met Ceph) is 1-2%... hele park had op 1 server kunnen draaien.
Ik had 6 HyperV servers:InfoTracer schreef op woensdag 16 juli 2025 @ 11:50:
[...]
Bedoel je dat je met hyper-v meer geheugen nodig had dan nu met proxmox?
- 3 stuks 2x E5 2620V3 met 128GB en 2TB diskruimte (12 core)
- 1 stuks 2x E5 2620V4 met 128GB en 2TB diskruimte (16 core)
- 1 stuks 2x E5 2660V4 met 128GB en 4TB diskruimte (28 core)
- 1 stuks 2x E5 2660V4 met 192GB en 4TB diskruimte (28 core)
Waar ik bij met name die 28 core machines tegenaan liep was dat 128GB geheugen zomaar vol zat.
Nu met Proxmox een Ceph cluster van 3 machines:
- EPYC 9455P
- 384GB geheugen
- 3x4TB NVME SSD
Ik heb nu 15 Windows VMs op de ene server staan, die verbruiken samen 2,5% van de CPU en 155GB van het geheugen. Als ik zie hoe erg die machines uit hun neus staan te vreten had daar gewoon meer geheugen in gemoeten.
Originele plan was 3 servers waarvan er 1 mocht uitvallen. Dat gaat wel lukken. Nieuwe plan is om al het linux spul op 1 server te drukken, mag failover naar elk van de 3 servers. De Windows VMs mogen echter alleen op de eerste beide servers, want dat scheelt maandelijks 1000 euro aan Windows licenties.
Nou kan KSM een heleboel geheugen besparen als ik dat wil, maar als er bij uitval een complete server wordt overgenomen qua load moet dat ook zonder KSM gewoon passen, anders kom je tekort.
Binnenkort toch nog backupserver verhuizen en switch bijplaatsen voor failover, kan er nog wat geheugen bij in server1 en 2.
Het maakt juist heel veel uit. In het eerste geval draai je een volledig extra OS dat ook onderhouden zal moeten worden (security updates bv).FirePuma142 schreef op woensdag 16 juli 2025 @ 11:08:
[...]
Omdat ze praktisch gezien voor veel mensen hetzelfde doel bereiken. Of je nu een dedicated LXC of Docker draait voor Zigbee2mqtt bijvoorbeeld, maakt in het gros van het gebruik bijzonder weinig uit.
Daarnaast weet ik niet hoe die helper scripts / ... met bv networking om gaan. Maar voor 20 software pakketten ook 20 LXCs en 20 apparaten in de router? Hmm. Als je LXC als volledige VM inzet met meer software er in natuurlijk minder een issue. Als je voor elke VM een fysieke machine inzet krijg je hetzelfde.
En in die lijn: je gaat ook niet per applicatie een nieuwe fysieke machine inzetten, en dat is soort van wat je wel doet met LXC.
We praten langs elkaar heen. Het heeft niet heel veel zin om er over door te gaan denk ik.RobertMe schreef op woensdag 16 juli 2025 @ 13:02:
[...]
Het maakt juist heel veel uit. In het eerste geval draai je een volledig extra OS dat ook onderhouden zal moeten worden (security updates bv).
Daarnaast weet ik niet hoe die helper scripts / ... met bv networking om gaan. Maar voor 20 software pakketten ook 20 LXCs en 20 apparaten in de router? Hmm. Als je LXC als volledige VM inzet met meer software er in natuurlijk minder een issue. Als je voor elke VM een fysieke machine inzet krijg je hetzelfde.
En in die lijn: je gaat ook niet per applicatie een nieuwe fysieke machine inzetten, en dat is soort van wat je wel doet met LXC.
Good taste is for people who can’t afford sapphires
Docker automatiseert een heleboel dingen, maar in principe is elke docker container ook gewoon een compleet OS dat onderhouden moet worden. Ik vind in /var/lib/docker meerdere overlays met een libc.so.6 bijvoorbeeld.RobertMe schreef op woensdag 16 juli 2025 @ 13:02:
[...]
Het maakt juist heel veel uit. In het eerste geval draai je een volledig extra OS dat ook onderhouden zal moeten worden (security updates bv).
Daarnaast weet ik niet hoe die helper scripts / ... met bv networking om gaan. Maar voor 20 software pakketten ook 20 LXCs en 20 apparaten in de router? Hmm. Als je LXC als volledige VM inzet met meer software er in natuurlijk minder een issue. Als je voor elke VM een fysieke machine inzet krijg je hetzelfde.
En in die lijn: je gaat ook niet per applicatie een nieuwe fysieke machine inzetten, en dat is soort van wat je wel doet met LXC.
Verschil is vooral dat Docker werkt met overlays. Bij LXC zit alles in je container, bij Docker heb je een base image die je kunt updaten met daaroverheen de data en instellingen van je applicatie. Updaten van je container betekent wel een full stop en start, dat heb je bij LXC niet.
Alleen hoef ik dat OS in de container niet te onderhouden. Dat doet de maintainer van de container, ik hoef alleen maar docker compose up -d --pull always te doen (en als de disk vol is docker image prune_JGC_ schreef op woensdag 16 juli 2025 @ 13:43:
[...]
Docker automatiseert een heleboel dingen, maar in principe is elke docker container ook gewoon een compleet OS dat onderhouden moet worden. Ik vind in /var/lib/docker meerdere overlays met een libc.so.6 bijvoorbeeld.
Als je de applicatie wilt updaten moet die geherstart worden. Of die nu in Docker of in LXC draait. En doordat je bij Docker vaak (/altijd) maar één applicatie draait in de container is er ook maar één reden om te updaten. (Sure, security issues in een base image kan een reden zijn om te updaten. Maar ik vermoed dat vaak pas nieuwe images worden uitgebracht bij nieuwe releases van de applicatie zelf. En ik denk dat dat vaak voldoende is doordat de container al een gering aantal attack surfaces heeft "doordat er niks in zit").Updaten van je container betekent wel een full stop en start, dat heb je bij LXC niet.
Ik zit zelf in dit kamp, dus ik kan dit wel toelichten.Ortep schreef op dinsdag 15 juli 2025 @ 18:16:
@FirePuma142
Ik probeer niet te trollen. Ik zit het me alleen maar af te vragen.
Wat heb ik aan Proxmox? Waarom is het makkelijk?
Waarom werkt het eenvoudiger dan bv Debian met een VM voor Home Assistant er op en Docker bare bone?
Als het eenmaal draait heb je er geen omkijken meer naar. En Docker is zeer eenvoudig te back-uppen. Dat hoef je niet echt als je de compose files hebt.
Ik snap dat als je in een bedrijf bezig bet dat je een beheer tool nodig hebt. Of als je zit te ontwikkelen dat je snel iets wil testen. Maar voor iets wat in principe gewoon door moet werken met eens in de 2-3 maanden een verandering?
Ik hou nog steeds rekening met bv Debian met daarop direct docker en virtual box voor die ene VM.
Als je een of andere docker container in een lxc op portainer draait heb je eigenlijk het volgende:
Debian->Proxmox->Debian->Docker->Container
Ik denk dat
Debian->Docker->Container eenvoudiger is.
En zeker als je meer containers hebt. Dan blijft het bij een instance van Debian en een van Docker ipv voor ieder container er ook nog een Debian en een Docker bij.
Ik zit dus nog steeds te testen en waarschijnlijk heb ik mogen bv Ubuntu of Mint als test omgeving
De reden waarom ik een Debian VM + Docker gebruik is simpelweg omdat LXC + Docker complexer is. Er zitten haken en ogen aan. Daarnaast levert het naar mijn mening niks op. Het is iets efficienter, maar dat is verwaarloosbaar tenzij je voor de ultra-efficientie gaat. Ik gebruik trouwens gewoon een enkele VM voor al mijn (Docker) applicaties.
Waarom Proxmox in dit geval? Alhoewel ik het perfect mogelijk is om alles op 1 systeem te doen. Hou ik persoonlijk wel van "the right tool for the job". Ik heb flink wat opslag voor mijn Linux ISO's en heb vrij kritische data. Deze laat ik beheren door een TrueNAS VM. Backups zelf regel ik dan weer heel makkelijk via een PBS VM.
Als je zeker weet dat je weinig veranderingen gaat krijgen, en je zin hebt om alles zelf in te stellen/te onderhouden (vergeet ZFS niet). Dan kun je dit natuurlijk perfect doen. Maar Proxmox is een vrij minimale laag over je host terwijl het toch een hoop flexibiliteit en (hypervisor) features bied.
Just my two cents.
makes it run like clockwork
Hier en daar een vinkje v.w.b. nesting?Airw0lf schreef op woensdag 16 juli 2025 @ 16:36:
@orvintax - kan je aangeven waar die extra LXC + Docker complexiteit precies in zit?
En voor thuis-gebruik loop je met LXC icm privileged=no wel een groter risico maar dat is nog steeds te verwaarlozen.
Bedoel je hier niet priviliged=yes?smesjz schreef op woensdag 16 juli 2025 @ 17:07:
[...]
En voor thuis-gebruik loop je met LXC icm privileged=no wel een groter risico maar dat is nog steeds te verwaarlozen.
makes it run like clockwork