• d3vlin
  • Registratie: September 2000
  • Laatst online: 14:11
zx9r_mario schreef op zondag 16 november 2025 @ 20:54:
Je kunt met 2 servers een simpele HA bouwen dmv ZFS replicatie. Om de kwartier wordt een ZFS sync gedaan naar de 2e server. Voor CEPH heb je 3 servers nodig met 10Gbit interfaces.
Precies dit. 2 Proxmox nodes die onderling repliceren en een lower power QDevice voor quorum. En dan PBS in een LXC voor automatische backups.

Leaping Lab Rats!


  • witchdoc
  • Registratie: Juni 2000
  • Laatst online: 02-12 17:26
@GoBieN-Be , @tjanssen, @zx9r_mario
Mijn idee was:
main node #1: Minisforum ms-a2 met AMD Ryzen™ 9 9955HX (Zen 5, 16 cores, 32 threads, 64M L3 cache, up to 5.4 GHz)
backup node #2: Minisforum ms-a2 met AMD Ryzen™ 9 7945HX (Zen 4, 16 cores, 32 threads, 64M L3 cache, up to 5.4 GHz)
quorum node #3: Raspberry Pi of dergelijks

Node #1 altijd up, node #2 enkel als backup en node #3 de Raspberry Pi die dus niks doet behalve aan node #2 meedelen dat node #1 echt down is en hij dus baas mag gaan spelen. Dat is dus (met Ceph geen optie?

Samsung 990 PRO zitten er in, maar of dat nu goeie zijn voor dit soort applicatie.. who knows.

Korte samanvattign zoals ik het dan begrijp:
Ceph,
- het echte vmotion verhaal
- moet 3 hosts met gelijkaardige storage en networking hebben

ZFS Cluster,
- reboot VM bij migratie naar andere host
- delayed redundancy
- kan werken met slechts 2 hosts met gelijkaardige storage en networking

Backups push ik nu al naar NFS mount op Synology NAS. Wat zou PBS meer/beter doen?

[ Voor 22% gewijzigd door witchdoc op 17-11-2025 13:32 ]


  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:21
Met PBS heb je o.a. incremental back-ups, deduplication en de mogelijkheid tot live restore, waarbij de VM al start vanaf de back-up storage (dit laatste enkel via CLI dacht ik).

Zoals @zx9r_mario zegt kan je ook storage replication doen (enkel met ZFS datastores) en dat repliceert dan een kopie van je VM/CT disks naar een 2de host op een vast interval. Als je ook automatisch de VM wil kunnen starten op de 2de host heb je een cluster met HA nodig.

Met Ceph heb je geen storage replication, maar een distributed storage systeem (shared storage) die in realtime de data spreidt over meerdere nodes in de cluster. Houd er rekening mee dat Ceph redelijk wat CPU & Memory overhead heeft. Wederom heb je HA nodig om de VM's terug op te starten op een andere host.

In beide gevallen heb je met 2 hosts een 3de nodig als scheidsrechter (quorum).

Ceph is ontworpen om met raw disks te werken en gebruikt zijn eigen filesystem.
Als je slechts 2 NVMe SSD's in je host hebt, dan heb je 1 nodig om Proxmox te installeren en dan kan je de andere toevoegen aan Ceph.

Maar ik ben zelf nog een beginner, dus RTM:
https://docs.ceph.com/en/latest/start/
https://docs.ceph.com/en/...hardware-recommendations/
https://pve.proxmox.com/w...h_Cluster#chapter_pveceph

[ Voor 11% gewijzigd door GoBieN-Be op 17-11-2025 19:27 ]


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 14:11
witchdoc schreef op maandag 17 november 2025 @ 13:16:
Backups push ik nu al naar NFS mount op Synology NAS. Wat zou PBS meer/beter doen?
YouTube: You should be using Proxmox Backup Server
YouTube: Proxmox Backup Server: A Game Changer for HomeLabs!

[ Voor 25% gewijzigd door d3vlin op 18-11-2025 12:47 ]

Leaping Lab Rats!


  • witchdoc
  • Registratie: Juni 2000
  • Laatst online: 02-12 17:26
Ik denk dat ik https://www.wundertech.ne...ackup-server-nfs-storage/ (video) maar eens ga proberen.. dan blijft die data tenminste op de NAS staan. Vind zelf ook niet gelijk een andere manier om PBS datas makkelijk door te zetten naar een NFS share.

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 14:11
witchdoc schreef op dinsdag 18 november 2025 @ 12:55:
[...]


Ik denk dat ik https://www.wundertech.ne...ackup-server-nfs-storage/ (video) maar eens ga proberen.. dan blijft die data tenminste op de NAS staan. Vind zelf ook niet gelijk een andere manier om PBS datas makkelijk door te zetten naar een NFS share.
How To: Synology NFS for Proxmox Backup Server Datastore (2025)
https://www.derekseaman.c...erver-datastore-2025.html

How To: Synology iSCSI LUN for Proxmox Backup Server Datastore
https://www.derekseaman.c...kup-server-datastore.html

PBS in een VM op je Synology zelf met datastore via iSCSI LUN klinkt idd logischer dan PBS op een ander systeem met een NFS mount als datastore. Maar het kan natuurlijk beiden.

Je kunt ook een lokale PBS installeren in een LXC op je PVE cluster met datastore in de LXC zelf voor snelle daily backups en een tweede PBS met veel storage op je Synology als long term storage/disaster recovery. Sync instellen van de local PBS naar de Synology PBS en de retentie op de Synology ruim instellen en op de local kort. Mogelijkheden genoeg. ;)

[ Voor 42% gewijzigd door d3vlin op 18-11-2025 13:32 ]

Leaping Lab Rats!


  • Cyphax
  • Registratie: November 2000
  • Laatst online: 20:11

Cyphax

Moderator LNX
witchdoc schreef op dinsdag 18 november 2025 @ 12:55:
[...]


Ik denk dat ik https://www.wundertech.ne...ackup-server-nfs-storage/ (video) maar eens ga proberen.. dan blijft die data tenminste op de NAS staan. Vind zelf ook niet gelijk een andere manier om PBS datas makkelijk door te zetten naar een NFS share.
Ik heb dat gedaan door de NAS te mounten op de host (SMB) en die als bind mount door te geven aan de PBS-container. Binnen PBS heb ik beide mounts als data store en een sync job die periodiek de backups synct naar de NAS. Binnen de container zelf wordt geen backup opgeslagen op deze manier.

[ Voor 5% gewijzigd door Cyphax op 18-11-2025 13:27 ]

Saved by the buoyancy of citrus


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:53
Lijkt me wel wat zo een LXC met PBS en alles naar een NAS. Maar hoe zou het dan werken bij een restore actie? Met name als de proxmox server het niet meer doet doordat de disk met de lxc's/vm's naar de eeuwige jachtvelden is vertrokken?

makes it run like clockwork


  • commentator
  • Registratie: Mei 2004
  • Laatst online: 12:43
Airw0lf schreef op dinsdag 18 november 2025 @ 13:36:
Lijkt me wel wat zo een LXC met PBS en alles naar een NAS. Maar hoe zou het dan werken bij een restore actie? Met name als de proxmox server het niet meer doet doordat de disk met de lxc's/vm's naar de eeuwige jachtvelden is vertrokken?
dan zet je een proxmox opnieuw op en een pbs en haal je vervolgens de de backup van de rest weer binnen

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 14:11
Airw0lf schreef op dinsdag 18 november 2025 @ 13:36:
Lijkt me wel wat zo een LXC met PBS en alles naar een NAS. Maar hoe zou het dan werken bij een restore actie? Met name als de proxmox server het niet meer doet doordat de disk met de lxc's/vm's naar de eeuwige jachtvelden is vertrokken?
Met PBS als LXC in PVE met datastore op de nas: nieuwe disk(s) in je server, PVE installeren, PBS installeren in LXC en de bestaande datastore op de nas daarin koppelen. Vanuit daar al je VM's en LXC's herstellen.

Met PBS op een andere server: nieuwe disk(s) in je server, PVE installeren en je VM's en LXC's herstellen vanuit de PBS server.

Leaping Lab Rats!


  • Cyphax
  • Registratie: November 2000
  • Laatst online: 20:11

Cyphax

Moderator LNX
Airw0lf schreef op dinsdag 18 november 2025 @ 13:36:
Lijkt me wel wat zo een LXC met PBS en alles naar een NAS. Maar hoe zou het dan werken bij een restore actie? Met name als de proxmox server het niet meer doet doordat de disk met de lxc's/vm's naar de eeuwige jachtvelden is vertrokken?
Mijn PBS container heb ik een week of twee geleden gesloopt en daarna opnieuw opgezet. Als je een datastore toevoegt in PBS heb je een vinkje om bestaande data te behouden. Ik moest wel de rechten met chmod goedzetten op een dir en een file, en daarna werkte het. Daar zit ook nog een upgrade bij want mijn overleden PBS-container was versie 3 en de nieuwe was versie 4. :)

Saved by the buoyancy of citrus


  • Theone098
  • Registratie: Februari 2015
  • Laatst online: 21:23
d3vlin schreef op dinsdag 18 november 2025 @ 13:11:
[...]


How To: Synology NFS for Proxmox Backup Server Datastore (2025)
https://www.derekseaman.c...erver-datastore-2025.html

How To: Synology iSCSI LUN for Proxmox Backup Server Datastore
https://www.derekseaman.c...kup-server-datastore.html

PBS in een VM op je Synology zelf met datastore via iSCSI LUN klinkt idd logischer dan PBS op een ander systeem met een NFS mount als datastore. Maar het kan natuurlijk beiden.
Ik heb beide geprobeerd en uiteindelijk voor optie 1 gekozen.

Zolang alles werkt is het prima om via optie 2 back-ups te maken en te restoren. Totdat de zaak niet meer werkt, dan lijkt mij optie 2 een groot risico om het weer aan de praat te krijgen (zeker als het al wat langer draait).

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 21:32
Mijm nvme is niet betrouwbaar meer dus ff proxmox opnieuw inrichten. Ik heb volgens mij versie 8. Ik heb alles vms uiteraard netjes op mijn nas gebackupt

Kan ik gewoon de nieuwste versie van proxmox erop zetten en importeren? Of gaat dat problemen opleveren?

  • Deshmir
  • Registratie: Februari 2012
  • Laatst online: 17:22
@TweakerVincent ik had 3 nodes op 7 draaien (1x VM, de rest LXC's).

eerst alles van 3 naar 2 gemigreerd, daarna 1tje naar 9. Toen weer alles (op de VM na) naar die met 9 gemigreerd, ook geen probleem.
Uiteindelijk ook de VM gemigreerd en weer terug gemigreerd.
Ik had alleen wat gedoe met de sources.list, want ik heb het idee dat als je van 7 naar 8 naar 9 gaat en daarna de stappen doet die ze in de handleiding zetten, dat het toch niet helemaal lekker werkt. (via de frontend alles eruit, en dan via die weg weer toevoegen heeft het wel opgelost).

  • powerboat
  • Registratie: December 2003
  • Laatst online: 05:58
TweakerVincent schreef op woensdag 19 november 2025 @ 12:28:
Mijm nvme is niet betrouwbaar meer dus ff proxmox opnieuw inrichten. Ik heb volgens mij versie 8. Ik heb alles vms uiteraard netjes op mijn nas gebackupt

Kan ik gewoon de nieuwste versie van proxmox erop zetten en importeren? Of gaat dat problemen opleveren?
Je kan je disk ook clonen naar een nieuwe, scheelt misschien qua herstel van de instellingen.

  • _JGC_
  • Registratie: Juli 2000
  • Nu online
GoBieN-Be schreef op maandag 17 november 2025 @ 19:23:
...
In beide gevallen heb je met 2 hosts een 3de nodig als scheidsrechter (quorum).

Ceph is ontworpen om met raw disks te werken en gebruikt zijn eigen filesystem.
Als je slechts 2 NVMe SSD's in je host hebt, dan heb je 1 nodig om Proxmox te installeren en dan kan je de andere toevoegen aan Ceph.
...
Ceph op 2 nodes draaien is niet aan te raden. Wil je failover kunnen draaien met meerdere hosts, heb je 3 nodes nodig. En zelfs balanceer je op het randje, want als je 1 node down trekt voor onderhoud en er gebeurt iets op die andere nodes gaat de storage gewoon op pauze.

Qua specs boeit het eigenlijk niet, gewoon een paar snelle CPU cores, voldoende geheugen (4GB per opslag device) en snelle opslag. Daarnaast een snel netwerk om de storage te regelen (10Gb of meer aanbevolen, mag meshed zonder switch).

Mocht je overigens net als ik Intel E810 kaarten gebruiken voor Ceph: gebruik kernel 6.17. De netwerkdrivers in de oudere 6.8 en 6.14 kernels lekken geheugen. Ik kon een maand uptime veroorloven voordat ik geforceerd alle nodes moest rebooten, anders kon ik de VMs niet migreren vanwege geheugengebrek.

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 21:32
powerboat schreef op woensdag 19 november 2025 @ 15:43:
[...]

Je kan je disk ook clonen naar een nieuwe, scheelt misschien qua herstel van de instellingen.
Dat probeerde ik gisteren, maar ik heb een nvme gekocht die 1000GB is terwijl mijn oude nvme 1024 gb is.

Clonezilla wilde niet en de partitie is volledig gevuld. Dus met die flag was het niet betrouwbaar zei chatgpt.

  • Shinji
  • Registratie: Februari 2002
  • Laatst online: 21:23
Ik heb een nuc10 i5 met proxmox maar sinds een paar maanden raakt die af en toe de verbinding kwijt. Switchpoort op shut/no shut en hij doet het weer. Volgens mij was het na wat updates op proxmox. Intussen ook weer door gegaan naar 9 maar het issue is er nog steeds.

Ik had dacht ik wat gelezen over dit issue maar kan dat nu niet meer vinden. Weet iemand hier iets toevallig?

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:21
Intel adapter, TSO issue wellicht
https://forum.proxmox.com...t-queue-timed-out.150807/

[ Voor 11% gewijzigd door GoBieN-Be op 19-11-2025 20:45 ]


  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 19:28
Shinji schreef op woensdag 19 november 2025 @ 19:56:
Ik heb een nuc10 i5 met proxmox maar sinds een paar maanden raakt die af en toe de verbinding kwijt. Switchpoort op shut/no shut en hij doet het weer. Volgens mij was het na wat updates op proxmox. Intussen ook weer door gegaan naar 9 maar het issue is er nog steeds.

Ik had dacht ik wat gelezen over dit issue maar kan dat nu niet meer vinden. Weet iemand hier iets toevallig?
ThinkPad in "Het grote Proxmox VE topic"

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:21
Er is blijkbaar zelfs een community script:
https://community-scripts...pts?id=nic-offloading-fix

  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Ik zit er aan te denken om Proxmox 8.4.14 te upgraden naar 9.1. Tijdens het upgrade-testscript krijg ik de volgende foutmelding;
FAIL: systemd-boot meta-package installed. This will cause problems on upgrades of other boot-related packages. Remove 'systemd-boot' See https://pve.proxmox.com/w...om_8_to_9#sd-boot-warning for more information.
Mijn kennis van Debian gaat niet zo diep, deze PVE draaien niet zo veel spannende dingen op, maar kan ik deze package straffeloos verwijderen? Ik ben bang dat dit boot-problemen op gaat leveren.
The only situation where you should keep the meta-package systemd-boot installed is if you manually setup systemd-boot for your system.
Voor zover ik weet heb ik dit niet gedaan. Ik heb gewoon de standaard install gedraaid.

[ Voor 17% gewijzigd door Gunner op 20-11-2025 10:49 ]

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • commentator
  • Registratie: Mei 2004
  • Laatst online: 12:43
Gunner schreef op donderdag 20 november 2025 @ 10:39:

[...]


Mijn kennis van Debian gaat niet zo diep, deze PVE draaien niet zo veel spannende dingen op, maar kan ik deze package straffeloos verwijderen? Ik ben bang dat dit boot-problemen op gaat leveren.
op 2 van mijn nodes had ik dat ook. Bij 1 ging het mis maar dat was eenvoudig op te lossen door te booten met een usb installatie stick en dan de boot weer even naar de juiste schijf te schrijven.
Zolang je een pc/laptop hebt waarop je het kan opzoeken is het geen probleem.

En bij dit soort dingen: Altijd zorgen voor een backup van dat wat erop staat ;)

  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

commentator schreef op donderdag 20 november 2025 @ 11:11:
En bij dit soort dingen: Altijd zorgen voor een backup van dat wat erop staat ;)
Dank voor je toelichting. van alle VM's heb ik een configuratie-backup (Home Assistant, Pi-Hole dat soort dingen) dus bij een crash of faal of wat dan ook kan ik altijd snel een versie installatie doen.

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 21:32
Even update, migratie van 8.2.2 naar laatste 9 versie ging vlekkeloos. gewoon proxmox installeren en de vm's restoren en nog even backup instellen en de deconz usb opnieuw connecten en klaar :)

Ook relaxt dat ik een keer een ermee oefen om te zien of backups echt eenvoudig teruggezet kunnen worden.

  • Cardinal
  • Registratie: Maart 2002
  • Laatst online: 16:18
@TweakerVincent dat klinkt meer als een reinstall dan een migratie, maar if it works, it works.

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 21:32
Shinji schreef op woensdag 19 november 2025 @ 19:56:
Ik heb een nuc10 i5 met proxmox maar sinds een paar maanden raakt die af en toe de verbinding kwijt. Switchpoort op shut/no shut en hij doet het weer. Volgens mij was het na wat updates op proxmox. Intussen ook weer door gegaan naar 9 maar het issue is er nog steeds.

Ik had dacht ik wat gelezen over dit issue maar kan dat nu niet meer vinden. Weet iemand hier iets toevallig?

ik had net hetzelfde met mijn nieuwe proxmox setup 9.2

Ik heb ook een nuc de NUC10i7FNK. die heeft een Intel Corporation Ethernet Connection (10) I219-V

is dat dezelfde als jij hebt? en werkt het script bij jou? in het script hebben ze het over intel e1000e NIC



even gekeken en is idd e1000e, script net gerund en lijkt allemaal goed te gaan. dank voor posten link

[ Voor 9% gewijzigd door TweakerVincent op 21-11-2025 16:05 ]


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

commentator schreef op donderdag 20 november 2025 @ 11:11:
[...]

op 2 van mijn nodes had ik dat ook. Bij 1 ging het mis maar dat was eenvoudig op te lossen door te booten met een usb installatie stick en dan de boot weer even naar de juiste schijf te schrijven.
Zolang je een pc/laptop hebt waarop je het kan opzoeken is het geen probleem.

En bij dit soort dingen: Altijd zorgen voor een backup van dat wat erop staat ;)
Goed, even wat uitzoekwerk gedaan, wat commando's gecheckt en ik gebruikte voor zover ik weet die systemd-boot niet. Deze verwijderd en systeem startte nog op na de reboot :7

Daarna moest ik nog een andere bootloader verwijderen en opnieuw installeren en alles draait nog. In principe dus klaar voor de update.

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Powerblast
  • Registratie: Augustus 2011
  • Nu online
Ik heb eindelijk ook de eerste stappen gezet om m'n mini homelab op te starten :p. Proxmox geïnstalleerd op een mini pc. i5 met 12 cores en 64gb ram dus het ding draait wel lekker :). Bedoeling is om een beetje te leren hoe het virtualiseren in eigenlijk werkt, wat leuke dingen te draaien en vooral: Linux leren.

Ik heb nu een LXC container up en running met daarin Gitea. Ik ben nu aan het kijken, voor ik nog andere containers inricht, hoe ik deze nu het best kan inrichten en backuppen. Daar loop ik toch wat verloren, heb maar zeer beperkte Linux kennis :). Ik lees dat Proxmox als je een backup maakt soms wel en soms niet mount points (met de data) ook een backup van neemt.

Ik heb aan m'n container een mount point toegevoegd (gitea-repos) via de GUI waar daadwerkelijk m'n repositories komen en wil deze nu backuppen. Zover ik lees zou een backup van een LXC echter geen mount points bevatten, ookal staat er een vinkje bij de mount point (backup=1). Maar als ik nu de backup open doe met unzip dan zit die directory er wel gewoon in? Daarom twee (dummy waarschijnlijk) vragen:

1. Klopt het dat dit komt doordat dit als "managed storage" gezien wordt door Proxmox omdat ik deze mount point in de LVM-Thin storagepool heb aangemaakt? En dat dit dus niet zou gebeuren als ik een aparte mount point vanuit de host naar de container expose die niet in de LVM-Thin pool zit?

2. Wat is hier nu de best practice? Data in de container door deze in de storage pool te zetten, of los op de host en aparte backup via rsync?

Ik snap het nog niet helemaal denk ik :(. Google geeft vrees ik ook niet echt veel info. Ze hebben het dan over mount points en bind points (maar in mijn ogen is dat hetzelfde :p). De container backup kan ik volgen maar ben dus op zoek wat er nu met de data gebeurd zeg maar.

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 20:11

Cyphax

Moderator LNX
Bij mij is het in elk geval zo dat bind mounts niet meegenomen worden bij snapshot backups, gelukkig, maar ik doe dat volgens mij niet via die thin pool.

Wat ik heb gedaan is een LXC opzetten met Proxmox Backup Server. De backups die gepland zijn in Proxmox worden daarin opgeslagen (je geeft PBS dus als doel voor je backups op). De PBS container heeft 2 mount points (bind mounts) waar ik de backups wil opslaan. In PBS worden de backups standaard op het ene mount point opgeslagen, en heb ik daarnaast een sync job ingesteld die de backups dupliceert naar het tweede mount point (dat is een NAS).

Dat wat ik op de host doorgeef via die binds backup ik met Kopia (die ook een mount point heeft, datgene dat ie moet backuppen) naar de eerdergenoemde NAS en naar een cloud storage.

Uiteindelijk is het idee om alle containers klein te houden, en alle data erbuiten, en die kan je los backuppen. Er zijn best wel veel wegen naar Rome wat dat betreft maar ik zou wel in het achterhoofd houden dat 1 backup niet genoeg is. Mirror je backups naar op z'n minst een ander apparaat. :)

Saved by the buoyancy of citrus


  • Powerblast
  • Registratie: Augustus 2011
  • Nu online
Cyphax schreef op zondag 23 november 2025 @ 20:01:
Bij mij is het in elk geval zo dat bind mounts niet meegenomen worden bij snapshot backups, gelukkig, maar ik doe dat volgens mij niet via die thin pool.

Wat ik heb gedaan is een LXC opzetten met Proxmox Backup Server. De backups die gepland zijn in Proxmox worden daarin opgeslagen (je geeft PBS dus als doel voor je backups op). De PBS container heeft 2 mount points (bind mounts) waar ik de backups wil opslaan. In PBS worden de backups standaard op het ene mount point opgeslagen, en heb ik daarnaast een sync job ingesteld die de backups dupliceert naar het tweede mount point (dat is een NAS).

Dat wat ik op de host doorgeef via die binds backup ik met Kopia (die ook een mount point heeft, datgene dat ie moet backuppen) naar de eerdergenoemde NAS en naar een cloud storage.

Uiteindelijk is het idee om alle containers klein te houden, en alle data erbuiten, en die kan je los backuppen. Er zijn best wel veel wegen naar Rome wat dat betreft maar ik zou wel in het achterhoofd houden dat 1 backup niet genoeg is. Mirror je backups naar op z'n minst een ander apparaat. :)
Dat was ik inderdaad van plan als volgende stap :). Voorlopig nog met een USB external disk maar daar komt waarschijnlijk een NAS de komende week voor in de plaats. Dan ga ik toch ook eens kijken voor PBS op te zetten.

Begrijp ik het goed dat een bind mount iets anders is dan wat je via de GUI toevoegt als "Mount point"? En dat een mount point via de GUI altijd via proxmox beheerd wordt zeg maar? Ik denk dat daar mijn verwarring wat ontstaat. De forums zijn daar niet al te duidelijk over, maar volgens de wiki zou dit enkel via shell kunnen.

Stap voor stap probeer ik tot een werkende geheel te komen maar als je jaren Linux vermeden hebt, is het toch even wennen :p.

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 20:11

Cyphax

Moderator LNX
Powerblast schreef op zondag 23 november 2025 @ 20:23:
[...]


Dat was ik inderdaad van plan als volgende stap :). Voorlopig nog met een USB external disk maar daar komt waarschijnlijk een NAS de komende week voor in de plaats. Dan ga ik toch ook eens kijken voor PBS op te zetten.

Begrijp ik het goed dat een bind mount iets anders is dan wat je via de GUI toevoegt als "Mount point"? En dat een mount point via de GUI altijd via proxmox beheerd wordt zeg maar? Ik denk dat daar mijn verwarring wat ontstaat. De forums zijn daar niet al te duidelijk over, maar volgens de wiki zou dit enkel via shell kunnen.

Stap voor stap probeer ik tot een werkende geheel te komen maar als je jaren Linux vermeden hebt, is het toch even wennen :p.
Ik denk dat dat inderdaad iets anders is maar ik weet eigenlijk niet zo goed hoe en wat. Ik schrijf ze weg in de configuratie van de container (/etc/pve/lxc/{containerid]}.conf). Voor PBS is dat bijvoorbeeld:
code:
1
2
mp0: /mnt/vg_fileserver/backup/proxmox-backup,mp=/mnt/fileserver
mp1: /mnt/backup.lan/proxmoxbackup,mp=/mnt/backup.lan

De eerste is "gewoon" op de host, de tweede is een share die ik op de host heb gemount en weer doorgeef aan de container.

Ik weet niet of het nou zo was dat je dit via de GUI niet kon of kan maar ze worden wel gewoon in de GUI getoond onder Resources, als Mount Point.

Saved by the buoyancy of citrus


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 14:11
Powerblast schreef op zondag 23 november 2025 @ 20:23:
Begrijp ik het goed dat een bind mount iets anders is dan wat je via de GUI toevoegt als "Mount point"? En dat een mount point via de GUI altijd via proxmox beheerd wordt zeg maar? Ik denk dat daar mijn verwarring wat ontstaat. De forums zijn daar niet al te duidelijk over, maar volgens de wiki zou dit enkel via shell kunnen.
Met mounten wordt een storage device aan een punt in de bestandstructuur verankerd. Het punt waar je verankert is het mount point, in de regel een lege directory.

Bij een bind mount wordt er geen storage device gemount maar een directory op het systeem naar een andere directory op het systeem. In het geval van een LXC kan je daarmee dus een folder op de host naar een folder die benaderbaar is in de LXC mounten. (Een LXC is feitelijk ook gewoon een soort afgeschermd hoekje in het bestandsysteem van het OS.)

Mounts worden beheerd door het OS. Als je in de CLI van de host 'mount' intikt krijg je alle op het systeem actieve mounts te zien.

Voor een LXC kun je in de GUI van Proxmox alleen (nieuw aan te maken) virtuele disks mounten. Vanwege security bezwaren moet je bind mounts (naar de host) aanmaken in de LXC config via het OS / de CLI, zie ook:
https://forum.proxmox.com/threads/bind-mounts-and-api.27840/

Via de CLI in de configuratie van een LXC aangemaakte bind mounts verschijnen wel in de GUI.

[ Voor 25% gewijzigd door d3vlin op 24-11-2025 08:40 ]

Leaping Lab Rats!


  • Powerblast
  • Registratie: Augustus 2011
  • Nu online
Cyphax schreef op zondag 23 november 2025 @ 21:13:
[...]

Ik denk dat dat inderdaad iets anders is maar ik weet eigenlijk niet zo goed hoe en wat. Ik schrijf ze weg in de configuratie van de container (/etc/pve/lxc/{containerid]}.conf). Voor PBS is dat bijvoorbeeld:
code:
1
2
mp0: /mnt/vg_fileserver/backup/proxmox-backup,mp=/mnt/fileserver
mp1: /mnt/backup.lan/proxmoxbackup,mp=/mnt/backup.lan

De eerste is "gewoon" op de host, de tweede is een share die ik op de host heb gemount en weer doorgeef aan de container.
Thanks! Ik ga het morgen even proberen. Het strookt idd wel met wat ik in de wiki vond. Dacht alleen dat ik het verkeerd las omdat een dergelijke mount point er hetzelfde uitziet in de config dan een mount point die via de GUI is gemaakt. Maar zie net dat de eerste parameter dan naar een soort van virtuele disk lijkt te wijzen, dus daar zit waarschijnlijk het verschil in.
d3vlin schreef op maandag 24 november 2025 @ 07:37:
[...]
Voor een LXC kun je in de GUI van Proxmox alleen (nieuw aan te maken) virtuele disks mounten. Vanwege security bezwaren moet je bind mounts (naar de host) aanmaken in de LXC config via het OS / de CLI, zie ook:
https://forum.proxmox.com/threads/bind-mounts-and-api.27840/
Ok top, dat verduidelijkt het idd :). Ik dacht even omdat het al een topic uit 2016 was, dat het niet meer up to date was. Ik ga het in ieder geval even proberen.

[ Voor 22% gewijzigd door Powerblast op 24-11-2025 20:26 ]


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 14:11

Leaping Lab Rats!


  • ComTech
  • Registratie: November 2002
  • Laatst online: 10:16
Ik heb hier een proxmox server met een i3 8100 draaien met een ubuntu VM daar draait docker op.
Als ik nu een grote stack maak en hij wat containers moet ophalen dan schiet de load soms enorm omhoog van de proxmox host. (1m load van 15 is geen uitzondering).
Gekke is ik heb een losse HP prodesk staan met bijna dezelfde CPU een i3 8100T maar hier draait ubuntu server headless op, als ik hier hetzelfde doe dan komt de load niet eens boven de 2 uit.
Ik heb op de proxmox server een mirror zfs met 2 samsung m.2 980 evo's .
Ram geheugen is ook genoeg 32GB en nog maar 50% gebruikt.
Iemand een idee hoe dat kan? Kan het komen door de zfs mirror ?
ComTech schreef op donderdag 27 november 2025 @ 21:52:
Ik heb hier een proxmox server met een i3 8100 draaien met een ubuntu VM daar draait docker op.
Als ik nu een grote stack maak en hij wat containers moet ophalen dan schiet de load soms enorm omhoog van de proxmox host. (1m load van 15 is geen uitzondering).
Gekke is ik heb een losse HP prodesk staan met bijna dezelfde CPU een i3 8100T maar hier draait ubuntu server headless op, als ik hier hetzelfde doe dan komt de load niet eens boven de 2 uit.
Ik heb op de proxmox server een mirror zfs met 2 samsung m.2 980 evo's .
Ram geheugen is ook genoeg 32GB en nog maar 50% gebruikt.
Iemand een idee hoe dat kan? Kan het komen door de zfs mirror ?
Welke CPU wordt in de VM gebruikt? Als die niet op host staat maar een andere CPU wordt gebruikt kan dat mogelijk ook nog tot issues leiden? (bv bepaalde instructiesets die niet gebruikt worden / kunnen worden)

  • ComTech
  • Registratie: November 2002
  • Laatst online: 10:16
RobertMe schreef op donderdag 27 november 2025 @ 22:21:
[...]

Welke CPU wordt in de VM gebruikt? Als die niet op host staat maar een andere CPU wordt gebruikt kan dat mogelijk ook nog tot issues leiden? (bv bepaalde instructiesets die niet gebruikt worden / kunnen worden)
Dat is een hele goede normaal zet ik ze altijd op host maar deze keer dus niet, stond op default (kvm).

  • tuxie6
  • Registratie: Juli 2013
  • Laatst online: 21:16
Zfs gebruikt ramcache wat zoveel procent van je ram is.
Als je andere systeem gelijk is aan de proxmox server, maar dan met ext4, brtfs, e.d
Dan lijkt mij het niet helemaal onmogelijk dat het door zfs komt.
Je kan de zfscache (arc) aanpassen in /etc/ ...... (dat ben ik even kwijt.)

Er zijn meer meldingen geweest dat zfs en vm's om de ram aan het vechten waren. Waardoor het voorkwam dat er processen werden gekild.

[ Voor 21% gewijzigd door tuxie6 op 28-11-2025 00:51 ]


  • Dannisi
  • Registratie: Februari 2005
  • Laatst online: 02:47
ComTech schreef op donderdag 27 november 2025 @ 21:52:
Ik heb hier een proxmox server met een i3 8100 draaien met een ubuntu VM daar draait docker op.
Als ik nu een grote stack maak en hij wat containers moet ophalen dan schiet de load soms enorm omhoog van de proxmox host. (1m load van 15 is geen uitzondering).
Gekke is ik heb een losse HP prodesk staan met bijna dezelfde CPU een i3 8100T maar hier draait ubuntu server headless op, als ik hier hetzelfde doe dan komt de load niet eens boven de 2 uit.
Ik heb op de proxmox server een mirror zfs met 2 samsung m.2 980 evo's .
Ram geheugen is ook genoeg 32GB en nog maar 50% gebruikt.
Iemand een idee hoe dat kan? Kan het komen door de zfs mirror ?
Wat is de IO delay in de CPU usage chart als de load hoog is? Ik heb maar heel even met ZFS gespeeld, maar dat zag ik de hoogte in gaan als ik wat data kopieerde naar een VM die ZFS gebruikte

There is no place like 127.0.0.1


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 14:11
tuxie6 schreef op vrijdag 28 november 2025 @ 00:48:
Zfs gebruikt ramcache wat zoveel procent van je ram is.
Als je andere systeem gelijk is aan de proxmox server, maar dan met ext4, brtfs, e.d
Dan lijkt mij het niet helemaal onmogelijk dat het door zfs komt.
Je kan de zfscache (arc) aanpassen in /etc/ ...... (dat ben ik even kwijt.)
ZFS on Linux gebruikt standaard de helft van het geheugen als max. (zfs_arc_max = 0)
code:
1
cat /sys/module/zfs/parameters/zfs_arc_max


Om een max van bijvoorbeeld 10GB toe te kennen aan ZFS op een lopend systeem:
code:
1
echo "$[10 * 1024*1024*1024]" > /sys/module/zfs/parameters/zfs_arc_max


Om een max van bijvoorbeeld 10GB standaard toe te kennen bij boot:
code:
1
echo "$[10 * 1024*1024*1024]" > /etc/modprobe.d/zfs

Leaping Lab Rats!


  • sailor_dg
  • Registratie: Januari 2019
  • Laatst online: 21:07
tuxie6 schreef op vrijdag 28 november 2025 @ 00:48:
Zfs gebruikt ramcache wat zoveel procent van je ram is.
Als je andere systeem gelijk is aan de proxmox server, maar dan met ext4, brtfs, e.d
Dan lijkt mij het niet helemaal onmogelijk dat het door zfs komt.
Je kan de zfscache (arc) aanpassen in /etc/ ...... (dat ben ik even kwijt.)

Er zijn meer meldingen geweest dat zfs en vm's om de ram aan het vechten waren. Waardoor het voorkwam dat er processen werden gekild.
Been there. Gebruikte ZFS voor mijn VM disks. Nu terug naar standaard SW raid met ext4

All-electric | Deye 12KSG04LP3 met 2x Yixiang V2, 32x MB31 314 Ah | Panasonic Aquarea J 5kW | Tesla MY, SmartEVSE | 8,8 kWp PV | Proxmox met HomeAssistant, Docker host, PfSense, TrueNas & Mailcow


  • ComTech
  • Registratie: November 2002
  • Laatst online: 10:16
Ondertussen even de tijd gehad om te testen, als ik de cpu verander van default(kvm) naar host nog steeds hetzelfde.

Afbeeldingslocatie: https://tweakers.net/i/LfHd24wk7O8qsVh7VNohsp--F10=/800x/filters:strip_exif()/f/image/uTUPxZYIKIdoClfyRUpgWd3r.png?f=fotoalbum_large]

Dit is de load als ik op een VM een docker compose uitvoer die wat containers binnenhaalt.
Is toch véél te hoog.
Maar er is genoeg geheugen dus waarom nog beschikbaar dus waarom dan die hoge load.
Als het door zfs komt dan ga ik hem weer opnieuw installeren zonder, enige reden dat ik dat gedaan heb ik dat ik dan een mirror kan maken als er een disk kapot gaat m'n hele systeem niet gelijk down gaat.

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 20:35

Quad

Doof

Kan je evt een disk toevoegen die niet in de ZFS pool zit? En daar de VM storage op plaatsen?

Alles went behalve een Twent.
🎯Psst.. Kans maken op 12 maanden Tweakers HERO abonnement?
nggyu nglyd


  • ComTech
  • Registratie: November 2002
  • Laatst online: 10:16
Quad schreef op vrijdag 28 november 2025 @ 20:15:
Kan je evt een disk toevoegen die niet in de ZFS pool zit? En daar de VM storage op plaatsen?
Dan is de load nog geen 2 en de IO delay amper aanwezig :)
Duidelijk een ZFS dingetje dus :'(

Maar wat is nu de "beste" storage configuratie voor mijn disk configuratie?
Ik heb 2 Sata Intel DC4500 SSD's en 2 Samsung 980 evo nvme SSD's.
Ik dacht dus de 2 sata's in mirror als boot (maar dat kan alleen als ZFS) en de 2 nvme's als mirror voor alle VM's en LXC's.

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Toen ik voor het eest wat ging proberen met Docker op Proxmox ging dat ook voor geen meter, en de oorzaak daarvan leek te zitten in de (combinatie met de) filesystem driver van Docker. Na de installatie van fuse-overlayfs (op de Docker host) liep alles ineens verrassend veel soepeler.

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20:23
dcm360 schreef op vrijdag 28 november 2025 @ 23:36:
Toen ik voor het eest wat ging proberen met Docker op Proxmox ging dat ook voor geen meter, en de oorzaak daarvan leek te zitten in de (combinatie met de) filesystem driver van Docker. Na de installatie van fuse-overlayfs (op de Docker host) liep alles ineens verrassend veel soepeler.
is het niet veel slimmer (ik ben geen docker expert!) om in Promox 9.1 direct docker images te draaien op de host?

https://dannyda.com/2025/...-pve-9-1-as-ct-templates/

dat is nieuw in versie 9.1 en voorkomt lijkt mij wat overhead omdat je geen docker host meer nodig bent in de vorm van en linux VM.

(draai zelf alles op LXC containers overigens, doe niks/.weinig met dokter)

A wise man's life is based around fuck you


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:53
Zwelgje schreef op zaterdag 29 november 2025 @ 08:03:
[...]

is het niet veel slimmer (ik ben geen docker expert!) om in Promox 9.1 direct docker images te draaien op de host?

https://dannyda.com/2025/...-pve-9-1-as-ct-templates/

dat is nieuw in versie 9.1 en voorkomt lijkt mij wat overhead omdat je geen docker host meer nodig bent in de vorm van en linux VM.

(draai zelf alles op LXC containers overigens, doe niks/.weinig met dokter)
Nog steeds een docker host nodig - de site achter de link heeft het over een LXC.

makes it run like clockwork


  • sailor_dg
  • Registratie: Januari 2019
  • Laatst online: 21:07
ComTech schreef op vrijdag 28 november 2025 @ 21:42:
[...]


Maar wat is nu de "beste" storage configuratie voor mijn disk configuratie?
Ik heb 2 Sata Intel DC4500 SSD's en 2 Samsung 980 evo nvme SSD's.
Ik dacht dus de 2 sata's in mirror als boot (maar dat kan alleen als ZFS) en de 2 nvme's als mirror voor alle VM's en LXC's.
Je kan via command line software raid gebruiken (mdadm). Ik heb mijn vm disks op een mirror staan. Mijn boot disk heeft geen redundancy. Ik heb een cold standby server met kritische vms en heb wel tijd om proxmox in geval van ellende opnieuw op te bouwen

All-electric | Deye 12KSG04LP3 met 2x Yixiang V2, 32x MB31 314 Ah | Panasonic Aquarea J 5kW | Tesla MY, SmartEVSE | 8,8 kWp PV | Proxmox met HomeAssistant, Docker host, PfSense, TrueNas & Mailcow


  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20:23
Airw0lf schreef op zaterdag 29 november 2025 @ 08:16:
[...]


Nog steeds een docker host nodig - de site achter de link heeft het over een LXC.
geen docker, die software heb je niet nodig. hij spint een LXC op en daar draait die container in.

https://www.virtualizatio...-lxc-and-new-oci-support/

maar je kan dan ook niet alles wat je met docker kan, kwestie van afwegen. performancewise lees ik her en der dat het beter moet zijn.

A wise man's life is based around fuck you


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:53
Zwelgje schreef op zaterdag 29 november 2025 @ 08:42:
[...]

geen docker, die software heb je niet nodig. hij spint een LXC op en daar draait die container in.

https://www.virtualizatio...-lxc-and-new-oci-support/

maar je kan dan ook niet alles wat je met docker kan, kwestie van afwegen. performancewise lees ik her en der dat het beter moet zijn.
De OCI-support haalt een LXC template op waarbinnen dan een applicatie draait.
Dus ja - je hebt dan niet perse Docker nodig.

Maar je hebt nog niet voor alle applicaties een LXC template.
Dus je zal op enig moment toch een Docker host nodig hebben.
Tenzij je handmatig zelf zo een VM/LXC (template?) in elkaar wil steken. :+

makes it run like clockwork


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 14:11
Er zijn geen LXC templates benodigd om OCI images te draaien in PVE 9.1. PVE haalt alleen een OCI (docker) image binnen en slaat die on the spot plat tot een LXC obv Alpine waarin het OCI image draait.

Ze geven zelf aan dat dit nog experimenteel is en het is momenteel nog niet mogelijk om op OCI gebaseerde LXC non-destructief te updaten dus ik zou het nog niet inzetten voor productie.
https://forum.proxmox.com...ci-ct.176259/#post-817595

[ Voor 9% gewijzigd door d3vlin op 29-11-2025 09:22 ]

Leaping Lab Rats!


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:53
d3vlin schreef op zaterdag 29 november 2025 @ 09:19:
Er zijn geen LXC templates benodigd om OCI images te draaien in PVE 9.1. PVE haalt alleen een OCI (docker) image binnen en slaat die on the spot plat tot een LXC obv Alpine waarin het OCI image draait.

Ze geven zelf aan dat dit nog experimenteel is en het is momenteel nog niet mogelijk om op OCI gebaseerde LXC non-destructief te updaten dus ik zou het nog niet inzetten voor productie.
https://forum.proxmox.com...ci-ct.176259/#post-817595
Potato-potahto - technisch heb je gelijk - onder de streep draait er een LXC met een applicatie.
En het verhaal rondom het OCI image heb ik even uitgelegd als een LXC-template met een pre-installed applicatie (die op dit moment niet is bij te werken met een nieuwe pull van het image - zie ook onderstaande passage).
However, in the current technology preview state of our OCI image support, all layers are squashed into one rootfs upon container creation. Because of this, you currently cannot update a container simply by swapping in a newer image. This functionality is planned as a future feature though.
Wat dan wil zeggen dat er handmatig updates gedraaid moeten worden binnen de LXC.

[ Voor 8% gewijzigd door Airw0lf op 29-11-2025 09:42 ]

makes it run like clockwork


  • TheFes
  • Registratie: Juni 2001
  • Nu online
Ik hoop dat iemand hier mij kan helpen. Ik heb een probleem met mijn Proxmox server.
Ik had een externe harde schijf gekocht, met het idee die aan mijn Fritzbox te hangen voor Fritz!NAS. Daar wilde ik dan bestanden op zetten om te delen over het netwerk. Voorheen deed ik dat via die Proxmox server, maar die staat niet altijd aan, wat soms onhandig is.

Ik had de drive aan de Fritz!Box gehangen, en gemount in Proxmox. Ik heb daarbij wat domme fouten gemaakt, en de domste was om dit rechtstreeks in Proxmox te doen en niet in een VM. De tweede fout was om niet gewoon de drive rechtstreeks te koppelen, maar dit via het netwerk te doen. De derde fout was om niet te checken of de drive goed gemount was.

Het komt er op neer dat ik dus mijn pve-root partitie helemaal vol geschreven heb met data, omdat de drive niet goed gemount was. Op een gegeven moment had ik door dat er geen data meer op de netwerk-schijf kwam, en dacht ik dat een reboot misschien zou helpen. Dat was de vierde en misschien meest cruciale fout (buiten fout 0, dat is dat ik geen backup heb).

Nu start mijn proxmox dus niet meer op. Ik heb al via Gparted die fout gekopieerde gegevens weggehaald uit de pve-root partitie, maar dat helpt niet.
Het belangrijkste voor mij is momenteel om die gegevens veilig te stellen, ik probeerde dat ook via Gparted te doen, maar ik heb ZFS shares gemaakt en krijg die nu niet gemount. Het liefst zou ik Proxmox weer gewoon starten, maar ik weet niet meer hoe.

Heeft iemand ideeën, suggesties wat dan ook?

Home Assistant configuratie


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:53
@TheFes - ik hoop dat je er nog bij kunt via ssh of via een aangesloten scherm en toetsenbord... :+

Wat is de output van cat /etc/pve/storage.cfg?
Data in de boot/root disk wordt meestal weggeschreven in /var/lib/vz - als het bij jou anders is moet dat terug te vinden in dat storage.cfg bestandje.

Ik weet het niet 100% zeker - maar ik dacht dat Proxmox zijn config bewaard in /etc/ove/nodes/<host-name>.
En daar een kopie van maakt bij het opstarten.

Het lijkt erop alsof er geen ruimte meer is voor het maken van die kopie waardoor pve niet meer start.
Afhankelijk van wat je aantreft in storage.cfg is er wellicht een mogelijkheid om wat ruimte te maken.
Waardoor pve weer gestart kan worden.

makes it run like clockwork


  • Thomas H
  • Registratie: Maart 2001
  • Laatst online: 03-12 20:39
CoPilot aangezwengeld, stappen klinken niet onlogisch:
## ✅ **Stap 1: Boot in een Live-omgeving**
* Gebruik een **Ubuntu Live ISO** of de **Proxmox ISO in rescue-modus**.
* Start vanaf USB en kies voor een shell.
## ✅ **Stap 2: Installeer ZFS-tools**
Als je een Ubuntu Live gebruikt:
code:
1
2
sudo apt update
sudo apt install zfsutils-linux

## ✅ **Stap 3: Controleer en importeer ZFS-pool**
* Bekijk beschikbare pools:
code:
1
sudo zpool import

* Importeer jouw pool (vervang `<poolnaam>`):
code:
1
sudo zpool import -f <poolnaam>

* Controleer of alle datasets gemount zijn, en zo niet, mount je deze:
code:
1
2
zfs list
sudo zfs mount -a

Nu kun je je data kopiëren naar een externe schijf of NAS:
code:
1
rsync -av /<mountpoint> /media/externe-schijf/

## ✅ **Stap 4: Ruimte vrijmaken op root**
1. **Start vanaf een Live-ISO**
* Gebruik bijvoorbeeld **Ubuntu Live** of de **Proxmox ISO** in rescue-modus.
* Kies voor een shell/terminal.
2. **Mount je root-partitie**
Eerst moet je de Proxmox root-partitie mounten om toegang te krijgen:
code:
1
2
sudo mkdir /mnt/proxmox
    sudo mount /dev/sdX /mnt/proxmox

(Vervang `/dev/sdX` door jouw rootdisk, bijvoorbeeld `/dev/sda2`.)
3. **Chroot naar je Proxmox-installatie**
Dit geeft je een omgeving alsof je in Proxmox zelf zit:
code:
1
sudo chroot /mnt/proxmox

* Check hoeveel ruimte er is:
code:
1
df -h

* Verwijder grote logbestanden:
code:
1
sudo journalctl --vacuum-size=100M

* Zoek grote bestanden:
code:
1
sudo du -sh /* | sort -h

* Eventueel tijdelijk een extra disk mounten op `/var/lib/vz`:
code:
1
mount /dev/sdX /var/lib/vz

## ✅ **Stap 5: Proxmox opnieuw starten**
Als er genoeg ruimte is vrijgemaakt:
code:
1
sudo reboot
Modbreak:Volledig door AI gegenereerde tekst staan we niet toe. Iedereen kan dat dus dan heeft een forum geen toegevoegde waarde. Volgende keer graag je eigen tekst gebruiken

[ Voor 5% gewijzigd door br00ky op 30-11-2025 15:50 ]


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 04-12 12:45
Zwelgje schreef op zaterdag 29 november 2025 @ 08:42:
[...]


geen docker, die software heb je niet nodig. hij spint een LXC op en daar draait die container in.

https://www.virtualizatio...-lxc-and-new-oci-support/

maar je kan dan ook niet alles wat je met docker kan, kwestie van afwegen. performancewise lees ik her en der dat het beter moet zijn.
Ik vind dit een interessante ontwikkeling. Maar ik denk niet dat je er veel bestaande setups er door kan vervangen. Daar is het nog te beperkt voor. Het "enige" wat het doet is een Docker image converteren naar een LXC. Docker is wel iets meer dan dat :p

Ik denk ook dat het performance verschil miniem gaat zijn. Je haalt er de virtualisatie laag tussen uit maar dat scheelt maar een paar procent.

https://dontasktoask.com/


  • TheFes
  • Registratie: Juni 2001
  • Nu online
@Airw0lf@Thomas H
Bedankt voor de hulp, het is gelukt.
Het probleem bleek uiteindelijk dat ik de data verwijderd had, maar dus ook de folder waarin ik de netwerk schijf gemount had. Die mount stond echter nog wel in /etc/fstab en het ging dus fout als hij die mount wilde gaan doen. Nadat ik die regel verwijderd had werkte alles weer.

Nu maar eens goede backups regelen :)

Home Assistant configuratie


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 20:35

Quad

Doof

Voor de fstab binnen PVE voeg ik nofail toe aan de regels. Als de mount niet beschikbaar is start PVE in elk geval door.

Alles went behalve een Twent.
🎯Psst.. Kans maken op 12 maanden Tweakers HERO abonnement?
nggyu nglyd


  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:21
Dat vind ik altijd al een nadeel aan het systeem van mounten.
Als voor één of andere reden je mount niet lukt, is er geen failsafe die verhindert dat je dan gaat schrijven naar een lege map op je root partitie.
En eerst een aparte kleine partitie maken bv /opt en daar dan al je mountpoint zetten enkel en alleen om te vermijden dat je root FS volloopt bij zo'n situatie is ook omslachtig.

  • lolgast
  • Registratie: November 2006
  • Laatst online: 18:42
@GoBieN-Be Als je daar bang voor bent moet je een failsafe voor jezelf inbouwen :)
mountpoint -q /mnt/MOUNTFOLDER && cp /source/file /mnt/MOUNTFOLDER/

mountpoint -q geeft een 0 terug als de opgegeven directory geen mountpoint is en dus gaat alles vanaf de ‘&&’ niet lopen

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 14:11
orvintax schreef op zondag 30 november 2025 @ 15:12:
Ik denk ook dat het performance verschil miniem gaat zijn. Je haalt er de virtualisatie laag tussen uit maar dat scheelt maar een paar procent.
Het scheelt vooral een hoop overhead/resources.

Leaping Lab Rats!


  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 20:54
@GoBieN-Be

Wat volgens mij helpt is om het mountpoint immutable te maken met chattr +i
Mounten lukt dan wel, maar er iets naartoe schrijven zonder geslaagde mount niet.

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:21
Goede tip, zal ik onthouden.

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 19:38
Ik weet niet of een ieder al Pulse en/of PatchMon heeft ontdekt, maar het geeft een heel mooi overzicht van je hosts, vm's, containers, de usage, backups en updates weer.

Doe er je voordeel mee :)

  • Liegebeest
  • Registratie: Februari 2002
  • Laatst online: 15:32
RudolfR schreef op zondag 30 november 2025 @ 21:29:
@GoBieN-Be

Wat volgens mij helpt is om het mountpoint immutable te maken met chattr +i
Mounten lukt dan wel, maar er iets naartoe schrijven zonder geslaagde mount niet.
Dat is een hele mooie, ja!

Simpel en netjes.

Liege, liege, liegebeest!


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Ik heb die Pulse even geprobeerd. Werkt. Even rommelen met api keys etc maar het werkt.

Nu wil ik, zoals altijd, een statisch ip-adres toewijzen maar dat lijkt op geen enkele voor mij bekende manier mogelijk. /etc/network/interfaces lijkt hij niet op te slaan. Root toegang doe ik via de pve-Shell. (Pct)

Iemand een tip?

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 20:35

Quad

Doof

Een LXC?
Die kan je aanpassen in de network tab van de PVE GUI.

Alles went behalve een Twent.
🎯Psst.. Kans maken op 12 maanden Tweakers HERO abonnement?
nggyu nglyd


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 04-12 12:45
d3vlin schreef op zondag 30 november 2025 @ 21:24:
[...]


Het scheelt vooral een hoop overhead/resources.
Ik ben erg benieuwd waar je dit op baseerd.

Proxmox gebruikt namelijk QEMU KVM wat CPU instructiesets zoals VT-x vereist. Hierdoor is er geen softwarematige emulatie laag nodig voor een hoop hardware. Voor zaken zoals netwerk en opslag word dan weer VirtIO gebruikt, wat ook weer een hoop emulatie weghaalt:
Virtio is a virtualization standard for network and disk device drivers where just the guest's device driver "knows" it is running in a virtual environment, and cooperates with the hypervisor. This enables guests to get high performance network and disk operations, and gives most of the performance benefits of paravirtualization.
Met andere woorden het efficientie verschil door het gebruik van een VM is over het algemeen miniem. Althans zover ik weet. Maar ik hoor graag als dat niet zo is :)

[ Voor 3% gewijzigd door orvintax op 01-12-2025 20:20 ]

https://dontasktoask.com/


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Quad schreef op maandag 1 december 2025 @ 20:18:
Een LXC?
Die kan je aanpassen in de network tab van de PVE GUI.
Dat heb ik wel gezien. Ik werk heel ouderwets met VM’s normaal gesproken maar dit is idd een LXC.

[ Voor 4% gewijzigd door Gunner op 01-12-2025 20:37 ]

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 20:35

Quad

Doof

Gunner schreef op maandag 1 december 2025 @ 20:37:
[...]

Dat heb ik wel gezien. Ik werk heel ouderwets met VM’s normaal gesproken maar dit is idd een LXC.
Klopt, het kan wat gek overkomen, maar zo werkt het wel voor een LXC. :)
Je kan ook eenvoudig meerdere adapters toewijzen en instellen. Zo heb ik bijv op TrueNAS een interne bridge adapter toegekend, mijn fstab mounts en PBS kijken bijvoorbeeld naar dat ip, zo routeert het niet via de gateway maar rechtstreeks.

Alles went behalve een Twent.
🎯Psst.. Kans maken op 12 maanden Tweakers HERO abonnement?
nggyu nglyd


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 14:11
orvintax schreef op maandag 1 december 2025 @ 20:18:
[...]

Ik ben erg benieuwd waar je dit op baseerd.

Proxmox gebruikt namelijk QEMU KVM wat CPU instructiesets zoals VT-x vereist. Hierdoor is er geen softwarematige emulatie laag nodig voor een hoop hardware. Voor zaken zoals netwerk en opslag word dan weer VirtIO gebruikt, wat ook weer een hoop emulatie weghaalt:

[...]

Met andere woorden het efficientie verschil door het gebruik van een VM is over het algemeen miniem. Althans zover ik weet. Maar ik hoor graag als dat niet zo is :)
Het scheelt sowieso een Docker laag qua resources en onderhoud. ;) Daarnaast heeft een volwaardige VM met compleet OS in mijn ervaring meer CPU en vooral meer RAM nodig dan een Alpine LXC (waarop de PVE 9.1 OCI LXC containers blijkbaar gebaseerd zijn).

Los van het updaten van de OCI images zelf ben ik trouwens ook wel benieuwd hoe het updaten van Alpine dan gaat verlopen.

[ Voor 6% gewijzigd door d3vlin op 01-12-2025 21:29 ]

Leaping Lab Rats!


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Quad schreef op maandag 1 december 2025 @ 20:40:
[...]

Klopt, het kan wat gek overkomen, maar zo werkt het wel voor een LXC. :)
Je kan ook eenvoudig meerdere adapters toewijzen en instellen. Zo heb ik bijv op TrueNAS een interne bridge adapter toegekend, mijn fstab mounts en PBS kijken bijvoorbeeld naar dat ip, zo routeert het niet via de gateway maar rechtstreeks.
Dank voor het toelichten hoe een LXC werkt. Ik ga er even mee rommelen.

edit: het werkt :henk o<:)

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • ComTech
  • Registratie: November 2002
  • Laatst online: 10:16
Ik heb na aanleiding van wat problemen met ZFS een mdadm raid gemaakt van mijn 2 nvme disks.
Dat werkt allemaal prima maar ik zag naast de nieuw gemaakte md0 ook nog 2 andere staan.

code:
1
2
3
4
5
6
7
8
9
md1 : active raid1 zd16p2[0]
      2096128 blocks super 1.2 [8/1] [U_______]
      
md2 : active raid1 zd16p5[0]
      115104640 blocks super 1.2 [1/1] [U]
      
md0 : active raid1 nvme1n1[1] nvme0n1[0]
      976630464 blocks super 1.2 [2/2] [UU]
      bitmap: 2/8 pages [8KB], 65536KB chunk


Details van md2 (md1 is bijna hetzelfde).
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
/dev/md2:
           Version : 1.2
     Creation Time : Sat Oct 25 15:10:19 2025
        Raid Level : raid1
        Array Size : 115104640 (109.77 GiB 117.87 GB)
     Used Dev Size : 115104640 (109.77 GiB 117.87 GB)
      Raid Devices : 1
     Total Devices : 1
       Persistence : Superblock is persistent

       Update Time : Wed Dec  3 20:21:38 2025
             State : clean 
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : Xpenology:2
              UUID : 30557c32:ac7bf406:0c6c001b:101b8d34
            Events : 12

    Number   Major   Minor   RaidDevice State
       0     230       21        0      active sync   /dev/zd16p5


Ik heb een xpenology VM draaien maar kan toch niet dat op de proxmox host een raid daarvan zichtbaar is.

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 14:11
Proxmox Datacenter Manager 1.0 is uit.
https://forum.proxmox.com...anager-1-0-stable.177321/

Leaping Lab Rats!


  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 10:11

zeroday

There is no alternative!

ik had de eerste beta geinstalleerd en toen maar weer verlaten want vond het niet zo 1-2-3 een directe toevoeging aan de normale datacenter ..
maar goed .. zojuist even snel een VM aangemaakt en geinstalleerd.

installatie was zo gepiept maar met een cluster toch een beetje tricky weer dat je niet valt voor de config van alle nodes.. Je pakt er maar 1 en dan krijg je je cluster te zien.. Dat vind ik nog steeds een beetje knullig, maar als je dat al een keer hebt meegemaakt valt het kwartje snel ..

certificaat moest ik even over nadenken want dat is weer in stukken opgedeeld maar nu kun je een wildcard aanmaken, alleen die wordt zover ik zie alleen voor de datacenter gebruikt ..

Ik had toch meer als een tool willen zien dat ik snel via de datacenter 1x ergens op kan drukken en dat dan alle nodes in dat cluster bijv. die update krijgen ..

maar goed.. versie 1.0 is uit .. we laten het nu maar draaien ;)

There are no secrets, only information you do not yet have

Pagina: 1 ... 62 63 Laatste