• dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Op zich is het ook helemaal niet nodig om zelf iets te doen met de SSH host key. Zodra je een container aanmaakt op basis van een template, zal Proxmox een nieuwe host key genereren voor de container.

  • MakhouT
  • Registratie: September 2016
  • Laatst online: 03-12 20:36
dcm360 schreef op zaterdag 25 oktober 2025 @ 12:56:
Op zich is het ook helemaal niet nodig om zelf iets te doen met de SSH host key. Zodra je een container aanmaakt op basis van een template, zal Proxmox een nieuwe host key genereren voor de container.
Dat dacht ik ook, maar ik weet niet waarom ik deze error dan krijg als ik clone van mijn template. Ik heb geen idee meer :|

  • MakhouT
  • Registratie: September 2016
  • Laatst online: 03-12 20:36
Dutchess_Nicole schreef op zaterdag 25 oktober 2025 @ 11:35:
Bash:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
echo "???? Setting up SSH key regeneration service..."
cat > /etc/systemd/system/regenerate-ssh-keys.service << 'SERVICEEOF'
[Unit]
Description=Regenerate SSH host keys on first boot
After=multi-user.target
ConditionPathExists=!/etc/ssh/ssh_host_rsa_key

[Service]
Type=oneshot
ExecStart=/usr/bin/ssh-keygen -A
ExecStartPost=/bin/systemctl restart ssh
RemainAfterExit=yes

[Install]
WantedBy=multi-user.target
SERVICEEOF

systemctl enable regenerate-ssh-keys.service

Doe hiertussen ook nog even een systemctl daemon-reload. Je probeert nu een service te enablen waar systemd nog niet van weet.
Zal dat eens proberen just in case

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Wacht eens, wat ben je nu precies aan het doen? Je hebt het over een template en over een clone-actie, maar clone is niet een actie die ik associeer met templates. Wat jij een template noemt is dan een bestaande container? In dat geval zou ik aanraden om de container om te zetten naar een template, en via de standaard create wizard het template te gebruiken.

  • MakhouT
  • Registratie: September 2016
  • Laatst online: 03-12 20:36
dcm360 schreef op zaterdag 25 oktober 2025 @ 14:59:
Wacht eens, wat ben je nu precies aan het doen? Je hebt het over een template en over een clone-actie, maar clone is niet een actie die ik associeer met templates. Wat jij een template noemt is dan een bestaande container? In dat geval zou ik aanraden om de container om te zetten naar een template, en via de standaard create wizard het template te gebruiken.
Ok misschien even een stapje teruggaan, want ik ben nog wel een leek in de proxmox wereld. Dus kan zijn dat ik nog wat verkeerd heb gedaan?
Stappenplan:
1. Ik heb een nieuwe LXC gemaakt met ipv4 static 192.168.1.7/24 en met id 500
2. In die nieuwe LXC heb ik mijn script gerund om mijn default tools te installeren. Deze tools (npm, node, zsh, etc) wil ik telkens ik een nieuwe LXC aanmaak dat die er standaard al opstaan.
3. Shutdown de LXC
4. Eenmaal uitgeschakeld, convert ik de LXC naar een template (rechtermuis op de LXC en convert to template)
5. Dan maak ik een nieuwe LXC aan gebaseerd op deze template. Dat doe ik dan ook vervolgens met rechtermuis op de template dat ik heb aangemaakt en daar staat letterlijk clone. Als ik die aanklik komt er een popup om een naam en mode te selecteren (ik heb tot nu toe altijd de 'full clone' mode gekozen)
6. Voor ik de nieuwe LXC opstart verander ik nog snel even het ipv4 adres.
7. Start de nieuwe LXC op en dan probeer ik te ssh'en naar deze nieuwe LXC maar dan krijg ik die fout
code:
1
2
3
ssh root@192.168.1.8
kex_exchange_identification: read: Connection reset by peer
Connection reset by 192.168.1.8 port 22


Dat is ongeveer het process dat ik nu toe. Doe ik wat verkeerd dan?
Ik heb nog even een screenshotje erbij gezet wat ik exact te zien krijg in een LXC template menu
Afbeeldingslocatie: https://tweakers.net/i/0CwGWAYc5KqsmiOZNtF7nDCgz3k=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/TA0F6ieTF0ulHEtVqU0tSYUj.png?f=user_large
Afbeeldingslocatie: https://tweakers.net/i/OAkQ31Cc-4lKsOELBF19-yJiA-c=/800x/filters:strip_exif()/f/image/CprohAjuJQdKcoVZ9L37V7a2.png?f=fotoalbum_large

  • lolgast
  • Registratie: November 2006
  • Laatst online: 21:56
Misschien moet je het preppen dan op zijn minst via ‘pct enter 500’ doen, ipv SSH te gebruiken en daardoor eigenlijk je profiel te vervuilen. Een template moet zo min mogelijk statische data bevatten. Feit dat je een fixed IP toekent aan een te preppen vind ik ook ‘onverstandig’

  • MakhouT
  • Registratie: September 2016
  • Laatst online: 03-12 20:36
lolgast schreef op zondag 26 oktober 2025 @ 07:55:
Misschien moet je het preppen dan op zijn minst via ‘pct enter 500’ doen, ipv SSH te gebruiken en daardoor eigenlijk je profiel te vervuilen. Een template moet zo min mogelijk statische data bevatten. Feit dat je een fixed IP toekent aan een te preppen vind ik ook ‘onverstandig’
Ik ben akkoord met wat je zegt dat een template zo min mogelijk statische data moet bevatten. Dat is inderdaad een goed punt van die static ip, die pas ik nog aan en ik ga inderdaad eens proberen via pct enter 500 proberen te doen (ik ga een nieuwe template aanmaken en het opnieuw proberen)
Ter verduidelijking: Ik heb SSH niet gebruikt om de template te preppen, ik ben direct via proxmox webui naar de LXCs console gegaan en van daaruit zitten werken. Echter wil ik gewoon dat elke nieuwe LXC standaard in gessht kan worden. Ik probeer je suggestie uit en rapporteer terug met een update :)
Dank je wel voor de tips

  • stormfly
  • Registratie: Juli 2001
  • Laatst online: 22:34
MakhouT schreef op zondag 26 oktober 2025 @ 22:01:
[...]

Ik ben akkoord met wat je zegt dat een template zo min mogelijk statische data moet bevatten. Dat is inderdaad een goed punt van die static ip, die pas ik nog aan en ik ga inderdaad eens proberen via pct enter 500 proberen te doen (ik ga een nieuwe template aanmaken en het opnieuw proberen)
Ter verduidelijking: Ik heb SSH niet gebruikt om de template te preppen, ik ben direct via proxmox webui naar de LXCs console gegaan en van daaruit zitten werken. Echter wil ik gewoon dat elke nieuwe LXC standaard in gessht kan worden. Ik probeer je suggestie uit en rapporteer terug met een update :)
Dank je wel voor de tips
Krijgen ze wel een uniek MAC adres?

  • Liegebeest
  • Registratie: Februari 2002
  • Laatst online: 20:34
@MakhouT om te zien wat er fout gaat zal je toch echt op de container moeten inloggen.

Draait de SSH daemon überhaupt? Wederom: kan je naar localhost SSHen? Zo nee dan draait je SSH daemon gewoon niet goed en moet je kijken wat je fout hebt gedaan. Op welke wijze heb je er bijvoorbeeld voor gezorgd dat ie zou opstarten?

Liege, liege, liegebeest!


  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 20:47
Even een vraagje ivm storage in proxmox. Ik heb recent 4 HP EliteDesk 800 G4 mini pc's op de kop kunnen tikken. Hier wil ik graag een HA cluster + 1 PBS mee draaien. Er is plaats voor 2 nvme SSD's in elke pc.

Ik had nog 2 WD RED nvme's liggen van 500 gb elk. Deze heb ik in 1 van de pc's gestoken en dan tijdens de proxmox installatie gekozen voor ZFS mirrored.

Maar ik vraag me af of dat een slimme keuze is? Of was het beter geweest om 1 nvme met ext4 te gebruiken voor proxmox en dan de andere als zfs, met replication over alle nodes?

Ik ga niet veel draaien, voornamelijk Home Assistant, pi-hole, nginx.

Hoe zouden jullie dit doen?

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 04-12 12:45
dotcom87 schreef op maandag 27 oktober 2025 @ 17:36:
Even een vraagje ivm storage in proxmox. Ik heb recent 4 HP EliteDesk 800 G4 mini pc's op de kop kunnen tikken. Hier wil ik graag een HA cluster + 1 PBS mee draaien. Er is plaats voor 2 nvme SSD's in elke pc.

Ik had nog 2 WD RED nvme's liggen van 500 gb elk. Deze heb ik in 1 van de pc's gestoken en dan tijdens de proxmox installatie gekozen voor ZFS mirrored.

Maar ik vraag me af of dat een slimme keuze is? Of was het beter geweest om 1 nvme met ext4 te gebruiken voor proxmox en dan de andere als zfs, met replication over alle nodes?

Ik ga niet veel draaien, voornamelijk Home Assistant, pi-hole, nginx.

Hoe zouden jullie dit doen?
"beter" is geen universeel iets. Klinkt misschien flauw maar alles heeft simpelweg voordelen en nadelen. Alhoewel ik hier toch ga moeten zeggen dat ik geen enkel voordeel kan bedenken om die twee schijven te isoleren.

Het grote nadeel hiervan, los van welk bestandsysteem je gebruikt, is dat je geen RAID meer hebt. Je kunt voor alle duidelijkheid die niet op dat niveau combineren. Daarnaast is replication perfect mogelijk met een ZFS mirror.

Zelf vind ik (en vele andere ;)) ZFS een ontzettend robuust bestandsysteem. Wat ik persoonlijk de belangrijkste eigenschap vind voor een server omgeving,

[ Voor 3% gewijzigd door orvintax op 28-10-2025 22:59 . Reden: Zinsbouw ]

https://dontasktoask.com/


  • MakhouT
  • Registratie: September 2016
  • Laatst online: 03-12 20:36
Liegebeest schreef op maandag 27 oktober 2025 @ 09:06:
@MakhouT om te zien wat er fout gaat zal je toch echt op de container moeten inloggen.

Draait de SSH daemon überhaupt? Wederom: kan je naar localhost SSHen? Zo nee dan draait je SSH daemon gewoon niet goed en moet je kijken wat je fout hebt gedaan. Op welke wijze heb je er bijvoorbeeld voor gezorgd dat ie zou opstarten?
Excuses voor de late reactie! Ik was er niet meer gekomen dmv thuis situatie.
Ik heb ondertussen ook de oorzaak gevonden!
De static IP dat ik had toegewezen aan mijn LXC was al in gebruik door een andere smart device in mijn netwerk. Mystery solved dus :)
Ik heb een nieuwe LXC gemaakt met een ander IP en dan werkt het instantly wel. Nu moet ik het nog converteren naar een template en dan nog eens proberen. Zal voor de komende dagen zijn. Ik hou je op de hoogte!

  • makaa
  • Registratie: November 2011
  • Laatst online: 21:26
Allen,

Op dit moment draaien er vijf LXC-containers op basis van de scripts van https://community-scripts.github.io/ProxmoxVE/ op mijn host.
Deze containers maken nog gebruik van Debian Bullseye (versie 11). De Proxmox-host heb ik enkele weken geleden geüpgraded naar PVE 9.0.11, gebaseerd op Debian Trixie (versie 13).

Ik wil nu de individuele containers upgraden naar Trixie. Heeft iemand ervaring met dit proces of kan iemand aangeven wat de aanbevolen werkwijze is?

  • Niekniek89
  • Registratie: April 2015
  • Laatst online: 19:35
makaa schreef op vrijdag 7 november 2025 @ 10:30:
Allen,

Op dit moment draaien er vijf LXC-containers op basis van de scripts van https://community-scripts.github.io/ProxmoxVE/ op mijn host.
Deze containers maken nog gebruik van Debian Bullseye (versie 11). De Proxmox-host heb ik enkele weken geleden geüpgraded naar PVE 9.0.11, gebaseerd op Debian Trixie (versie 13).

Ik wil nu de individuele containers upgraden naar Trixie. Heeft iemand ervaring met dit proces of kan iemand aangeven wat de aanbevolen werkwijze is?
Wellicht heb je hier wat aan:

https://github.com/commun...roxmoxVE/discussions/7489

Echter, nog lang niet alle scripts zijn klaar voor debian 13, zie onderstaande URL over de status/tests van LXC scripts en Trixie:

https://github.com/commun...roxmoxVE/discussions/7485

  • makaa
  • Registratie: November 2011
  • Laatst online: 21:26
Bedank @Niekniek89 , ik ga ermee aan de slagq

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 23:41
Ik heb zo goed als alles kunnen upgraden naar Trixie, behalve Wireguard en NginxProxyManager, hier moet ik later nog eens naar kijken wat nu precies het issue is.

Let op, dit is wel van Debian 12 naar 13, ik weet ook niet of van 11 naar 13 wel eens ondersteund wordt.

[ Voor 25% gewijzigd door Theetjuh op 07-11-2025 15:00 ]


  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Direct van 11 naar 13 upgraden zal je nergens aangeraden worden, het is gebruikelijk om als tussenstap eerst de upgrade naar 12 te doen. Al is het alleen maar omdat het makkelijk is om informatie te vinden als er iets misloopt, want alles wat er mis kan gaan van 11 naar 12 is wel bekend, en ook van 12 naar 13 zullen de grootste valkuilen en problemen wel beschreven zijn.

  • RobbieT
  • Registratie: Augustus 2007
  • Laatst online: 21:41
DarkAllMan schreef op donderdag 23 oktober 2025 @ 09:30:
Misschien heeft iemand deze situatie ook. Ik draai nog niet heel lang op Proxmox, maar tot op heden ben ik er super blij mee. Ik heb Kuma Uptime draaien als LXC via een helper script.
Nu is er een flinke release (2.0). Als ik een upgrade doe binnen de LXC dan werkt het niet meer. (langleve snapshots)
Kuma-Uptime server geeft alleen maar deze melding in error log:

code:
1
Error [ERR_SERVER_NOT_RUNNING]: Server is not running. at Server.close (node:net:2359:12) at Object.onceWrapper (node:events:633:28) at Server.emit (node:events:531:35) at emitCloseNT (node:net:2419:8) at process.processTicksAndRejections (node:internal/process/task_queues:89:21) { code: 'ERR_SERVER_NOT_RUNNING' }


Hoe kan ik upgraden zonder dat ik alles sloop :)
Ik had hetzelfde.
Bij mij was het issue dat de CT niet voldoende ruimte had voor de conversie naar de nieuwe versie en daarmee vastliep.

De oplossing was dus om eerst de CT groter te maken met een pctresize.
Daarna liep de update wel, de conversie duurt alleen vrij lang.

code:
1
pct resize 105 rootfs 10G

  • nassau
  • Registratie: December 2000
  • Laatst online: 22:32
Ik had hetzelfde.
Bij mij was het issue dat de CT niet voldoende ruimte had voor de conversie naar de nieuwe versie en daarmee vastliep.

De oplossing was dus om eerst de CT groter te maken met een pctresize.
Daarna liep de update wel, de conversie duurt alleen vrij lang.
Tip: voor de update voer een SHRINK DATABASE uit (instellingen menu) in Kuma. Maakt je conversie stukken sneller. Eventueel te combineren met het verminderen van het aantal dagen retentie in de historie.

Het conversieproces gaat namelijk iets van 32 passes maken over alle dagen in je historie. Dat duurde bij mij meer dan 1 uur... Terwijl 14 dagen eigenlijk genoeg is voor mij (stond op 90).

[ Voor 2% gewijzigd door nassau op 11-11-2025 11:08 . Reden: spelling ]


  • witchdoc
  • Registratie: Juni 2000
  • Laatst online: 02-12 17:26
Ik heb momenteel PVE draaien op een enkele minisforum ms-a2.
Zeker krachtig genoeg, maar als dat ding ooit ontploft heb ik wel een serieus probleem aangezien daar nu al FW en NAC op gevirtualiseerd staat en naar de toekomst toe hopelijk ook nog DNS, email en web server etc bij komt.

Nu draait zowel het OS als de VMs zelf op een ZFS pool met 2 mirrored NVME SSD's. Niet ideaal tenzij je net wat HA log dingen disabled begrijp ik ondertussen.
Als ik nu toch een 2e servertje wil bijplaatsen. Split ik dan toch echt best eerste die OS en VM uit elkaar? Als ik dat doe kan ik niet beide redundante disks geven (maar 3 NVME slots).

Als ik dat uitgeklaard heb..wat dan? HA met een 2e lower-end node en een 3e écht low-end node (pihole achtig ding?) puur voor quorum?
Heb ook niet voldoende 10Gbps interfaces meer.. Zou node 3 dus ook met 1Gbpswillen annsluiten, dat kan?
Kan ik dan premption op node 1 zetten zodat deze altijd baas is en bij een issue altijd naar node2 gaan? En bij herstel automatisch terug naar node 1?
Hoe snel is dit bij een failure?

Heeft Ceph dan nog voordelen (met 2 performate nodes) of blijf ik daar beter van weg? Begrijp ik dat met ceph de redundancy gewoon nog sneller is?

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:21
Je kan ook gewoon je 2de (lichtere host) uitrusten met PBS en dus een standby host hebben, waarmee je snel kan restoren en terug online geraken in geval van disaster. Dan heb je geen nood aan een 3 host voor quorum. Hangt af van de wensen/eisen.

Ceph is een distributed storage systeem, waarbij de storage laag shared wordt bovenop het cluster. Afhankelijk van hoe je de redundantie instelt moet iedere write dan wel naar al de hosts, en zou die met de trage NIC een serieuze bottleneck vormen op je schrijfsnelheden. 1 Gbps is theoretisch maximum 125 MB/s schrijven.

Wat betreft HA en logs, het is toch enkel voor SD kaarten funest al dat schrijven? Bij SSD heb je toch meestal grote TBW waardes. Ik heb in ieder geval niks speciaals gedaan voor HAOS die op SSD's draait.
Ik heb ook een host met 2 NVMe in ZFS mirror voor zowel OS als VM storage.

  • tjanssen
  • Registratie: Augustus 2012
  • Niet online
@witchdoc eens met @GoBieN-Be . Ik zou wel zorgen dat je fatsoenlijke SSDs gebruikt, zeker als je ZFS is mirror gebruikt. Een goedkope consumenten SSD heeft heeft grote kans zo'n hoge IO delay dat bij zelfs een minimale IOPS je hele systeem onderuit getrokken wordt. Als je bv een WD Red SSD pakt dan heb je hier niet zo snel last van.

  • zx9r_mario
  • Registratie: Oktober 2004
  • Laatst online: 22:53
Je kunt met 2 servers een simpele HA bouwen dmv ZFS replicatie. Om de kwartier wordt een ZFS sync gedaan naar de 2e server. Voor CEPH heb je 3 servers nodig met 10Gbit interfaces.

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 20:20
tjanssen schreef op zondag 16 november 2025 @ 19:23:
@witchdoc eens met @GoBieN-Be . Ik zou wel zorgen dat je fatsoenlijke SSDs gebruikt, zeker als je ZFS is mirror gebruikt. Een goedkope consumenten SSD heeft heeft grote kans zo'n hoge IO delay dat bij zelfs een minimale IOPS je hele systeem onderuit getrokken wordt. Als je bv een WD Red SSD pakt dan heb je hier niet zo snel last van.
Proxmox draait hier als een zonnetje met ZFS mirror op 2 Samsung EVO 860 SATA SSD's.

Leaping Lab Rats!


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 20:20
zx9r_mario schreef op zondag 16 november 2025 @ 20:54:
Je kunt met 2 servers een simpele HA bouwen dmv ZFS replicatie. Om de kwartier wordt een ZFS sync gedaan naar de 2e server. Voor CEPH heb je 3 servers nodig met 10Gbit interfaces.
Precies dit. 2 Proxmox nodes die onderling repliceren en een lower power QDevice voor quorum. En dan PBS in een LXC voor automatische backups.

Leaping Lab Rats!


  • witchdoc
  • Registratie: Juni 2000
  • Laatst online: 02-12 17:26
@GoBieN-Be , @tjanssen, @zx9r_mario
Mijn idee was:
main node #1: Minisforum ms-a2 met AMD Ryzen™ 9 9955HX (Zen 5, 16 cores, 32 threads, 64M L3 cache, up to 5.4 GHz)
backup node #2: Minisforum ms-a2 met AMD Ryzen™ 9 7945HX (Zen 4, 16 cores, 32 threads, 64M L3 cache, up to 5.4 GHz)
quorum node #3: Raspberry Pi of dergelijks

Node #1 altijd up, node #2 enkel als backup en node #3 de Raspberry Pi die dus niks doet behalve aan node #2 meedelen dat node #1 echt down is en hij dus baas mag gaan spelen. Dat is dus (met Ceph geen optie?

Samsung 990 PRO zitten er in, maar of dat nu goeie zijn voor dit soort applicatie.. who knows.

Korte samanvattign zoals ik het dan begrijp:
Ceph,
- het echte vmotion verhaal
- moet 3 hosts met gelijkaardige storage en networking hebben

ZFS Cluster,
- reboot VM bij migratie naar andere host
- delayed redundancy
- kan werken met slechts 2 hosts met gelijkaardige storage en networking

Backups push ik nu al naar NFS mount op Synology NAS. Wat zou PBS meer/beter doen?

[ Voor 22% gewijzigd door witchdoc op 17-11-2025 13:32 ]


  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:21
Met PBS heb je o.a. incremental back-ups, deduplication en de mogelijkheid tot live restore, waarbij de VM al start vanaf de back-up storage (dit laatste enkel via CLI dacht ik).

Zoals @zx9r_mario zegt kan je ook storage replication doen (enkel met ZFS datastores) en dat repliceert dan een kopie van je VM/CT disks naar een 2de host op een vast interval. Als je ook automatisch de VM wil kunnen starten op de 2de host heb je een cluster met HA nodig.

Met Ceph heb je geen storage replication, maar een distributed storage systeem (shared storage) die in realtime de data spreidt over meerdere nodes in de cluster. Houd er rekening mee dat Ceph redelijk wat CPU & Memory overhead heeft. Wederom heb je HA nodig om de VM's terug op te starten op een andere host.

In beide gevallen heb je met 2 hosts een 3de nodig als scheidsrechter (quorum).

Ceph is ontworpen om met raw disks te werken en gebruikt zijn eigen filesystem.
Als je slechts 2 NVMe SSD's in je host hebt, dan heb je 1 nodig om Proxmox te installeren en dan kan je de andere toevoegen aan Ceph.

Maar ik ben zelf nog een beginner, dus RTM:
https://docs.ceph.com/en/latest/start/
https://docs.ceph.com/en/...hardware-recommendations/
https://pve.proxmox.com/w...h_Cluster#chapter_pveceph

[ Voor 11% gewijzigd door GoBieN-Be op 17-11-2025 19:27 ]


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 20:20
witchdoc schreef op maandag 17 november 2025 @ 13:16:
Backups push ik nu al naar NFS mount op Synology NAS. Wat zou PBS meer/beter doen?
YouTube: You should be using Proxmox Backup Server
YouTube: Proxmox Backup Server: A Game Changer for HomeLabs!

[ Voor 25% gewijzigd door d3vlin op 18-11-2025 12:47 ]

Leaping Lab Rats!


  • witchdoc
  • Registratie: Juni 2000
  • Laatst online: 02-12 17:26
Ik denk dat ik https://www.wundertech.ne...ackup-server-nfs-storage/ (video) maar eens ga proberen.. dan blijft die data tenminste op de NAS staan. Vind zelf ook niet gelijk een andere manier om PBS datas makkelijk door te zetten naar een NFS share.

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 20:20
witchdoc schreef op dinsdag 18 november 2025 @ 12:55:
[...]


Ik denk dat ik https://www.wundertech.ne...ackup-server-nfs-storage/ (video) maar eens ga proberen.. dan blijft die data tenminste op de NAS staan. Vind zelf ook niet gelijk een andere manier om PBS datas makkelijk door te zetten naar een NFS share.
How To: Synology NFS for Proxmox Backup Server Datastore (2025)
https://www.derekseaman.c...erver-datastore-2025.html

How To: Synology iSCSI LUN for Proxmox Backup Server Datastore
https://www.derekseaman.c...kup-server-datastore.html

PBS in een VM op je Synology zelf met datastore via iSCSI LUN klinkt idd logischer dan PBS op een ander systeem met een NFS mount als datastore. Maar het kan natuurlijk beiden.

Je kunt ook een lokale PBS installeren in een LXC op je PVE cluster met datastore in de LXC zelf voor snelle daily backups en een tweede PBS met veel storage op je Synology als long term storage/disaster recovery. Sync instellen van de local PBS naar de Synology PBS en de retentie op de Synology ruim instellen en op de local kort. Mogelijkheden genoeg. ;)

[ Voor 42% gewijzigd door d3vlin op 18-11-2025 13:32 ]

Leaping Lab Rats!


  • Cyphax
  • Registratie: November 2000
  • Laatst online: 21:30

Cyphax

Moderator LNX
witchdoc schreef op dinsdag 18 november 2025 @ 12:55:
[...]


Ik denk dat ik https://www.wundertech.ne...ackup-server-nfs-storage/ (video) maar eens ga proberen.. dan blijft die data tenminste op de NAS staan. Vind zelf ook niet gelijk een andere manier om PBS datas makkelijk door te zetten naar een NFS share.
Ik heb dat gedaan door de NAS te mounten op de host (SMB) en die als bind mount door te geven aan de PBS-container. Binnen PBS heb ik beide mounts als data store en een sync job die periodiek de backups synct naar de NAS. Binnen de container zelf wordt geen backup opgeslagen op deze manier.

[ Voor 5% gewijzigd door Cyphax op 18-11-2025 13:27 ]

Saved by the buoyancy of citrus


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 22:19
Lijkt me wel wat zo een LXC met PBS en alles naar een NAS. Maar hoe zou het dan werken bij een restore actie? Met name als de proxmox server het niet meer doet doordat de disk met de lxc's/vm's naar de eeuwige jachtvelden is vertrokken?

makes it run like clockwork


  • commentator
  • Registratie: Mei 2004
  • Laatst online: 23:31
Airw0lf schreef op dinsdag 18 november 2025 @ 13:36:
Lijkt me wel wat zo een LXC met PBS en alles naar een NAS. Maar hoe zou het dan werken bij een restore actie? Met name als de proxmox server het niet meer doet doordat de disk met de lxc's/vm's naar de eeuwige jachtvelden is vertrokken?
dan zet je een proxmox opnieuw op en een pbs en haal je vervolgens de de backup van de rest weer binnen

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 20:20
Airw0lf schreef op dinsdag 18 november 2025 @ 13:36:
Lijkt me wel wat zo een LXC met PBS en alles naar een NAS. Maar hoe zou het dan werken bij een restore actie? Met name als de proxmox server het niet meer doet doordat de disk met de lxc's/vm's naar de eeuwige jachtvelden is vertrokken?
Met PBS als LXC in PVE met datastore op de nas: nieuwe disk(s) in je server, PVE installeren, PBS installeren in LXC en de bestaande datastore op de nas daarin koppelen. Vanuit daar al je VM's en LXC's herstellen.

Met PBS op een andere server: nieuwe disk(s) in je server, PVE installeren en je VM's en LXC's herstellen vanuit de PBS server.

Leaping Lab Rats!


  • Cyphax
  • Registratie: November 2000
  • Laatst online: 21:30

Cyphax

Moderator LNX
Airw0lf schreef op dinsdag 18 november 2025 @ 13:36:
Lijkt me wel wat zo een LXC met PBS en alles naar een NAS. Maar hoe zou het dan werken bij een restore actie? Met name als de proxmox server het niet meer doet doordat de disk met de lxc's/vm's naar de eeuwige jachtvelden is vertrokken?
Mijn PBS container heb ik een week of twee geleden gesloopt en daarna opnieuw opgezet. Als je een datastore toevoegt in PBS heb je een vinkje om bestaande data te behouden. Ik moest wel de rechten met chmod goedzetten op een dir en een file, en daarna werkte het. Daar zit ook nog een upgrade bij want mijn overleden PBS-container was versie 3 en de nieuwe was versie 4. :)

Saved by the buoyancy of citrus


  • Theone098
  • Registratie: Februari 2015
  • Laatst online: 18:05
d3vlin schreef op dinsdag 18 november 2025 @ 13:11:
[...]


How To: Synology NFS for Proxmox Backup Server Datastore (2025)
https://www.derekseaman.c...erver-datastore-2025.html

How To: Synology iSCSI LUN for Proxmox Backup Server Datastore
https://www.derekseaman.c...kup-server-datastore.html

PBS in een VM op je Synology zelf met datastore via iSCSI LUN klinkt idd logischer dan PBS op een ander systeem met een NFS mount als datastore. Maar het kan natuurlijk beiden.
Ik heb beide geprobeerd en uiteindelijk voor optie 1 gekozen.

Zolang alles werkt is het prima om via optie 2 back-ups te maken en te restoren. Totdat de zaak niet meer werkt, dan lijkt mij optie 2 een groot risico om het weer aan de praat te krijgen (zeker als het al wat langer draait).

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 23:09
Mijm nvme is niet betrouwbaar meer dus ff proxmox opnieuw inrichten. Ik heb volgens mij versie 8. Ik heb alles vms uiteraard netjes op mijn nas gebackupt

Kan ik gewoon de nieuwste versie van proxmox erop zetten en importeren? Of gaat dat problemen opleveren?

  • Deshmir
  • Registratie: Februari 2012
  • Laatst online: 00:52
@TweakerVincent ik had 3 nodes op 7 draaien (1x VM, de rest LXC's).

eerst alles van 3 naar 2 gemigreerd, daarna 1tje naar 9. Toen weer alles (op de VM na) naar die met 9 gemigreerd, ook geen probleem.
Uiteindelijk ook de VM gemigreerd en weer terug gemigreerd.
Ik had alleen wat gedoe met de sources.list, want ik heb het idee dat als je van 7 naar 8 naar 9 gaat en daarna de stappen doet die ze in de handleiding zetten, dat het toch niet helemaal lekker werkt. (via de frontend alles eruit, en dan via die weg weer toevoegen heeft het wel opgelost).

  • powerboat
  • Registratie: December 2003
  • Laatst online: 22:06
TweakerVincent schreef op woensdag 19 november 2025 @ 12:28:
Mijm nvme is niet betrouwbaar meer dus ff proxmox opnieuw inrichten. Ik heb volgens mij versie 8. Ik heb alles vms uiteraard netjes op mijn nas gebackupt

Kan ik gewoon de nieuwste versie van proxmox erop zetten en importeren? Of gaat dat problemen opleveren?
Je kan je disk ook clonen naar een nieuwe, scheelt misschien qua herstel van de instellingen.

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 23:36
GoBieN-Be schreef op maandag 17 november 2025 @ 19:23:
...
In beide gevallen heb je met 2 hosts een 3de nodig als scheidsrechter (quorum).

Ceph is ontworpen om met raw disks te werken en gebruikt zijn eigen filesystem.
Als je slechts 2 NVMe SSD's in je host hebt, dan heb je 1 nodig om Proxmox te installeren en dan kan je de andere toevoegen aan Ceph.
...
Ceph op 2 nodes draaien is niet aan te raden. Wil je failover kunnen draaien met meerdere hosts, heb je 3 nodes nodig. En zelfs balanceer je op het randje, want als je 1 node down trekt voor onderhoud en er gebeurt iets op die andere nodes gaat de storage gewoon op pauze.

Qua specs boeit het eigenlijk niet, gewoon een paar snelle CPU cores, voldoende geheugen (4GB per opslag device) en snelle opslag. Daarnaast een snel netwerk om de storage te regelen (10Gb of meer aanbevolen, mag meshed zonder switch).

Mocht je overigens net als ik Intel E810 kaarten gebruiken voor Ceph: gebruik kernel 6.17. De netwerkdrivers in de oudere 6.8 en 6.14 kernels lekken geheugen. Ik kon een maand uptime veroorloven voordat ik geforceerd alle nodes moest rebooten, anders kon ik de VMs niet migreren vanwege geheugengebrek.

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 23:09
powerboat schreef op woensdag 19 november 2025 @ 15:43:
[...]

Je kan je disk ook clonen naar een nieuwe, scheelt misschien qua herstel van de instellingen.
Dat probeerde ik gisteren, maar ik heb een nvme gekocht die 1000GB is terwijl mijn oude nvme 1024 gb is.

Clonezilla wilde niet en de partitie is volledig gevuld. Dus met die flag was het niet betrouwbaar zei chatgpt.

  • Shinji
  • Registratie: Februari 2002
  • Laatst online: 22:38
Ik heb een nuc10 i5 met proxmox maar sinds een paar maanden raakt die af en toe de verbinding kwijt. Switchpoort op shut/no shut en hij doet het weer. Volgens mij was het na wat updates op proxmox. Intussen ook weer door gegaan naar 9 maar het issue is er nog steeds.

Ik had dacht ik wat gelezen over dit issue maar kan dat nu niet meer vinden. Weet iemand hier iets toevallig?

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:21
Intel adapter, TSO issue wellicht
https://forum.proxmox.com...t-queue-timed-out.150807/

[ Voor 11% gewijzigd door GoBieN-Be op 19-11-2025 20:45 ]


  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 20:47
Shinji schreef op woensdag 19 november 2025 @ 19:56:
Ik heb een nuc10 i5 met proxmox maar sinds een paar maanden raakt die af en toe de verbinding kwijt. Switchpoort op shut/no shut en hij doet het weer. Volgens mij was het na wat updates op proxmox. Intussen ook weer door gegaan naar 9 maar het issue is er nog steeds.

Ik had dacht ik wat gelezen over dit issue maar kan dat nu niet meer vinden. Weet iemand hier iets toevallig?
ThinkPad in "Het grote Proxmox VE topic"

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:21
Er is blijkbaar zelfs een community script:
https://community-scripts...pts?id=nic-offloading-fix

  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Ik zit er aan te denken om Proxmox 8.4.14 te upgraden naar 9.1. Tijdens het upgrade-testscript krijg ik de volgende foutmelding;
FAIL: systemd-boot meta-package installed. This will cause problems on upgrades of other boot-related packages. Remove 'systemd-boot' See https://pve.proxmox.com/w...om_8_to_9#sd-boot-warning for more information.
Mijn kennis van Debian gaat niet zo diep, deze PVE draaien niet zo veel spannende dingen op, maar kan ik deze package straffeloos verwijderen? Ik ben bang dat dit boot-problemen op gaat leveren.
The only situation where you should keep the meta-package systemd-boot installed is if you manually setup systemd-boot for your system.
Voor zover ik weet heb ik dit niet gedaan. Ik heb gewoon de standaard install gedraaid.

[ Voor 17% gewijzigd door Gunner op 20-11-2025 10:49 ]

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • commentator
  • Registratie: Mei 2004
  • Laatst online: 23:31
Gunner schreef op donderdag 20 november 2025 @ 10:39:

[...]


Mijn kennis van Debian gaat niet zo diep, deze PVE draaien niet zo veel spannende dingen op, maar kan ik deze package straffeloos verwijderen? Ik ben bang dat dit boot-problemen op gaat leveren.
op 2 van mijn nodes had ik dat ook. Bij 1 ging het mis maar dat was eenvoudig op te lossen door te booten met een usb installatie stick en dan de boot weer even naar de juiste schijf te schrijven.
Zolang je een pc/laptop hebt waarop je het kan opzoeken is het geen probleem.

En bij dit soort dingen: Altijd zorgen voor een backup van dat wat erop staat ;)

  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

commentator schreef op donderdag 20 november 2025 @ 11:11:
En bij dit soort dingen: Altijd zorgen voor een backup van dat wat erop staat ;)
Dank voor je toelichting. van alle VM's heb ik een configuratie-backup (Home Assistant, Pi-Hole dat soort dingen) dus bij een crash of faal of wat dan ook kan ik altijd snel een versie installatie doen.

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 23:09
Even update, migratie van 8.2.2 naar laatste 9 versie ging vlekkeloos. gewoon proxmox installeren en de vm's restoren en nog even backup instellen en de deconz usb opnieuw connecten en klaar :)

Ook relaxt dat ik een keer een ermee oefen om te zien of backups echt eenvoudig teruggezet kunnen worden.

  • Cardinal
  • Registratie: Maart 2002
  • Laatst online: 00:15
@TweakerVincent dat klinkt meer als een reinstall dan een migratie, maar if it works, it works.

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 23:09
Shinji schreef op woensdag 19 november 2025 @ 19:56:
Ik heb een nuc10 i5 met proxmox maar sinds een paar maanden raakt die af en toe de verbinding kwijt. Switchpoort op shut/no shut en hij doet het weer. Volgens mij was het na wat updates op proxmox. Intussen ook weer door gegaan naar 9 maar het issue is er nog steeds.

Ik had dacht ik wat gelezen over dit issue maar kan dat nu niet meer vinden. Weet iemand hier iets toevallig?

ik had net hetzelfde met mijn nieuwe proxmox setup 9.2

Ik heb ook een nuc de NUC10i7FNK. die heeft een Intel Corporation Ethernet Connection (10) I219-V

is dat dezelfde als jij hebt? en werkt het script bij jou? in het script hebben ze het over intel e1000e NIC



even gekeken en is idd e1000e, script net gerund en lijkt allemaal goed te gaan. dank voor posten link

[ Voor 9% gewijzigd door TweakerVincent op 21-11-2025 16:05 ]


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

commentator schreef op donderdag 20 november 2025 @ 11:11:
[...]

op 2 van mijn nodes had ik dat ook. Bij 1 ging het mis maar dat was eenvoudig op te lossen door te booten met een usb installatie stick en dan de boot weer even naar de juiste schijf te schrijven.
Zolang je een pc/laptop hebt waarop je het kan opzoeken is het geen probleem.

En bij dit soort dingen: Altijd zorgen voor een backup van dat wat erop staat ;)
Goed, even wat uitzoekwerk gedaan, wat commando's gecheckt en ik gebruikte voor zover ik weet die systemd-boot niet. Deze verwijderd en systeem startte nog op na de reboot :7

Daarna moest ik nog een andere bootloader verwijderen en opnieuw installeren en alles draait nog. In principe dus klaar voor de update.

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Powerblast
  • Registratie: Augustus 2011
  • Laatst online: 04-12 12:26
Ik heb eindelijk ook de eerste stappen gezet om m'n mini homelab op te starten :p. Proxmox geïnstalleerd op een mini pc. i5 met 12 cores en 64gb ram dus het ding draait wel lekker :). Bedoeling is om een beetje te leren hoe het virtualiseren in eigenlijk werkt, wat leuke dingen te draaien en vooral: Linux leren.

Ik heb nu een LXC container up en running met daarin Gitea. Ik ben nu aan het kijken, voor ik nog andere containers inricht, hoe ik deze nu het best kan inrichten en backuppen. Daar loop ik toch wat verloren, heb maar zeer beperkte Linux kennis :). Ik lees dat Proxmox als je een backup maakt soms wel en soms niet mount points (met de data) ook een backup van neemt.

Ik heb aan m'n container een mount point toegevoegd (gitea-repos) via de GUI waar daadwerkelijk m'n repositories komen en wil deze nu backuppen. Zover ik lees zou een backup van een LXC echter geen mount points bevatten, ookal staat er een vinkje bij de mount point (backup=1). Maar als ik nu de backup open doe met unzip dan zit die directory er wel gewoon in? Daarom twee (dummy waarschijnlijk) vragen:

1. Klopt het dat dit komt doordat dit als "managed storage" gezien wordt door Proxmox omdat ik deze mount point in de LVM-Thin storagepool heb aangemaakt? En dat dit dus niet zou gebeuren als ik een aparte mount point vanuit de host naar de container expose die niet in de LVM-Thin pool zit?

2. Wat is hier nu de best practice? Data in de container door deze in de storage pool te zetten, of los op de host en aparte backup via rsync?

Ik snap het nog niet helemaal denk ik :(. Google geeft vrees ik ook niet echt veel info. Ze hebben het dan over mount points en bind points (maar in mijn ogen is dat hetzelfde :p). De container backup kan ik volgen maar ben dus op zoek wat er nu met de data gebeurd zeg maar.

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 21:30

Cyphax

Moderator LNX
Bij mij is het in elk geval zo dat bind mounts niet meegenomen worden bij snapshot backups, gelukkig, maar ik doe dat volgens mij niet via die thin pool.

Wat ik heb gedaan is een LXC opzetten met Proxmox Backup Server. De backups die gepland zijn in Proxmox worden daarin opgeslagen (je geeft PBS dus als doel voor je backups op). De PBS container heeft 2 mount points (bind mounts) waar ik de backups wil opslaan. In PBS worden de backups standaard op het ene mount point opgeslagen, en heb ik daarnaast een sync job ingesteld die de backups dupliceert naar het tweede mount point (dat is een NAS).

Dat wat ik op de host doorgeef via die binds backup ik met Kopia (die ook een mount point heeft, datgene dat ie moet backuppen) naar de eerdergenoemde NAS en naar een cloud storage.

Uiteindelijk is het idee om alle containers klein te houden, en alle data erbuiten, en die kan je los backuppen. Er zijn best wel veel wegen naar Rome wat dat betreft maar ik zou wel in het achterhoofd houden dat 1 backup niet genoeg is. Mirror je backups naar op z'n minst een ander apparaat. :)

Saved by the buoyancy of citrus


  • Powerblast
  • Registratie: Augustus 2011
  • Laatst online: 04-12 12:26
Cyphax schreef op zondag 23 november 2025 @ 20:01:
Bij mij is het in elk geval zo dat bind mounts niet meegenomen worden bij snapshot backups, gelukkig, maar ik doe dat volgens mij niet via die thin pool.

Wat ik heb gedaan is een LXC opzetten met Proxmox Backup Server. De backups die gepland zijn in Proxmox worden daarin opgeslagen (je geeft PBS dus als doel voor je backups op). De PBS container heeft 2 mount points (bind mounts) waar ik de backups wil opslaan. In PBS worden de backups standaard op het ene mount point opgeslagen, en heb ik daarnaast een sync job ingesteld die de backups dupliceert naar het tweede mount point (dat is een NAS).

Dat wat ik op de host doorgeef via die binds backup ik met Kopia (die ook een mount point heeft, datgene dat ie moet backuppen) naar de eerdergenoemde NAS en naar een cloud storage.

Uiteindelijk is het idee om alle containers klein te houden, en alle data erbuiten, en die kan je los backuppen. Er zijn best wel veel wegen naar Rome wat dat betreft maar ik zou wel in het achterhoofd houden dat 1 backup niet genoeg is. Mirror je backups naar op z'n minst een ander apparaat. :)
Dat was ik inderdaad van plan als volgende stap :). Voorlopig nog met een USB external disk maar daar komt waarschijnlijk een NAS de komende week voor in de plaats. Dan ga ik toch ook eens kijken voor PBS op te zetten.

Begrijp ik het goed dat een bind mount iets anders is dan wat je via de GUI toevoegt als "Mount point"? En dat een mount point via de GUI altijd via proxmox beheerd wordt zeg maar? Ik denk dat daar mijn verwarring wat ontstaat. De forums zijn daar niet al te duidelijk over, maar volgens de wiki zou dit enkel via shell kunnen.

Stap voor stap probeer ik tot een werkende geheel te komen maar als je jaren Linux vermeden hebt, is het toch even wennen :p.

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 21:30

Cyphax

Moderator LNX
Powerblast schreef op zondag 23 november 2025 @ 20:23:
[...]


Dat was ik inderdaad van plan als volgende stap :). Voorlopig nog met een USB external disk maar daar komt waarschijnlijk een NAS de komende week voor in de plaats. Dan ga ik toch ook eens kijken voor PBS op te zetten.

Begrijp ik het goed dat een bind mount iets anders is dan wat je via de GUI toevoegt als "Mount point"? En dat een mount point via de GUI altijd via proxmox beheerd wordt zeg maar? Ik denk dat daar mijn verwarring wat ontstaat. De forums zijn daar niet al te duidelijk over, maar volgens de wiki zou dit enkel via shell kunnen.

Stap voor stap probeer ik tot een werkende geheel te komen maar als je jaren Linux vermeden hebt, is het toch even wennen :p.
Ik denk dat dat inderdaad iets anders is maar ik weet eigenlijk niet zo goed hoe en wat. Ik schrijf ze weg in de configuratie van de container (/etc/pve/lxc/{containerid]}.conf). Voor PBS is dat bijvoorbeeld:
code:
1
2
mp0: /mnt/vg_fileserver/backup/proxmox-backup,mp=/mnt/fileserver
mp1: /mnt/backup.lan/proxmoxbackup,mp=/mnt/backup.lan

De eerste is "gewoon" op de host, de tweede is een share die ik op de host heb gemount en weer doorgeef aan de container.

Ik weet niet of het nou zo was dat je dit via de GUI niet kon of kan maar ze worden wel gewoon in de GUI getoond onder Resources, als Mount Point.

Saved by the buoyancy of citrus


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 20:20
Powerblast schreef op zondag 23 november 2025 @ 20:23:
Begrijp ik het goed dat een bind mount iets anders is dan wat je via de GUI toevoegt als "Mount point"? En dat een mount point via de GUI altijd via proxmox beheerd wordt zeg maar? Ik denk dat daar mijn verwarring wat ontstaat. De forums zijn daar niet al te duidelijk over, maar volgens de wiki zou dit enkel via shell kunnen.
Met mounten wordt een storage device aan een punt in de bestandstructuur verankerd. Het punt waar je verankert is het mount point, in de regel een lege directory.

Bij een bind mount wordt er geen storage device gemount maar een directory op het systeem naar een andere directory op het systeem. In het geval van een LXC kan je daarmee dus een folder op de host naar een folder die benaderbaar is in de LXC mounten. (Een LXC is feitelijk ook gewoon een soort afgeschermd hoekje in het bestandsysteem van het OS.)

Mounts worden beheerd door het OS. Als je in de CLI van de host 'mount' intikt krijg je alle op het systeem actieve mounts te zien.

Voor een LXC kun je in de GUI van Proxmox alleen (nieuw aan te maken) virtuele disks mounten. Vanwege security bezwaren moet je bind mounts (naar de host) aanmaken in de LXC config via het OS / de CLI, zie ook:
https://forum.proxmox.com/threads/bind-mounts-and-api.27840/

Via de CLI in de configuratie van een LXC aangemaakte bind mounts verschijnen wel in de GUI.

[ Voor 25% gewijzigd door d3vlin op 24-11-2025 08:40 ]

Leaping Lab Rats!


  • Powerblast
  • Registratie: Augustus 2011
  • Laatst online: 04-12 12:26
Cyphax schreef op zondag 23 november 2025 @ 21:13:
[...]

Ik denk dat dat inderdaad iets anders is maar ik weet eigenlijk niet zo goed hoe en wat. Ik schrijf ze weg in de configuratie van de container (/etc/pve/lxc/{containerid]}.conf). Voor PBS is dat bijvoorbeeld:
code:
1
2
mp0: /mnt/vg_fileserver/backup/proxmox-backup,mp=/mnt/fileserver
mp1: /mnt/backup.lan/proxmoxbackup,mp=/mnt/backup.lan

De eerste is "gewoon" op de host, de tweede is een share die ik op de host heb gemount en weer doorgeef aan de container.
Thanks! Ik ga het morgen even proberen. Het strookt idd wel met wat ik in de wiki vond. Dacht alleen dat ik het verkeerd las omdat een dergelijke mount point er hetzelfde uitziet in de config dan een mount point die via de GUI is gemaakt. Maar zie net dat de eerste parameter dan naar een soort van virtuele disk lijkt te wijzen, dus daar zit waarschijnlijk het verschil in.
d3vlin schreef op maandag 24 november 2025 @ 07:37:
[...]
Voor een LXC kun je in de GUI van Proxmox alleen (nieuw aan te maken) virtuele disks mounten. Vanwege security bezwaren moet je bind mounts (naar de host) aanmaken in de LXC config via het OS / de CLI, zie ook:
https://forum.proxmox.com/threads/bind-mounts-and-api.27840/
Ok top, dat verduidelijkt het idd :). Ik dacht even omdat het al een topic uit 2016 was, dat het niet meer up to date was. Ik ga het in ieder geval even proberen.

[ Voor 22% gewijzigd door Powerblast op 24-11-2025 20:26 ]


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 20:20

Leaping Lab Rats!


  • ComTech
  • Registratie: November 2002
  • Laatst online: 22:20
Ik heb hier een proxmox server met een i3 8100 draaien met een ubuntu VM daar draait docker op.
Als ik nu een grote stack maak en hij wat containers moet ophalen dan schiet de load soms enorm omhoog van de proxmox host. (1m load van 15 is geen uitzondering).
Gekke is ik heb een losse HP prodesk staan met bijna dezelfde CPU een i3 8100T maar hier draait ubuntu server headless op, als ik hier hetzelfde doe dan komt de load niet eens boven de 2 uit.
Ik heb op de proxmox server een mirror zfs met 2 samsung m.2 980 evo's .
Ram geheugen is ook genoeg 32GB en nog maar 50% gebruikt.
Iemand een idee hoe dat kan? Kan het komen door de zfs mirror ?

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:09
ComTech schreef op donderdag 27 november 2025 @ 21:52:
Ik heb hier een proxmox server met een i3 8100 draaien met een ubuntu VM daar draait docker op.
Als ik nu een grote stack maak en hij wat containers moet ophalen dan schiet de load soms enorm omhoog van de proxmox host. (1m load van 15 is geen uitzondering).
Gekke is ik heb een losse HP prodesk staan met bijna dezelfde CPU een i3 8100T maar hier draait ubuntu server headless op, als ik hier hetzelfde doe dan komt de load niet eens boven de 2 uit.
Ik heb op de proxmox server een mirror zfs met 2 samsung m.2 980 evo's .
Ram geheugen is ook genoeg 32GB en nog maar 50% gebruikt.
Iemand een idee hoe dat kan? Kan het komen door de zfs mirror ?
Welke CPU wordt in de VM gebruikt? Als die niet op host staat maar een andere CPU wordt gebruikt kan dat mogelijk ook nog tot issues leiden? (bv bepaalde instructiesets die niet gebruikt worden / kunnen worden)

  • ComTech
  • Registratie: November 2002
  • Laatst online: 22:20
RobertMe schreef op donderdag 27 november 2025 @ 22:21:
[...]

Welke CPU wordt in de VM gebruikt? Als die niet op host staat maar een andere CPU wordt gebruikt kan dat mogelijk ook nog tot issues leiden? (bv bepaalde instructiesets die niet gebruikt worden / kunnen worden)
Dat is een hele goede normaal zet ik ze altijd op host maar deze keer dus niet, stond op default (kvm).

  • tuxie6
  • Registratie: Juli 2013
  • Laatst online: 01:03
Zfs gebruikt ramcache wat zoveel procent van je ram is.
Als je andere systeem gelijk is aan de proxmox server, maar dan met ext4, brtfs, e.d
Dan lijkt mij het niet helemaal onmogelijk dat het door zfs komt.
Je kan de zfscache (arc) aanpassen in /etc/ ...... (dat ben ik even kwijt.)

Er zijn meer meldingen geweest dat zfs en vm's om de ram aan het vechten waren. Waardoor het voorkwam dat er processen werden gekild.

[ Voor 21% gewijzigd door tuxie6 op 28-11-2025 00:51 ]


  • Dannisi
  • Registratie: Februari 2005
  • Laatst online: 04-12 08:52
ComTech schreef op donderdag 27 november 2025 @ 21:52:
Ik heb hier een proxmox server met een i3 8100 draaien met een ubuntu VM daar draait docker op.
Als ik nu een grote stack maak en hij wat containers moet ophalen dan schiet de load soms enorm omhoog van de proxmox host. (1m load van 15 is geen uitzondering).
Gekke is ik heb een losse HP prodesk staan met bijna dezelfde CPU een i3 8100T maar hier draait ubuntu server headless op, als ik hier hetzelfde doe dan komt de load niet eens boven de 2 uit.
Ik heb op de proxmox server een mirror zfs met 2 samsung m.2 980 evo's .
Ram geheugen is ook genoeg 32GB en nog maar 50% gebruikt.
Iemand een idee hoe dat kan? Kan het komen door de zfs mirror ?
Wat is de IO delay in de CPU usage chart als de load hoog is? Ik heb maar heel even met ZFS gespeeld, maar dat zag ik de hoogte in gaan als ik wat data kopieerde naar een VM die ZFS gebruikte

There is no place like 127.0.0.1


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 20:20
tuxie6 schreef op vrijdag 28 november 2025 @ 00:48:
Zfs gebruikt ramcache wat zoveel procent van je ram is.
Als je andere systeem gelijk is aan de proxmox server, maar dan met ext4, brtfs, e.d
Dan lijkt mij het niet helemaal onmogelijk dat het door zfs komt.
Je kan de zfscache (arc) aanpassen in /etc/ ...... (dat ben ik even kwijt.)
ZFS on Linux gebruikt standaard de helft van het geheugen als max. (zfs_arc_max = 0)
code:
1
cat /sys/module/zfs/parameters/zfs_arc_max


Om een max van bijvoorbeeld 10GB toe te kennen aan ZFS op een lopend systeem:
code:
1
echo "$[10 * 1024*1024*1024]" > /sys/module/zfs/parameters/zfs_arc_max


Om een max van bijvoorbeeld 10GB standaard toe te kennen bij boot:
code:
1
echo "$[10 * 1024*1024*1024]" > /etc/modprobe.d/zfs

Leaping Lab Rats!


  • sailor_dg
  • Registratie: Januari 2019
  • Laatst online: 23:10
tuxie6 schreef op vrijdag 28 november 2025 @ 00:48:
Zfs gebruikt ramcache wat zoveel procent van je ram is.
Als je andere systeem gelijk is aan de proxmox server, maar dan met ext4, brtfs, e.d
Dan lijkt mij het niet helemaal onmogelijk dat het door zfs komt.
Je kan de zfscache (arc) aanpassen in /etc/ ...... (dat ben ik even kwijt.)

Er zijn meer meldingen geweest dat zfs en vm's om de ram aan het vechten waren. Waardoor het voorkwam dat er processen werden gekild.
Been there. Gebruikte ZFS voor mijn VM disks. Nu terug naar standaard SW raid met ext4

All-electric | Deye 12KSG04LP3 met 2x Yixiang V2, 32x MB31 314 Ah | Panasonic Aquarea J 5kW | Tesla MY, SmartEVSE | 8,8 kWp PV | Proxmox met HomeAssistant, Docker host, PfSense, TrueNas & Mailcow


  • ComTech
  • Registratie: November 2002
  • Laatst online: 22:20
Ondertussen even de tijd gehad om te testen, als ik de cpu verander van default(kvm) naar host nog steeds hetzelfde.

Afbeeldingslocatie: https://tweakers.net/i/LfHd24wk7O8qsVh7VNohsp--F10=/800x/filters:strip_exif()/f/image/uTUPxZYIKIdoClfyRUpgWd3r.png?f=fotoalbum_large]

Dit is de load als ik op een VM een docker compose uitvoer die wat containers binnenhaalt.
Is toch véél te hoog.
Maar er is genoeg geheugen dus waarom nog beschikbaar dus waarom dan die hoge load.
Als het door zfs komt dan ga ik hem weer opnieuw installeren zonder, enige reden dat ik dat gedaan heb ik dat ik dan een mirror kan maken als er een disk kapot gaat m'n hele systeem niet gelijk down gaat.

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 22:34

Quad

Doof

Kan je evt een disk toevoegen die niet in de ZFS pool zit? En daar de VM storage op plaatsen?

Alles went behalve een Twent.
🎯Psst.. Kans maken op 12 maanden Tweakers HERO abonnement?
nggyu nglyd


  • ComTech
  • Registratie: November 2002
  • Laatst online: 22:20
Quad schreef op vrijdag 28 november 2025 @ 20:15:
Kan je evt een disk toevoegen die niet in de ZFS pool zit? En daar de VM storage op plaatsen?
Dan is de load nog geen 2 en de IO delay amper aanwezig :)
Duidelijk een ZFS dingetje dus :'(

Maar wat is nu de "beste" storage configuratie voor mijn disk configuratie?
Ik heb 2 Sata Intel DC4500 SSD's en 2 Samsung 980 evo nvme SSD's.
Ik dacht dus de 2 sata's in mirror als boot (maar dat kan alleen als ZFS) en de 2 nvme's als mirror voor alle VM's en LXC's.

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Toen ik voor het eest wat ging proberen met Docker op Proxmox ging dat ook voor geen meter, en de oorzaak daarvan leek te zitten in de (combinatie met de) filesystem driver van Docker. Na de installatie van fuse-overlayfs (op de Docker host) liep alles ineens verrassend veel soepeler.

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 19:28
dcm360 schreef op vrijdag 28 november 2025 @ 23:36:
Toen ik voor het eest wat ging proberen met Docker op Proxmox ging dat ook voor geen meter, en de oorzaak daarvan leek te zitten in de (combinatie met de) filesystem driver van Docker. Na de installatie van fuse-overlayfs (op de Docker host) liep alles ineens verrassend veel soepeler.
is het niet veel slimmer (ik ben geen docker expert!) om in Promox 9.1 direct docker images te draaien op de host?

https://dannyda.com/2025/...-pve-9-1-as-ct-templates/

dat is nieuw in versie 9.1 en voorkomt lijkt mij wat overhead omdat je geen docker host meer nodig bent in de vorm van en linux VM.

(draai zelf alles op LXC containers overigens, doe niks/.weinig met dokter)

A wise man's life is based around fuck you


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 22:19
Zwelgje schreef op zaterdag 29 november 2025 @ 08:03:
[...]

is het niet veel slimmer (ik ben geen docker expert!) om in Promox 9.1 direct docker images te draaien op de host?

https://dannyda.com/2025/...-pve-9-1-as-ct-templates/

dat is nieuw in versie 9.1 en voorkomt lijkt mij wat overhead omdat je geen docker host meer nodig bent in de vorm van en linux VM.

(draai zelf alles op LXC containers overigens, doe niks/.weinig met dokter)
Nog steeds een docker host nodig - de site achter de link heeft het over een LXC.

makes it run like clockwork


  • sailor_dg
  • Registratie: Januari 2019
  • Laatst online: 23:10
ComTech schreef op vrijdag 28 november 2025 @ 21:42:
[...]


Maar wat is nu de "beste" storage configuratie voor mijn disk configuratie?
Ik heb 2 Sata Intel DC4500 SSD's en 2 Samsung 980 evo nvme SSD's.
Ik dacht dus de 2 sata's in mirror als boot (maar dat kan alleen als ZFS) en de 2 nvme's als mirror voor alle VM's en LXC's.
Je kan via command line software raid gebruiken (mdadm). Ik heb mijn vm disks op een mirror staan. Mijn boot disk heeft geen redundancy. Ik heb een cold standby server met kritische vms en heb wel tijd om proxmox in geval van ellende opnieuw op te bouwen

All-electric | Deye 12KSG04LP3 met 2x Yixiang V2, 32x MB31 314 Ah | Panasonic Aquarea J 5kW | Tesla MY, SmartEVSE | 8,8 kWp PV | Proxmox met HomeAssistant, Docker host, PfSense, TrueNas & Mailcow


  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 19:28
Airw0lf schreef op zaterdag 29 november 2025 @ 08:16:
[...]


Nog steeds een docker host nodig - de site achter de link heeft het over een LXC.
geen docker, die software heb je niet nodig. hij spint een LXC op en daar draait die container in.

https://www.virtualizatio...-lxc-and-new-oci-support/

maar je kan dan ook niet alles wat je met docker kan, kwestie van afwegen. performancewise lees ik her en der dat het beter moet zijn.

A wise man's life is based around fuck you


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 22:19
Zwelgje schreef op zaterdag 29 november 2025 @ 08:42:
[...]

geen docker, die software heb je niet nodig. hij spint een LXC op en daar draait die container in.

https://www.virtualizatio...-lxc-and-new-oci-support/

maar je kan dan ook niet alles wat je met docker kan, kwestie van afwegen. performancewise lees ik her en der dat het beter moet zijn.
De OCI-support haalt een LXC template op waarbinnen dan een applicatie draait.
Dus ja - je hebt dan niet perse Docker nodig.

Maar je hebt nog niet voor alle applicaties een LXC template.
Dus je zal op enig moment toch een Docker host nodig hebben.
Tenzij je handmatig zelf zo een VM/LXC (template?) in elkaar wil steken. :+

makes it run like clockwork


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 20:20
Er zijn geen LXC templates benodigd om OCI images te draaien in PVE 9.1. PVE haalt alleen een OCI (docker) image binnen en slaat die on the spot plat tot een LXC obv Alpine waarin het OCI image draait.

Ze geven zelf aan dat dit nog experimenteel is en het is momenteel nog niet mogelijk om op OCI gebaseerde LXC non-destructief te updaten dus ik zou het nog niet inzetten voor productie.
https://forum.proxmox.com...ci-ct.176259/#post-817595

[ Voor 9% gewijzigd door d3vlin op 29-11-2025 09:22 ]

Leaping Lab Rats!


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 22:19
d3vlin schreef op zaterdag 29 november 2025 @ 09:19:
Er zijn geen LXC templates benodigd om OCI images te draaien in PVE 9.1. PVE haalt alleen een OCI (docker) image binnen en slaat die on the spot plat tot een LXC obv Alpine waarin het OCI image draait.

Ze geven zelf aan dat dit nog experimenteel is en het is momenteel nog niet mogelijk om op OCI gebaseerde LXC non-destructief te updaten dus ik zou het nog niet inzetten voor productie.
https://forum.proxmox.com...ci-ct.176259/#post-817595
Potato-potahto - technisch heb je gelijk - onder de streep draait er een LXC met een applicatie.
En het verhaal rondom het OCI image heb ik even uitgelegd als een LXC-template met een pre-installed applicatie (die op dit moment niet is bij te werken met een nieuwe pull van het image - zie ook onderstaande passage).
However, in the current technology preview state of our OCI image support, all layers are squashed into one rootfs upon container creation. Because of this, you currently cannot update a container simply by swapping in a newer image. This functionality is planned as a future feature though.
Wat dan wil zeggen dat er handmatig updates gedraaid moeten worden binnen de LXC.

[ Voor 8% gewijzigd door Airw0lf op 29-11-2025 09:42 ]

makes it run like clockwork


  • TheFes
  • Registratie: Juni 2001
  • Laatst online: 22:38
Ik hoop dat iemand hier mij kan helpen. Ik heb een probleem met mijn Proxmox server.
Ik had een externe harde schijf gekocht, met het idee die aan mijn Fritzbox te hangen voor Fritz!NAS. Daar wilde ik dan bestanden op zetten om te delen over het netwerk. Voorheen deed ik dat via die Proxmox server, maar die staat niet altijd aan, wat soms onhandig is.

Ik had de drive aan de Fritz!Box gehangen, en gemount in Proxmox. Ik heb daarbij wat domme fouten gemaakt, en de domste was om dit rechtstreeks in Proxmox te doen en niet in een VM. De tweede fout was om niet gewoon de drive rechtstreeks te koppelen, maar dit via het netwerk te doen. De derde fout was om niet te checken of de drive goed gemount was.

Het komt er op neer dat ik dus mijn pve-root partitie helemaal vol geschreven heb met data, omdat de drive niet goed gemount was. Op een gegeven moment had ik door dat er geen data meer op de netwerk-schijf kwam, en dacht ik dat een reboot misschien zou helpen. Dat was de vierde en misschien meest cruciale fout (buiten fout 0, dat is dat ik geen backup heb).

Nu start mijn proxmox dus niet meer op. Ik heb al via Gparted die fout gekopieerde gegevens weggehaald uit de pve-root partitie, maar dat helpt niet.
Het belangrijkste voor mij is momenteel om die gegevens veilig te stellen, ik probeerde dat ook via Gparted te doen, maar ik heb ZFS shares gemaakt en krijg die nu niet gemount. Het liefst zou ik Proxmox weer gewoon starten, maar ik weet niet meer hoe.

Heeft iemand ideeën, suggesties wat dan ook?

Home Assistant configuratie


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 22:19
@TheFes - ik hoop dat je er nog bij kunt via ssh of via een aangesloten scherm en toetsenbord... :+

Wat is de output van cat /etc/pve/storage.cfg?
Data in de boot/root disk wordt meestal weggeschreven in /var/lib/vz - als het bij jou anders is moet dat terug te vinden in dat storage.cfg bestandje.

Ik weet het niet 100% zeker - maar ik dacht dat Proxmox zijn config bewaard in /etc/ove/nodes/<host-name>.
En daar een kopie van maakt bij het opstarten.

Het lijkt erop alsof er geen ruimte meer is voor het maken van die kopie waardoor pve niet meer start.
Afhankelijk van wat je aantreft in storage.cfg is er wellicht een mogelijkheid om wat ruimte te maken.
Waardoor pve weer gestart kan worden.

makes it run like clockwork


  • Thomas H
  • Registratie: Maart 2001
  • Laatst online: 03-12 20:39
CoPilot aangezwengeld, stappen klinken niet onlogisch:
## ✅ **Stap 1: Boot in een Live-omgeving**
* Gebruik een **Ubuntu Live ISO** of de **Proxmox ISO in rescue-modus**.
* Start vanaf USB en kies voor een shell.
## ✅ **Stap 2: Installeer ZFS-tools**
Als je een Ubuntu Live gebruikt:
code:
1
2
sudo apt update
sudo apt install zfsutils-linux

## ✅ **Stap 3: Controleer en importeer ZFS-pool**
* Bekijk beschikbare pools:
code:
1
sudo zpool import

* Importeer jouw pool (vervang `<poolnaam>`):
code:
1
sudo zpool import -f <poolnaam>

* Controleer of alle datasets gemount zijn, en zo niet, mount je deze:
code:
1
2
zfs list
sudo zfs mount -a

Nu kun je je data kopiëren naar een externe schijf of NAS:
code:
1
rsync -av /<mountpoint> /media/externe-schijf/

## ✅ **Stap 4: Ruimte vrijmaken op root**
1. **Start vanaf een Live-ISO**
* Gebruik bijvoorbeeld **Ubuntu Live** of de **Proxmox ISO** in rescue-modus.
* Kies voor een shell/terminal.
2. **Mount je root-partitie**
Eerst moet je de Proxmox root-partitie mounten om toegang te krijgen:
code:
1
2
sudo mkdir /mnt/proxmox
    sudo mount /dev/sdX /mnt/proxmox

(Vervang `/dev/sdX` door jouw rootdisk, bijvoorbeeld `/dev/sda2`.)
3. **Chroot naar je Proxmox-installatie**
Dit geeft je een omgeving alsof je in Proxmox zelf zit:
code:
1
sudo chroot /mnt/proxmox

* Check hoeveel ruimte er is:
code:
1
df -h

* Verwijder grote logbestanden:
code:
1
sudo journalctl --vacuum-size=100M

* Zoek grote bestanden:
code:
1
sudo du -sh /* | sort -h

* Eventueel tijdelijk een extra disk mounten op `/var/lib/vz`:
code:
1
mount /dev/sdX /var/lib/vz

## ✅ **Stap 5: Proxmox opnieuw starten**
Als er genoeg ruimte is vrijgemaakt:
code:
1
sudo reboot
Modbreak:Volledig door AI gegenereerde tekst staan we niet toe. Iedereen kan dat dus dan heeft een forum geen toegevoegde waarde. Volgende keer graag je eigen tekst gebruiken

[ Voor 5% gewijzigd door br00ky op 30-11-2025 15:50 ]


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 04-12 12:45
Zwelgje schreef op zaterdag 29 november 2025 @ 08:42:
[...]


geen docker, die software heb je niet nodig. hij spint een LXC op en daar draait die container in.

https://www.virtualizatio...-lxc-and-new-oci-support/

maar je kan dan ook niet alles wat je met docker kan, kwestie van afwegen. performancewise lees ik her en der dat het beter moet zijn.
Ik vind dit een interessante ontwikkeling. Maar ik denk niet dat je er veel bestaande setups er door kan vervangen. Daar is het nog te beperkt voor. Het "enige" wat het doet is een Docker image converteren naar een LXC. Docker is wel iets meer dan dat :p

Ik denk ook dat het performance verschil miniem gaat zijn. Je haalt er de virtualisatie laag tussen uit maar dat scheelt maar een paar procent.

https://dontasktoask.com/


  • TheFes
  • Registratie: Juni 2001
  • Laatst online: 22:38
@Airw0lf@Thomas H
Bedankt voor de hulp, het is gelukt.
Het probleem bleek uiteindelijk dat ik de data verwijderd had, maar dus ook de folder waarin ik de netwerk schijf gemount had. Die mount stond echter nog wel in /etc/fstab en het ging dus fout als hij die mount wilde gaan doen. Nadat ik die regel verwijderd had werkte alles weer.

Nu maar eens goede backups regelen :)

Home Assistant configuratie


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 22:34

Quad

Doof

Voor de fstab binnen PVE voeg ik nofail toe aan de regels. Als de mount niet beschikbaar is start PVE in elk geval door.

Alles went behalve een Twent.
🎯Psst.. Kans maken op 12 maanden Tweakers HERO abonnement?
nggyu nglyd


  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:21
Dat vind ik altijd al een nadeel aan het systeem van mounten.
Als voor één of andere reden je mount niet lukt, is er geen failsafe die verhindert dat je dan gaat schrijven naar een lege map op je root partitie.
En eerst een aparte kleine partitie maken bv /opt en daar dan al je mountpoint zetten enkel en alleen om te vermijden dat je root FS volloopt bij zo'n situatie is ook omslachtig.

  • lolgast
  • Registratie: November 2006
  • Laatst online: 21:56
@GoBieN-Be Als je daar bang voor bent moet je een failsafe voor jezelf inbouwen :)
mountpoint -q /mnt/MOUNTFOLDER && cp /source/file /mnt/MOUNTFOLDER/

mountpoint -q geeft een 0 terug als de opgegeven directory geen mountpoint is en dus gaat alles vanaf de ‘&&’ niet lopen

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 20:20
orvintax schreef op zondag 30 november 2025 @ 15:12:
Ik denk ook dat het performance verschil miniem gaat zijn. Je haalt er de virtualisatie laag tussen uit maar dat scheelt maar een paar procent.
Het scheelt vooral een hoop overhead/resources.

Leaping Lab Rats!


  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 20:06
@GoBieN-Be

Wat volgens mij helpt is om het mountpoint immutable te maken met chattr +i
Mounten lukt dan wel, maar er iets naartoe schrijven zonder geslaagde mount niet.

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:21
Goede tip, zal ik onthouden.

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 23:41
Ik weet niet of een ieder al Pulse en/of PatchMon heeft ontdekt, maar het geeft een heel mooi overzicht van je hosts, vm's, containers, de usage, backups en updates weer.

Doe er je voordeel mee :)

  • Liegebeest
  • Registratie: Februari 2002
  • Laatst online: 20:34
RudolfR schreef op zondag 30 november 2025 @ 21:29:
@GoBieN-Be

Wat volgens mij helpt is om het mountpoint immutable te maken met chattr +i
Mounten lukt dan wel, maar er iets naartoe schrijven zonder geslaagde mount niet.
Dat is een hele mooie, ja!

Simpel en netjes.

Liege, liege, liegebeest!


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Ik heb die Pulse even geprobeerd. Werkt. Even rommelen met api keys etc maar het werkt.

Nu wil ik, zoals altijd, een statisch ip-adres toewijzen maar dat lijkt op geen enkele voor mij bekende manier mogelijk. /etc/network/interfaces lijkt hij niet op te slaan. Root toegang doe ik via de pve-Shell. (Pct)

Iemand een tip?

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 22:34

Quad

Doof

Een LXC?
Die kan je aanpassen in de network tab van de PVE GUI.

Alles went behalve een Twent.
🎯Psst.. Kans maken op 12 maanden Tweakers HERO abonnement?
nggyu nglyd


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 04-12 12:45
d3vlin schreef op zondag 30 november 2025 @ 21:24:
[...]


Het scheelt vooral een hoop overhead/resources.
Ik ben erg benieuwd waar je dit op baseerd.

Proxmox gebruikt namelijk QEMU KVM wat CPU instructiesets zoals VT-x vereist. Hierdoor is er geen softwarematige emulatie laag nodig voor een hoop hardware. Voor zaken zoals netwerk en opslag word dan weer VirtIO gebruikt, wat ook weer een hoop emulatie weghaalt:
Virtio is a virtualization standard for network and disk device drivers where just the guest's device driver "knows" it is running in a virtual environment, and cooperates with the hypervisor. This enables guests to get high performance network and disk operations, and gives most of the performance benefits of paravirtualization.
Met andere woorden het efficientie verschil door het gebruik van een VM is over het algemeen miniem. Althans zover ik weet. Maar ik hoor graag als dat niet zo is :)

[ Voor 3% gewijzigd door orvintax op 01-12-2025 20:20 ]

https://dontasktoask.com/


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Quad schreef op maandag 1 december 2025 @ 20:18:
Een LXC?
Die kan je aanpassen in de network tab van de PVE GUI.
Dat heb ik wel gezien. Ik werk heel ouderwets met VM’s normaal gesproken maar dit is idd een LXC.

[ Voor 4% gewijzigd door Gunner op 01-12-2025 20:37 ]

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 22:34

Quad

Doof

Gunner schreef op maandag 1 december 2025 @ 20:37:
[...]

Dat heb ik wel gezien. Ik werk heel ouderwets met VM’s normaal gesproken maar dit is idd een LXC.
Klopt, het kan wat gek overkomen, maar zo werkt het wel voor een LXC. :)
Je kan ook eenvoudig meerdere adapters toewijzen en instellen. Zo heb ik bijv op TrueNAS een interne bridge adapter toegekend, mijn fstab mounts en PBS kijken bijvoorbeeld naar dat ip, zo routeert het niet via de gateway maar rechtstreeks.

Alles went behalve een Twent.
🎯Psst.. Kans maken op 12 maanden Tweakers HERO abonnement?
nggyu nglyd


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 20:20
orvintax schreef op maandag 1 december 2025 @ 20:18:
[...]

Ik ben erg benieuwd waar je dit op baseerd.

Proxmox gebruikt namelijk QEMU KVM wat CPU instructiesets zoals VT-x vereist. Hierdoor is er geen softwarematige emulatie laag nodig voor een hoop hardware. Voor zaken zoals netwerk en opslag word dan weer VirtIO gebruikt, wat ook weer een hoop emulatie weghaalt:

[...]

Met andere woorden het efficientie verschil door het gebruik van een VM is over het algemeen miniem. Althans zover ik weet. Maar ik hoor graag als dat niet zo is :)
Het scheelt sowieso een Docker laag qua resources en onderhoud. ;) Daarnaast heeft een volwaardige VM met compleet OS in mijn ervaring meer CPU en vooral meer RAM nodig dan een Alpine LXC (waarop de PVE 9.1 OCI LXC containers blijkbaar gebaseerd zijn).

Los van het updaten van de OCI images zelf ben ik trouwens ook wel benieuwd hoe het updaten van Alpine dan gaat verlopen.

[ Voor 6% gewijzigd door d3vlin op 01-12-2025 21:29 ]

Leaping Lab Rats!


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Quad schreef op maandag 1 december 2025 @ 20:40:
[...]

Klopt, het kan wat gek overkomen, maar zo werkt het wel voor een LXC. :)
Je kan ook eenvoudig meerdere adapters toewijzen en instellen. Zo heb ik bijv op TrueNAS een interne bridge adapter toegekend, mijn fstab mounts en PBS kijken bijvoorbeeld naar dat ip, zo routeert het niet via de gateway maar rechtstreeks.
Dank voor het toelichten hoe een LXC werkt. Ik ga er even mee rommelen.

edit: het werkt :henk o<:)

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • ComTech
  • Registratie: November 2002
  • Laatst online: 22:20
Ik heb na aanleiding van wat problemen met ZFS een mdadm raid gemaakt van mijn 2 nvme disks.
Dat werkt allemaal prima maar ik zag naast de nieuw gemaakte md0 ook nog 2 andere staan.

code:
1
2
3
4
5
6
7
8
9
md1 : active raid1 zd16p2[0]
      2096128 blocks super 1.2 [8/1] [U_______]
      
md2 : active raid1 zd16p5[0]
      115104640 blocks super 1.2 [1/1] [U]
      
md0 : active raid1 nvme1n1[1] nvme0n1[0]
      976630464 blocks super 1.2 [2/2] [UU]
      bitmap: 2/8 pages [8KB], 65536KB chunk


Details van md2 (md1 is bijna hetzelfde).
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
/dev/md2:
           Version : 1.2
     Creation Time : Sat Oct 25 15:10:19 2025
        Raid Level : raid1
        Array Size : 115104640 (109.77 GiB 117.87 GB)
     Used Dev Size : 115104640 (109.77 GiB 117.87 GB)
      Raid Devices : 1
     Total Devices : 1
       Persistence : Superblock is persistent

       Update Time : Wed Dec  3 20:21:38 2025
             State : clean 
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : Xpenology:2
              UUID : 30557c32:ac7bf406:0c6c001b:101b8d34
            Events : 12

    Number   Major   Minor   RaidDevice State
       0     230       21        0      active sync   /dev/zd16p5


Ik heb een xpenology VM draaien maar kan toch niet dat op de proxmox host een raid daarvan zichtbaar is.

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 20:20
Proxmox Datacenter Manager 1.0 is uit.
https://forum.proxmox.com...anager-1-0-stable.177321/

Leaping Lab Rats!


  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 21:55

zeroday

There is no alternative!

ik had de eerste beta geinstalleerd en toen maar weer verlaten want vond het niet zo 1-2-3 een directe toevoeging aan de normale datacenter ..
maar goed .. zojuist even snel een VM aangemaakt en geinstalleerd.

installatie was zo gepiept maar met een cluster toch een beetje tricky weer dat je niet valt voor de config van alle nodes.. Je pakt er maar 1 en dan krijg je je cluster te zien.. Dat vind ik nog steeds een beetje knullig, maar als je dat al een keer hebt meegemaakt valt het kwartje snel ..

certificaat moest ik even over nadenken want dat is weer in stukken opgedeeld maar nu kun je een wildcard aanmaken, alleen die wordt zover ik zie alleen voor de datacenter gebruikt ..

Ik had toch meer als een tool willen zien dat ik snel via de datacenter 1x ergens op kan drukken en dat dan alle nodes in dat cluster bijv. die update krijgen ..

maar goed.. versie 1.0 is uit .. we laten het nu maar draaien ;)

There are no secrets, only information you do not yet have

Pagina: 1 ... 62 63 Laatste