• Asterion
  • Registratie: Maart 2008
  • Laatst online: 12:06
sailor_dg schreef op vrijdag 19 december 2025 @ 12:46:
ik gebruik een truenas VM met een SATA controller in passthrough naar die VM - dit is mijn 'NAS'. die netjes een ZFS opslag aanbiedt via NFS & Samba waar nodig.
orvintax schreef op vrijdag 19 december 2025 @ 14:05:
[...]

Je kunt overschakelen naar Proxmox en dat (ook) gebruiken voor storage. Maar ik zou aanraden om dat door een stukje NAS software te doen. Of dat nu TrueNAS, Unraid of OMV is dat maakt eigenlijk niet uit. Draai het gewoon als (extra) VM op je Proxmox server en geef de disks of satacontroller mee via passthrough. Net zoals @sailor_dg en mij :)
Weten jullie ook hoe het dan zit om een usb-stick door te geven naar de VM van Unraid? Unraid start vanaf een usb om daarna alles in het RAM te houden. Maar ik zou dan misschien beter overstappen naar TrueNAS om die laag al te kunnen skippen?

Voor zover ik al gelezen heb krijgt elke LXC zijn eigen ip-adres? Bij Docker kan je dat kiezen.
Ik veronderstel, als je een VM NAS gebruikt, dat je dan een 'volume' niet kan rechtstreeks kan koppelen aan een map op de opslag die beheerd wordt door de NAS maar dat je dan een NFS share gebruikt?
sailor_dg schreef op vrijdag 19 december 2025 @ 17:24:
wil je helemaal overkill: ik heb een tweede proxmox pc draaien met daarin ook een truenas VM, welke als ZFS replicatie host werkt en voor andere machines als backup target werkt - deze praat ook met Amazon S3 voor opslag in de cloud van kritische zaken. tweede VM is proxmox backup server welke backups van de VMs zelf ontvangt.
Haha, dat is misschien wel mogelijk in de verre toekomst.
In onze opleiding hebben de hogere klassen 3 proxmox'en moeten opzetten, een ubuntu server als fileserver.
Gebruik makend van CEPH en ervoor zorgen dat als er een node uitvalt, een andere node overneemt.
En dat allemaal in VMWare..
Cyphax schreef op vrijdag 19 december 2025 @ 17:46:
[...]

Op zich is Proxmox een goede oplossing, maar naar mijn bescheiden mening zit daar een hele grote "maar" aan. Proxmox heeft native een andere container-soort aan boord, de LXC. Dat lijkt op sommige punten op Docker maar op andere punten weer minder. Als je een Docker-container wilt draaien, dan moet je eigenlijk dus eerst een VM of container daarvoor draaien waarin je dan je applicaties nog een keer containerized. Nou kan dat op zich prima, maar mijn ervaring ermee is tot dusverre dat het handiger is om dan over te stappen op LXCs, of een ander OS te installeren dan Proxmox. Wat je hier noemt kan je heel goed in LXCs stoppen, en er zijn kant-en-klare templates en scripts die het vereenvoudigen.
Of het nu Docker of LXC is maakt voor mij verder niks uit. Docker heb ik nu redelijk onder de knie maar iets nieuws leren is altijd leuk.
Er in verdiepen moet ik nog doen als ik beslis om over te schakelen maar ik vermoed dat dit niet heel ver uiteen zal liggen qua werking?

  • Cyphax
  • Registratie: November 2000
  • Nu online

Cyphax

Moderator LNX
Asterion schreef op zaterdag 20 december 2025 @ 12:37:
[...]

Of het nu Docker of LXC is maakt voor mij verder niks uit. Docker heb ik nu redelijk onder de knie maar iets nieuws leren is altijd leuk.
Er in verdiepen moet ik nog doen als ik beslis om over te schakelen maar ik vermoed dat dit niet heel ver uiteen zal liggen qua werking?
Onder water doen ze hetzelfde: je software isoleren en uitvoeren op de host. Maar de manier waarop je ermee werkt is anders. Een LXC binnen Proxmox lijkt meer op een VM. Bij Docker ben je al gauw bezig met Compose met yaml-configuratie en iets als Portainer of DockGE als je het niet via de CLI wilt doen. Nu zijn er wel wat verbeteringen op komst met support voor OCI-images binnen LXCs maar dat is geloof ik nog niet af en ik heb me daar nog niet zo mee beziggehouden. :)

Saved by the buoyancy of citrus


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 06-01 12:04
Asterion schreef op zaterdag 20 december 2025 @ 12:37:
[...]


[...]


Weten jullie ook hoe het dan zit om een usb-stick door te geven naar de VM van Unraid? Unraid start vanaf een usb om daarna alles in het RAM te houden. Maar ik zou dan misschien beter overstappen naar TrueNAS om die laag al te kunnen skippen?

Voor zover ik al gelezen heb krijgt elke LXC zijn eigen ip-adres? Bij Docker kan je dat kiezen.
Ik veronderstel, als je een VM NAS gebruikt, dat je dan een 'volume' niet kan rechtstreeks kan koppelen aan een map op de opslag die beheerd wordt door de NAS maar dat je dan een NFS share gebruikt?


[...]


Haha, dat is misschien wel mogelijk in de verre toekomst.
In onze opleiding hebben de hogere klassen 3 proxmox'en moeten opzetten, een ubuntu server als fileserver.
Gebruik makend van CEPH en ervoor zorgen dat als er een node uitvalt, een andere node overneemt.
En dat allemaal in VMWare..


[...]


Of het nu Docker of LXC is maakt voor mij verder niks uit. Docker heb ik nu redelijk onder de knie maar iets nieuws leren is altijd leuk.
Er in verdiepen moet ik nog doen als ik beslis om over te schakelen maar ik vermoed dat dit niet heel ver uiteen zal liggen qua werking?
Ik zou de Unraid VM niet meer op een USB disk zetten, maar verplaatsen en naast Proxmox zetten. Gewoon op de NVME.

Ik gebruik inderdaad een NFS share om mijn HDD opslag te delen met andere VMs.

Voor Docker vs LXC moet je zelf kijken naar welke oplossing je het fijnst vind. Uiteindelijk dient het hetzelfde doel.

https://dontasktoask.com/


  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 12:06
Cyphax schreef op zaterdag 20 december 2025 @ 12:52:
[...]

Onder water doen ze hetzelfde: je software isoleren en uitvoeren op de host. Maar de manier waarop je ermee werkt is anders. Een LXC binnen Proxmox lijkt meer op een VM. Bij Docker ben je al gauw bezig met Compose met yaml-configuratie en iets als Portainer of DockGE als je het niet via de CLI wilt doen. Nu zijn er wel wat verbeteringen op komst met support voor OCI-images binnen LXCs maar dat is geloof ik nog niet af en ik heb me daar nog niet zo mee beziggehouden. :)
Thanx, ik denk dat ik gwn even de stap ga wagen en het ga proberen..
orvintax schreef op zaterdag 20 december 2025 @ 16:40:
[...]

Ik zou de Unraid VM niet meer op een USB disk zetten, maar verplaatsen en naast Proxmox zetten. Gewoon op de NVME.

Ik gebruik inderdaad een NFS share om mijn HDD opslag te delen met andere VMs.

Voor Docker vs LXC moet je zelf kijken naar welke oplossing je het fijnst vind. Uiteindelijk dient het hetzelfde doel.
Ah, mazr ik bedoelde dat Unraid vanaf een USB opstart en dat ook vereist want de licentie is gekoppeld aan die USB stick.

Je installeert Unraid niet ergens op. Het laadt alles op van die stick en plaatst dat in het RAM.
Wijzigingen worden er wel naar weggeschreven maar thats it.

  • Jerie
  • Registratie: April 2007
  • Niet online
Asterion schreef op zondag 21 december 2025 @ 11:35:

Je installeert Unraid niet ergens op. Het laadt alles op van die stick en plaatst dat in het RAM.
Wijzigingen worden er wel naar weggeschreven maar thats it.
Ook al zorg je er nog voor dat deze USB stick geen onnodige writes hoeft te ondergaan (immutable OS) dan zou ik toch backups maken van deze USB stick. Ik heb vaak genoeg gehad dat zelfs bij enkel r/o deze dingen toch te heet worden (dat staat als het goed is ook in de specs), en ze stuk gaan.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 12:06
Jerie schreef op zondag 21 december 2025 @ 13:31:
[...]


Ook al zorg je er nog voor dat deze USB stick geen onnodige writes hoeft te ondergaan (immutable OS) dan zou ik toch backups maken van deze USB stick. Ik heb vaak genoeg gehad dat zelfs bij enkel r/o deze dingen toch te heet worden (dat staat als het goed is ook in de specs), en ze stuk gaan.
Daar heb je zeker gelijk in en dat is op dit moment ook goed geregeld.

Maar ik vraag me af of ik niet beter kan overstappen naar TrueNAS om ervoor te zorgen dat ik die stap van passtrough of dergelijk al niet meer hoef te doen.
Is toch weer een laag complexiteit dat toegevoegd wordt.

  • Jerie
  • Registratie: April 2007
  • Niet online
Asterion schreef op zondag 21 december 2025 @ 14:56:
[...]


Daar heb je zeker gelijk in en dat is op dit moment ook goed geregeld.

Maar ik vraag me af of ik niet beter kan overstappen naar TrueNAS om ervoor te zorgen dat ik die stap van passtrough of dergelijk al niet meer hoef te doen.
Is toch weer een laag complexiteit dat toegevoegd wordt.
Wat voor licentie heb je qua Unraid? Wat ik niet cool vindt aan Unraid is hun licentiemodel. Voor professioneel gebruik is dat prima, maar voor een hobby project is dat wat mij betreft te duur. Proxmox is ook duur voor hobby project, maar je kunt ook de repo gebruiken die er op neer komt dat je proefkonijn bent. TrueNAS doet niet moeilijk met hun community edition dat is TrueNAS SCALE, ook gebaseerd op Debian (net als Proxmox).

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 12:06
Jerie schreef op zondag 21 december 2025 @ 15:13:
[...]


Wat voor licentie heb je qua Unraid? Wat ik niet cool vindt aan Unraid is hun licentiemodel. Voor professioneel gebruik is dat prima, maar voor een hobby project is dat wat mij betreft te duur.
Ik heb nog een Pro Licentie. Dat is van voor de huidige licenties.
Komt erop neer dat ik unlimited HDDs kan aansluiten en lifetime updates heb.

Had ik dus nog niet gelezen dat Proxmox in de basis niet gratis is.
Ik dacht dat de VE editie voor thuisgebruik gewoon gratis is?

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Asterion schreef op zondag 21 december 2025 @ 15:30:
[...]
Had ik dus nog niet gelezen dat Proxmox in de basis niet gratis is.
Ik dacht dat de VE editie voor thuisgebruik gewoon gratis is?
Het is misschien wat verwarrend verwoord door @Jerie, maar gebruik van de no-subscription apt source is inderdaad gewoon gratis (of je het nu thuis gebruikt of niet, dat maakt niet eens uit).

  • Dacuuu
  • Registratie: Maart 2009
  • Laatst online: 12:35
Jerie schreef op zondag 21 december 2025 @ 15:13:
[...]


Wat voor licentie heb je qua Unraid? Wat ik niet cool vindt aan Unraid is hun licentiemodel. Voor professioneel gebruik is dat prima, maar voor een hobby project is dat wat mij betreft te duur. Proxmox is ook duur voor hobby project, maar je kunt ook de repo gebruiken die er op neer komt dat je proefkonijn bent. TrueNAS doet niet moeilijk met hun community edition dat is TrueNAS SCALE, ook gebaseerd op Debian (net als Proxmox).
Ik vind unraid heerlijk. Eerst alles cli gedaan op Ubuntu, maar geniet elke dag van unraid. E is dan vind ik ook niet erg dat dat iets geld gekost heeft.

De usb drive back-uppen, en een stick gebruiken met MLC of beter, SLC.

Daarnaast komt unraid binnenkort ook met optie(s) om geen geen usb stick meer te gebruiken. Komt binnenkort in beta.

  • Jerie
  • Registratie: April 2007
  • Niet online
Asterion schreef op zondag 21 december 2025 @ 15:30:
[...]


Ik heb nog een Pro Licentie. Dat is van voor de huidige licenties.
Komt erop neer dat ik unlimited HDDs kan aansluiten en lifetime updates heb.
Als je die licentie al hebt, dan zou ik eerst eens uitzoeken of Unraid niet voldoet aan jouw eisen. Volgens mij heb je het best goed geregeld. Je start r/o op van een USB stick. Daar heb je backups van. Je hebt een lifetime licentie. Dan moet je een goede reden hebben om te willen switchen naar iets anders.

Want of je nou je storage draait op een of andere Linux server distributie met OCI containers, of Proxmox, Unraid, OMV, TrueNAS, dat maakt allemaal niet zoveel uit. Op Unraid kun je ook prima spelen met virtuele netwerken, of VMs.

Als ik je post nog eens vluchtig teruglees dan denk ik: if it ain't broken, don't fix it.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 06-01 12:04
Asterion schreef op zondag 21 december 2025 @ 11:35:
Ah, mazr ik bedoelde dat Unraid vanaf een USB opstart en dat ook vereist want de licentie is gekoppeld aan die USB stick.

Je installeert Unraid niet ergens op. Het laadt alles op van die stick en plaatst dat in het RAM.
Wijzigingen worden er wel naar weggeschreven maar thats it.
Ik was me er niet van bewust dat Unraid je licentie koppelde aan het opslagemdium ( 8)7 ) vandaar dat ik die verplaatsing voorstelde.

https://dontasktoask.com/


  • Vuur Draak
  • Registratie: Mei 2013
  • Laatst online: 10-01 22:38
Komend van een RPi4 met HomeAssistant met wat extra's
ben ik sinds kort overgestapt op Proxmox pve op een mini-pc en heb dit nu een maandje werkend:
- Home Asistant (vm)
- Adguard Home (lxc)
- Homepage (lxc)

Hier wil ik nog aan toevoegen:
- Jellyfin (lxc)
- Immich (lxc)

Proxmox host zelf en de lxc' en vm staan op een 500gb ssd in deze mini pc heb ik een 2TB nvme bijgestoken
Die 2TB is bedoeld voor:
Immich database
Media bestanden van Jellyfin en Home Assistant (mp3 / mp4)
Opslag snapshots van videobewakingsbeelden

Ik heb hier al over veel verschillende manieren gelezen hoe je data zou kunnen delen
en vraag mij af wat voor mij de makkelijkste methode zou zijn bestandsdeling te bewerkstelligen.
Kan dit met OMV in een LXC of VM waaraan ik een extra ssd volume kan toevoegen?
Wat zijn jullie tips / ervaringen voor een beginnend proxmoxer...

  • Cyphax
  • Registratie: November 2000
  • Nu online

Cyphax

Moderator LNX
Vuur Draak schreef op zondag 21 december 2025 @ 23:32:
Komend van een RPi4 met HomeAssistant met wat extra's
ben ik sinds kort overgestapt op Proxmox pve op een mini-pc en heb dit nu een maandje werkend:
- Home Asistant (vm)
- Adguard Home (lxc)
- Homepage (lxc)

Hier wil ik nog aan toevoegen:
- Jellyfin (lxc)
- Immich (lxc)

Proxmox host zelf en de lxc' en vm staan op een 500gb ssd in deze mini pc heb ik een 2TB nvme bijgestoken
Die 2TB is bedoeld voor:
Immich database
Media bestanden van Jellyfin en Home Assistant (mp3 / mp4)
Opslag snapshots van videobewakingsbeelden

Ik heb hier al over veel verschillende manieren gelezen hoe je data zou kunnen delen
en vraag mij af wat voor mij de makkelijkste methode zou zijn bestandsdeling te bewerkstelligen.
Kan dit met OMV in een LXC of VM waaraan ik een extra ssd volume kan toevoegen?
Wat zijn jullie tips / ervaringen voor een beginnend proxmoxer...
Naar LXCs toe is het het makkelijkst om gewoon bind mounts te gebruiken. Als die ssd en z'n partitie(s) op de host gemount worden kan je ze gewoon doorgeven.

Saved by the buoyancy of citrus


  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 12:06
Jerie schreef op zondag 21 december 2025 @ 15:45:
[...]


Als je die licentie al hebt, dan zou ik eerst eens uitzoeken of Unraid niet voldoet aan jouw eisen. Volgens mij heb je het best goed geregeld. Je start r/o op van een USB stick. Daar heb je backups van. Je hebt een lifetime licentie. Dan moet je een goede reden hebben om te willen switchen naar iets anders.

Want of je nou je storage draait op een of andere Linux server distributie met OCI containers, of Proxmox, Unraid, OMV, TrueNAS, dat maakt allemaal niet zoveel uit. Op Unraid kun je ook prima spelen met virtuele netwerken, of VMs.

Als ik je post nog eens vluchtig teruglees dan denk ik: if it ain't broken, don't fix it.
Omdat ik het gevoel heb dat ik het op een andere manier beter kan indelen en gebruiken waarvoor het dient.

Wat ik nu heb is een NAS omgeving die ik gebruik voor containers en VMs. Maar niet het doel waarvoor een NAS eigenlijk dient.
Ik had gehoopt om die extra laag ervan tussen te halen.
Ik loop ook tegen de beperkingen aan dat ik redelijk wat containers gebruik die van dezelfde poorten willen gebruik maken.
Dat is op te lossen door ieder een eigen ip-adres te geven of om poort-mapping te gebruiken maar ik vind het toch net niet dat.
Misschien zijn daar nog andere oplossingen voor maar daar heb ik nog niet verder achter gezocht.

Containers rechtstreeks op virtualisatieplatform, samen met de VMs. De overhead is dan toch veel kleiner?
En daarnaast een NAS VM die dan een share kan doorgeven voor de containers.

En ook, omdat het kan!
Ik speel er graag mee en ben zeker niet verlegen om een paar keer opnieuw te beginnen.

  • Jerie
  • Registratie: April 2007
  • Niet online
Asterion schreef op maandag 22 december 2025 @ 12:59:
[...]


Omdat ik het gevoel heb dat ik het op een andere manier beter kan indelen en gebruiken waarvoor het dient.

Wat ik nu heb is een NAS omgeving die ik gebruik voor containers en VMs. Maar niet het doel waarvoor een NAS eigenlijk dient.
Ik had gehoopt om die extra laag ervan tussen te halen.
Ik loop ook tegen de beperkingen aan dat ik redelijk wat containers gebruik die van dezelfde poorten willen gebruik maken.
Dat is op te lossen door ieder een eigen ip-adres te geven of om poort-mapping te gebruiken maar ik vind het toch net niet dat.
Misschien zijn daar nog andere oplossingen voor maar daar heb ik nog niet verder achter gezocht.

Containers rechtstreeks op virtualisatieplatform, samen met de VMs. De overhead is dan toch veel kleiner?
En daarnaast een NAS VM die dan een share kan doorgeven voor de containers.

En ook, omdat het kan!
Ik speel er graag mee en ben zeker niet verlegen om een paar keer opnieuw te beginnen.
Reverse proxy + subdomein + wildcard TLS cert.

Een NAS bevat data (op de storage, tegenwoordig meestal nog HDDs), en draait services (liefst op de NVMe). Die serveert het over een netwerk. Hoeveelheid software die je draait heeft effect op hoeveel je je hardware belast, en dat zie je weer terug op een stroomrekening. Daar wil ik mee zeggen dat je niet een wezenlijk verschil zou hoeven te merken per software stack. De overhead van een VM is ook verwaarloosbaar.

Wat betreft die licentie in het commentaar hier zie ik dat je die kunt rebinden? https://old.reddit.com/r/...ny2ouf/usb_stick_failing/ in ieder geval is dit op zich wel goed advies: je hebt USB sticks die zelf geen data bevatten, maar waar je een microSD in kunt stoppen. Gaat die stuk, dan blijft je USB stick dezelfde serial bevatten. Daarmee kun je om dit probleem van die licentie heenwerken. Een SLC of aMLC storage zou ook al kunnen helpen. Die gaan lang mee, zijn wel wat duurder.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 12:06
Jerie schreef op maandag 22 december 2025 @ 13:11:
[...]


Reverse proxy + subdomein + wildcard TLS cert.

Een NAS bevat data (op de storage, tegenwoordig meestal nog HDDs), en draait services (liefst op de NVMe). Die serveert het over een netwerk. Hoeveelheid software die je draait heeft effect op hoeveel je je hardware belast, en dat zie je weer terug op een stroomrekening. Daar wil ik mee zeggen dat je niet een wezenlijk verschil zou hoeven te merken per software stack. De overhead van een VM is ook verwaarloosbaar.

Wat betreft die licentie in het commentaar hier zie ik dat je die kunt rebinden? https://old.reddit.com/r/...ny2ouf/usb_stick_failing/ in ieder geval is dit op zich wel goed advies: je hebt USB sticks die zelf geen data bevatten, maar waar je een microSD in kunt stoppen. Gaat die stuk, dan blijft je USB stick dezelfde serial bevatten. Daarmee kun je om dit probleem van die licentie heenwerken. Een SLC of aMLC storage zou ook al kunnen helpen. Die gaan lang mee, zijn wel wat duurder.
Dus in feite maakt het niet uit of ik de containers in Unraid gebruik of via Proxmox? De verschillen qua belasting zijn minimaal te noemen?

Ja, de licentie van Unraid is inderdaad over te zetten naar een andere USB Stick. Dan wordt de oude op een soort van blacklist gezet. :-)

Dat van de reverse proxy moet ik dan even bekijken, bedankt voor de tip.
Dan zouden de containers geen poort mapping meer moeten krijgen als ik goede vriend ChatGPT mag geloven als ik reverse proxy zou gebruiken?

  • Jerie
  • Registratie: April 2007
  • Niet online
Asterion schreef op maandag 22 december 2025 @ 13:18:
[...]


Dus in feite maakt het niet uit of ik de containers in Unraid gebruik of via Proxmox? De verschillen qua belasting zijn minimaal te noemen?
Normaal gesproken maakt dat niets uit, tenzij je iets van duidelijke data hebt dat dat wel het geval zou zijn. Anders is het puur speculatief.
Ja, de licentie van Unraid is inderdaad over te zetten naar een andere USB Stick. Dan wordt de oude op een soort van blacklist gezet. :-)
Nice, wel zo terecht inderdaad. Dan is dat probleem ook een non-issue, mits je dus goede backups hebt (en die zeg je te hebben). Met name van je licentie en config, zo te lezen.
Dat van de reverse proxy moet ik dan even bekijken, bedankt voor de tip.
Dan zouden de containers geen poort mapping meer moeten krijgen als ik goede vriend ChatGPT mag geloven als ik reverse proxy zou gebruiken?
Wel interne ports, maar daar heb je niets mee te maken. Je bind bijvoorbeeld de webserver op 10.0.0.1:10001 en die bind je dan met reverse proxy op https://sonarr.thuisserver.domein.invalid waarbij je een certificaat hebt voor *.thuisserver.domein.invalid. Vervolgens heb je een lagere attack surface (niets kan direct met de applicaties verbinden, enkel via de reverse proxy) en heb je ook nooit iets te maken met ports (je reverse proxy dealt daarmee), dat gaat allemaal transparant. Je kunt ook nog gebruikmaken van thuisserver.domein.invalid/sonarr als je dat prettiger vindt. (Of je thuisserver ook extern bereikbaar moet zijn, staat hier even los van, dat is een kwestie van firewalling, al zeg je wel tegen de hele wereld dat thuisserver.domein.invalid in ieder geval bestaat.)

De keuze is geheel aan jou :)

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 12:06
Jerie schreef op maandag 22 december 2025 @ 13:31:
[...]


Normaal gesproken maakt dat niets uit, tenzij je iets van duidelijke data hebt dat dat wel het geval zou zijn. Anders is het puur speculatief.


[...]


Nice, wel zo terecht inderdaad. Dan is dat probleem ook een non-issue, mits je dus goede backups hebt (en die zeg je te hebben). Met name van je licentie en config, zo te lezen.


[...]


Wel interne ports, maar daar heb je niets mee te maken. Je bind bijvoorbeeld de webserver op 10.0.0.1:10001 en die bind je dan met reverse proxy op https://sonarr.thuisserver.domein.invalid waarbij je een certificaat hebt voor *.thuisserver.domein.invalid. Vervolgens heb je een lagere attack surface (niets kan direct met de applicaties verbinden, enkel via de reverse proxy) en heb je ook nooit iets te maken met ports (je reverse proxy dealt daarmee), dat gaat allemaal transparant. Je kunt ook nog gebruikmaken van thuisserver.domein.invalid/sonarr als je dat prettiger vindt. (Of je thuisserver ook extern bereikbaar moet zijn, staat hier even los van, dat is een kwestie van firewalling, al zeg je wel tegen de hele wereld dat thuisserver.domein.invalid in ieder geval bestaat.)

De keuze is geheel aan jou :)
Dan moet ik daar maar even mee aan de slag gaan en me even in verdiepen.
Bedankt voor de informatie!

  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Gunner schreef op zondag 23 november 2025 @ 14:28:
[...]

Goed, even wat uitzoekwerk gedaan, wat commando's gecheckt en ik gebruikte voor zover ik weet die systemd-boot niet. Deze verwijderd en systeem startte nog op na de reboot :7

Daarna moest ik nog een andere bootloader verwijderen en opnieuw installeren en alles draait nog. In principe dus klaar voor de update.
Vandaag even uitgekozen voor de upgrade van 8 naar 9. Gelukkig zijn de te volgen stappen goed gedocumenteerd en het lijkt gelukt ondanks mijn beperkte kennis van Debian. :7

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • witchdoc
  • Registratie: Juni 2000
  • Laatst online: 12:05
Ik draai momenteel een enkele Proxmox VE node met wat VMs.
Hiernaast heb ik momenteel ook nog een Synology 1821+ waar momenteel nog de meeste services op draaien (reverse proxy, DNS authorative & recursive server, email server, webserver, NFS/SMB share, certificates, docker, ...).
Ik zou liever die Synology uit mijn setup weghalen en de services naar Proxmox VE verhuizen.

De huidige node (Minisforum MS-A2) heeft 4TB SSD storage.
Voor de 2e PVE node (aka synology vervanger) heb ik uiteraard meer ruimte nodig. Ik was dus aan iets zoals de Minisforum N5 Pro aant denken. Deze dan ook 4TB SSD storage te geven, en verder HD's voor 1) proxmox backup en 2) whatever dat niet op die 4TB SSD hoort.

Dan heb ik 2 hosts in een cluster waar ik ongeveer gelijke specs heb zodat ik de belangrijskte VM's redundant kan opzetten (active/active of active/standby naargelang wat die software supporteerd, geen PVE HA dus).

Vraag: is dat een logische setup? Kan ik tegelijk die HD's 'correct/logisch' gebruiken voor zowel proxmox backup als via de PVE host b.v. NFS en SMB te laten doen voor diezelfde HD's?

  • Quad
  • Registratie: Mei 2009
  • Nu online

Quad

Doof

@witchdoc Als je Proxmox Backup server gebruikt, zet de backups dan op een SSD. PBS gaat niet lekker met opslag op HDD.

Alles went behalve een Twent.
nggyu nglyd


  • witchdoc
  • Registratie: Juni 2000
  • Laatst online: 12:05
Quad schreef op zondag 28 december 2025 @ 16:02:
@witchdoc Als je Proxmox Backup server gebruikt, zet de backups dan op een SSD. PBS gaat niet lekker met opslag op HDD.
Mmm, VM's gaan backuppen op dezelfde storage lijkt me ook niet echt logisch, toch? Zeker als ik dan ook nog eens 2 apparte nodes moet gaan backuppen dan ben ik gelijk ruim 1TB kwijt dat ik kan gebruiken.
Gans de HD's door SSD's vervangen is niet betaalbaar, dus dat is ook niet echt een oplossing.
Zou in host #2 misschien 1 extra 4TB (zonder redundantie) kunnen stoppen speciaal voor PBS, en dan die nog eens backuppen richting HD's. Maar is dat dan allemaal weer conmfigureerbaar in PBS of PVE?

  • Cyphax
  • Registratie: November 2000
  • Nu online

Cyphax

Moderator LNX
witchdoc schreef op zondag 28 december 2025 @ 16:09:
[...]


Mmm, VM's gaan backuppen op dezelfde storage lijkt me ook niet echt logisch, toch?
Dat kan in principe wel, maar een tweede kopie van je backup op je NAS. Ik heb mijn NAS op de host gemount via SMB en die als bind mount doorgegeven aan PBS, die de backups in eerste instantie op de host opslaat maar een kopie bijhoudt op de NAS via een sync job. Het is allemaal op HDD, ook de primaire backups bedenk ik me net, maar dat is nooit een issue geweest.

Saved by the buoyancy of citrus


  • Rolfie
  • Registratie: Oktober 2003
  • Laatst online: 09:22
Ik heb juist PBS als VM draaien op mijn Synology NAS, waar ik een 16T harddisk in heb zitten voor mijn normale opslag. In die VM heb ik 1T ISCSI lun, van mijn Synology gemaakt, waarop ik de backups bewaar.

Niet het snelste, maar werkt wel goed.

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 10-01 22:06
witchdoc schreef op zondag 28 december 2025 @ 15:38:
Ik draai momenteel een enkele Proxmox VE node met wat VMs.
Hiernaast heb ik momenteel ook nog een Synology 1821+ waar momenteel nog de meeste services op draaien (reverse proxy, DNS authorative & recursive server, email server, webserver, NFS/SMB share, certificates, docker, ...).
Ik zou liever die Synology uit mijn setup weghalen en de services naar Proxmox VE verhuizen.

De huidige node (Minisforum MS-A2) heeft 4TB SSD storage.
Voor de 2e PVE node (aka synology vervanger) heb ik uiteraard meer ruimte nodig. Ik was dus aan iets zoals de Minisforum N5 Pro aant denken. Deze dan ook 4TB SSD storage te geven, en verder HD's voor 1) proxmox backup en 2) whatever dat niet op die 4TB SSD hoort.

Dan heb ik 2 hosts in een cluster waar ik ongeveer gelijke specs heb zodat ik de belangrijskte VM's redundant kan opzetten (active/active of active/standby naargelang wat die software supporteerd, geen PVE HA dus).

Vraag: is dat een logische setup? Kan ik tegelijk die HD's 'correct/logisch' gebruiken voor zowel proxmox backup als via de PVE host b.v. NFS en SMB te laten doen voor diezelfde HD's?
Ik weet niet wat je allemaal aan VM's en andere meuk hebt draaien. :+
Maar weet dat je voor een echt PVE cluster eigenlijk 3 dezelfde nodes nodig hebt.

Mijn 0,500 Euro (ter overweging):
Mijn eerste gedachte is/was om die N5-pro in een minimale setup te gebruiken als PBS met twee spindle disks in een raid-0. Zo heb ik het nu gedaan met een Ugreen DXP-4800 NAS.

De Ugreen-NAS-functie is vervangen door een boot-sata-SSD met PBS erop. En daarnaast 2 spindle disks van elk 12-TB in raid-0 volume - aangemaakt met mdadm. Deze dient als backup voor twee PVE servers (prod en test/ontw) - beiden worden in minder dan 2 uur ge-backup-ed via een netwerk met allemaal 1-Gbps poorten. De servers hebben twee poorten in een 802.3ad bond staan.

Beide PVE servers hebben een LXC die als NAS fungeert op een lokaal raid-0 volume - ook weer met twee spindle disks.

Alle LXC's (ik gebruik geen VM's) draaien lokaal via een 4 TB WD-RED nvme SSD.
Met een extra lokale backup via een ext-4 volume. Een backup naar dit volume duurt 2-4 uur - afhankelijk van de mutatiegraad op de NAS-LXC.

De NAS functie is gebaseerd op handmatig ingestelde Samba setup binnen de LXC. Met daarnaast een aantal Docker containers - waaronder Nextcloud met MariaDB en Redis.

Punt wat ik hiermee wil maken: kijk nog eens kritisch naar je huidige setup en de applicaties die je allemaal gebruikt. En overweeg om een goedkoop Ugreen NAS (of vergelijkbaar) in te zetten als PBS en eventueel een tweede als extra PVE server voor die applicaties die niet zo CPU-hungry zijn. Mijn inschatting is dat je hierdoor flexibeler bent, de beste prijs/prestatie verhouding krijgt en de minste risico's op gegevens verlies - mocht een van de servers (PVE of PBS) de eeuwige jachtvelden opgezocht hebben. oOo

makes it run like clockwork


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 10-01 22:06
Quad schreef op zondag 28 december 2025 @ 16:02:
@witchdoc Als je Proxmox Backup server gebruikt, zet de backups dan op een SSD. PBS gaat niet lekker met opslag op HDD.
Die volg ik niet - wat gaat er dan niet lekker?

makes it run like clockwork


  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 10-01 09:41

zeroday

There is no alternative!

Quad schreef op zondag 28 december 2025 @ 16:02:
@witchdoc Als je Proxmox Backup server gebruikt, zet de backups dan op een SSD. PBS gaat niet lekker met opslag op HDD.
Nou .. hier althans wel .. lekker op een NUC
werkt als een tierelier.
Wat niet lekker werkte bij mij was NFS .. met SMB geen enkel issue
Probleem met NFS was het feit dat er bij het instellen tig folders aangemaakt word door PBS en dat vond indertijd bij de hele vroege eerste versie van PBS mijn hardware niet leuk.

ik heb PBS op een NUC draaien en daar zit een HDD in die de data binnen krijgt.
Daarnaast heb ik nog en sync remote erop gezet die de data naar de NAS dupliceert. dus mocht PBS eruit vliegen dan heb ik de data nog op de NAS ..

There are no secrets, only information you do not yet have


  • Quad
  • Registratie: Mei 2009
  • Nu online

Quad

Doof

Mm dat zou misschien kunnen, ik gebruik standaard NFS en met PBS ging dat naar een HDD over z'n nek. Bij het aanmaken en back-uppen.

Met NFS naar een SATA SSD geen enkel issue. Ik heb wel een HDD extern aangesloten met USB, deze gebruik ik als sync, gaat wel prima.

Alles went behalve een Twent.
nggyu nglyd


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 06-01 12:04
Quad schreef op maandag 29 december 2025 @ 14:18:
Mm dat zou misschien kunnen, ik gebruik standaard NFS en met PBS ging dat naar een HDD over z'n nek. Bij het aanmaken en back-uppen.

Met NFS naar een SATA SSD geen enkel issue. Ik heb wel een HDD extern aangesloten met USB, deze gebruik ik als sync, gaat wel prima.
Ik gebruik zelf PBS met een HDD NFS share, werkt prima. Wat bedoel je over z'n nek? Dat het echt mis ging of dat de performance belabberd was?

https://dontasktoask.com/


  • ninjazx9r98
  • Registratie: Juli 2002
  • Laatst online: 10:53
Ik gebruik een PBS LXC container en die werkt prima samen met een NFS share op een NAS die OMV draait.
De share staat op een MDADM RAID 5 die bestaat uit zes HDD's.

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 10-01 09:41

zeroday

There is no alternative!

orvintax schreef op maandag 29 december 2025 @ 18:57:
[...]

Ik gebruik zelf PBS met een HDD NFS share, werkt prima. Wat bedoel je over z'n nek? Dat het echt mis ging of dat de performance belabberd was?
Ik spreek even voor mezelf en de ervaring bij versie 1.0 van PBS, want daarna had ik wel een goede werkende omgeving:
vooral het failen van de backups maken. Dat gebeurde om de haverklap. Onduidelijke redenen.
wellicht te maken de de UID's en GROUPID's etc.. daar bleek PBS picky ..

Uiteindelijk alles opnieuw opgebouwd, beter gelezen, beter de ervaringen opgezocht en 'juiste' instellingen ingevoerd. Nu draait het voor 99% goed. Heel af en toe failed er om welke reden dan ook een backup ..

There are no secrets, only information you do not yet have


  • Rolfie
  • Registratie: Oktober 2003
  • Laatst online: 09:22
zeroday schreef op dinsdag 30 december 2025 @ 09:01:
[...]

Ik spreek even voor mezelf en de ervaring bij versie 1.0 van PBS, want daarna had ik wel een goede werkende omgeving:
vooral het failen van de backups maken. Dat gebeurde om de haverklap. Onduidelijke redenen.
wellicht te maken de de UID's en GROUPID's etc.. daar bleek PBS picky ..

Uiteindelijk alles opnieuw opgebouwd, beter gelezen, beter de ervaringen opgezocht en 'juiste' instellingen ingevoerd. Nu draait het voor 99% goed. Heel af en toe failed er om welke reden dan ook een backup ..
Ik ben juist hierom eerst van NFS, daarna naar SMB overgestapt. En uiteindelijk gewoon ISCSI gebruikt op mjn Synology NASsen. ISCSI werkte eigenlijk direct en perfect zonder enige problemen.

  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 09:47

InjecTioN

¯\_(ツ)_/¯

Rolfie schreef op zondag 28 december 2025 @ 17:11:
Ik heb juist PBS als VM draaien op mijn Synology NAS, waar ik een 16T harddisk in heb zitten voor mijn normale opslag. In die VM heb ik 1T ISCSI lun, van mijn Synology gemaakt, waarop ik de backups bewaar.

Niet het snelste, maar werkt wel goed.
Dit dus. Ik heb een OpenMediaVault zelfbouw NAS met 2x Seagate Exos 8TB in RAID1. Die wordt met NFS gemount aan de proxmox-backup-server LXC die op mijn proxmox cluster van 3 nodes draait.

De backup wordt dus weggeschreven naar mijn NAS met spinning rust. En performance is echt meer dan prima. Er wordt gewoon een snapshot gemaakt, wat ook echt niet de grootste hoeveelheid data hoeft te zijn. Daarbij hoeft het m.i. ook echt niet snel te gaan.

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Ik draai sinds kort Pulse monitoring, grappige tool. Maar nu ik na de update wil inloggen via pct enter krijg ik de melding
root@pve:~# pct enter 104
user config - ignore invalid privilege 'VM.Monitor'
Blijkbaar zit dit niet meer in PVE 9. Via het proxmox forum kom ik bij iets soortgelijks, waar een van de ontwikkelaars zegt;
well the parser drops it (see the warning), but it is still there in the config unless you modify it..
Dit zegt me allemaal niet zoveel. Kan ik dit gewoon negeren?

[ Voor 3% gewijzigd door Gunner op 30-12-2025 16:11 ]

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Vorkie
  • Registratie: September 2001
  • Niet online
Gunner schreef op dinsdag 30 december 2025 @ 16:11:
Ik draai sinds kort Pulse monitoring, grappige tool. Maar nu ik na de update wil inloggen via pct enter krijg ik de melding


[...]


Blijkbaar zit dit niet meer in PVE 9. Via het proxmox forum kom ik bij iets soortgelijks, waar een van de ontwikkelaars zegt;


[...]


Dit zegt me allemaal niet zoveel. Kan ik dit gewoon negeren?
Ben zelf net gemigreerd naar Proxmox vanuit VMWare, uit mijn open chat van Gemini - maak altijd cp van je config.
Hoe los je het op (zodat de melding stopt)?
Als je van die irritante melding af wilt, kun je de config even "verversen":
Handmatig via de CLI:
Open de config van de container: nano /etc/pve/lxc/104.conf.
Zoek naar de regel waar VM.Monitor in staat en verwijder dat woord (of de hele regel als het een overbodige permissie is).
Via de GUI:
Ga naar de container 104 -> Permissions. Als je daar iets ziet wat rood is of niet klopt, verwijder het en voeg het opnieuw toe met de huidige standaarden.
Kortom: Je Pulse monitoring loopt geen gevaar, het is puur een cosmetische waarschuwing van de Proxmox parser.

  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

@Vorkie Dank voor je uitzoekwerk. Zowel in de conf via de CLI als in de Permissions in de GUI staat geen verwijzing naar VM.Monitor maar als jouw AI resultaat aangeeft dat het puur cosmetisch is is dat verder prima. Het is maar een simpele pulse monitoring LXC die verder gewoon goed lijkt te draaien.

Vanuit een andere tool lijkt het alsof de ontwikkelaar dit moet doen, zie ik dat goed?

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 10-01 09:41

zeroday

There is no alternative!

Gunner schreef op dinsdag 30 december 2025 @ 16:11:
Ik draai sinds kort Pulse monitoring, grappige tool. Maar nu ik na de update wil inloggen via pct enter krijg ik de melding


[...]


Blijkbaar zit dit niet meer in PVE 9. Via het proxmox forum kom ik bij iets soortgelijks, waar een van de ontwikkelaars zegt;
Heb je al in github gekeken?
https://github.com/rcourtman/Pulse/issues/348

Daar wordt oa. over dit issue gesproken. Wellicht draai je met een ouder(e) versie?
[...]


Dit zegt me allemaal niet zoveel. Kan ik dit gewoon negeren?

[ Voor 1% gewijzigd door zeroday op 30-12-2025 17:08 . Reden: quote quote verkeerd gezet ]

There are no secrets, only information you do not yet have


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

zeroday schreef op dinsdag 30 december 2025 @ 17:08:
[...]

Daar wordt oa. over dit issue gesproken. Wellicht draai je met een ouder(e) versie?
Nope, eerder deze week update gedaan naar 5.x en vanmiddag weer een nieuwe update naar 5.0.6
Wel had ik hem pas recent voor het eerst gestart na mijn PVE-update maar een reboot blijft dezelfde melding geven.

Verder zien mijn monitoring-stats er prima uit.

edit: ik zie dat het eigenlijk niets met Pulse te maken heeft. Als ik een QM list doe op PVE krijg ik hem ook :P

[ Voor 17% gewijzigd door Gunner op 30-12-2025 17:14 ]

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

edit: dit is iets anders

[ Voor 89% gewijzigd door Gunner op 30-12-2025 17:17 ]

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Koepert
  • Registratie: Augustus 2013
  • Laatst online: 09:17
Ok, toch ff delen hier.

Ik gebruik Proxmox voor mijn homelab. 1 Host met een Home Assistant VM en 1 Host met wat LXC containers (Adguard, NPM, Uptime Kuma, dat soort spul) maar die had ik in een cluster met een 3e host. Die is echter afgestorven (oude laptop) dus had ik een cluster zonder quorum. Ergens niet zo spannend, het zijn 2 minipc's die geen HA oid hoeven, ging me om 1 interface voor t geheel. Dat ik dan n CT naar die HOST 1 kan moven, ok. Maar daardoor had ik dus geen quorum en dat had de migratie naar een nieuwe PVE_versie enorm groot gemaakt. Ik ben al slecht in rebooten van de hosts, updaten schoot er ook bij in, maar vooral upgraden vanaf 7.4.x bleef er bij. Tot ik vandaag las over het inzetten van een extra device als "qdevice" voor quorum. Ik heb NOG een oude laptop liggen dus daar op gezet en aan de praat.

Daarmee eindelijk succesvol 2 hosts naar 9.1.4 geupgrade :P Wat kun je iets dan moeilijk maken..

Overigens kwam ik er daarna achter dat ik per ongeluk een niet meer actief zijnde Back-up locatie als plek had gebruikt voor een CT disk.. Dus mijn Uptime Kuma CT wilde niet meer booten. Omdat dit de 2e was die ik startte begon ik ff te zweten.. de scripts gaven elke keer groen op de update-checks, had ik toch wat gemist?

Maar dat bleek dus skill-issue.. Alleen nu ik Pulse zag.. Misschien toch die maar eens bekijken, hoewel Uptime Kuma voldoende doet.

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 10-01 17:26
Om via 1 management interface te beheren en te kunnen moven kan je nu ook proxmox datacenter manager gebruiken. Heb je geen cluster voor nodig, kan ook perfect met 2 hosts. Ik draai het in een LXC op één van mijn hosts en start het eigenlijk pas op als ik het nodig heb.

[ Voor 11% gewijzigd door GoBieN-Be op 06-01-2026 20:50 ]


  • Anoniemand
  • Registratie: November 2012
  • Laatst online: 09:06
GoBieN-Be schreef op dinsdag 6 januari 2026 @ 20:50:
Om via 1 management interface te beheren en te kunnen moven kan je nu ook proxmox datacenter manager gebruiken. Heb je geen cluster voor nodig, kan ook perfect met 2 hosts. Ik draai het in een LXC op één van mijn hosts en start het eigenlijk pas op als ik het nodig heb.
Bedankt voor het delen, klinkt interessant genoeg om binnenkort te installeren en te bekijken. d:)b

  • Emootje
  • Registratie: Februari 2004
  • Laatst online: 09-01 07:39
Goedemiddag, omdat ik even niet scherp heb op welke zoektermen ik moet zoeken wil ik hierbij mijn vraag voorleggen. Hoop dat dit zo oké is:
Ik heb sinds een paar dagen de nieuwste versie van Proxmox VE draaien en daarop heb ik HA geïnstalleerd. Dat ging allemaal prima en werkt ook fijn. Echter: ik moet elke dag mijn nuc opnieuw opstarten omdat ik de server niet kan bereiken op het interne ip-adres. Zowel Proxmox als HA niet. Is er iets wat ik niet goed doe?

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 10-01 17:17

Harmen

⭐⭐⭐⭐⭐⭐

Emootje schreef op woensdag 7 januari 2026 @ 12:56:
Goedemiddag, omdat ik even niet scherp heb op welke zoektermen ik moet zoeken wil ik hierbij mijn vraag voorleggen. Hoop dat dit zo oké is:
Ik heb sinds een paar dagen de nieuwste versie van Proxmox VE draaien en daarop heb ik HA geïnstalleerd. Dat ging allemaal prima en werkt ook fijn. Echter: ik moet elke dag mijn nuc opnieuw opstarten omdat ik de server niet kan bereiken op het interne ip-adres. Zowel Proxmox als HA niet. Is er iets wat ik niet goed doe?
Vermoedelijk een driver issue, heb hetzelfde meegemaakt. Zie volgende link:
scorpion303 in "Het grote Proxmox VE topic"

Whatever.


  • Niekniek89
  • Registratie: April 2015
  • Laatst online: 10:47
Ik vermoed dat ik ook dat issue heb, aangezien ik een I219 netwerk NIC heb.

Nooit last van gehad, pas sinds de laatste Proxmox release (V9), daarvoor nooit gehad.
Volgens Google maakt deze ook gebruik van de e1000e drivers.
Afgelopen week was heel de host + VM"s opeens niet meer bereikbaar.
Na het loskoppelen van de LAN kabel, en weer aansluiten kwam het verkeer weer op gang.
Er is een script gemaakt, welke ik nog moet checken:

https://community-scripts...pts?id=nic-offloading-fix

Die zou ook het issue moeten fixen.

[ Voor 8% gewijzigd door Niekniek89 op 07-01-2026 13:48 ]


  • Quad
  • Registratie: Mei 2009
  • Nu online

Quad

Doof

@Niekniek89 Je hebt geen script nodig; zie ThinkPad in "Het grote Proxmox VE topic" van @ThinkPad .
Werkt prima.

Alles went behalve een Twent.
nggyu nglyd


  • Niekniek89
  • Registratie: April 2015
  • Laatst online: 10:47
Dan is er bij mij wellicht iets anders aan de hand, blijkbaar staat alles al op "off".....

root@Proxmox01:~# ethtool -k eno1 | grep -E 'tso|gso|gro'
tx-gso-robust: off [fixed]
tx-gso-partial: off [fixed]
tx-gso-list: off [fixed]
rx-gro-hw: off [fixed]
rx-gro-list: off
rx-udp-gro-forwarding: off
root@Proxmox01:~#

maar in de logging vindt ik toch:

Dec 31 19:54:26 Proxmox01 kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:

daarnaast hangt hij bij mij wel in een mgmt vlan:

iface vmbr0 inet manual
bridge-ports eno1
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094

iface wlp0s20f3 inet manual

auto vmbr0.3
iface vmbr0.3 inet static
address 192.168.176.10/24
gateway 192.168.176.1

[ Voor 28% gewijzigd door Niekniek89 op 07-01-2026 14:49 ]


  • Emootje
  • Registratie: Februari 2004
  • Laatst online: 09-01 07:39
Harmen schreef op woensdag 7 januari 2026 @ 13:10:
[...]


Vermoedelijk een driver issue, heb hetzelfde meegemaakt. Zie volgende link:
scorpion303 in "Het grote Proxmox VE topic"
Ik zal er vanavond eens naar kijken. Hij heeft het elke dag, ik zie wel dat hij updates binnenhaalt en daarna is het klaar denk ik.
Dank voor je snelle reactie.

  • mbouwmee
  • Registratie: Juli 2013
  • Laatst online: 09-01 11:00
Hoi ik had hier ook last van het schijnt iets te zijn met intel interfaces:
Nadat ik het onderstaande heb toegepast heb ik er geen last meer van.

########################################################
nano /etc/systemd/system/fix-e1000e.service

[Unit]
Description=Disable offloading on Intel e1000e NIC
After=network-online.target
Wants=network-online.target

[Service]
Type=oneshot
ExecStart=/usr/sbin/ethtool -K enp0s25 tso off gso off gro off

[Install]
WantedBy=multi-user.target

######################################################
Daarrna
systemctl daemon-reload
systemctl enable fix-e1000e
systemctl start fix-e1000e

Ik hoop dat het bij jullie ook lukt ;-)

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

Ergens sept/okt schoon Proxmox VE 9.0 geinstalleerd. Regelmatig updates gedaan.
Inmiddels draai ik op 9.1.4.

Via browser interface update / upgrade ik proxmox. Bij een kernel update/upgrade. Sluit ik de vm's af en reboot de machine. Echt nu blijft die hangen op Loading initial ramdisk
Afbeeldingslocatie: https://tweakers.net/i/RBU8ZVsX-Q5nK__lME3hw3jH1UM=/800x/filters:strip_exif()/f/image/FEQkd24VfAF4vJqESJvCs3Ef.png?f=fotoalbum_large

Na heel lang wachten. KERNEL PANIC

Advanced en dan (Recovery mode) kiezen werkt niet.

Nogmaals Advanced vorige versie gepakt (Linux 6.17.2-2-pve) dan start proxmox weer op.

Via BIOS systeem uitgebreid getest. Geen fouten
Afbeeldingslocatie: https://tweakers.net/i/8M8_rwPkfdKq1JpeW54lGwnCYrQ=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/8Z9cV81AqLgUfYw0tRAGKMi9.png?f=user_large

Via de "E" toets kun je opstart file aanpassen. Ik kom veel dingen tegen over ventoy dingen mogelijk de boosdoener zijn *klik*. Echter is mijn proxmox zonder ventoy geïnstalleerd dus kan het niet zijn. Maar wat dan wel is niet te vinden. Iemand ervaring met dit probleem?

Hierbij de parameters. Staat er wat vreemds in dat de boel ineens niet meer goed boot? Kies je Linux 6.17.2-2-pve dan start het allemaal goed op.
Afbeeldingslocatie: https://tweakers.net/i/tbO-Rbh4d42b4acFklRAjT8aAJE=/800x/filters:strip_exif()/f/image/I4qAtGNzN9TRoO1BN4v1O7dF.png?f=fotoalbum_large

[ Voor 3% gewijzigd door RobbyTown op 07-01-2026 16:59 ]

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Is de laatste update wel goed gegaan, als in, is het wegschrijven van de initrd gelukt? Ik heb zelf (helaas) last van een te kleine /boot partitie, waardoor ik bij kernel-updates altijd goed moet opletten of de kernel en initrd goed weggeschreven zijn (en zo nee, moet ik wat ruimte maken door oude kernels weg te gooien en het opnieuw proberen). Dat hoeft natuurlijk niet exact ook jouw probleem te zijn, maar controleren of alles correct is weggeschreven is denk ik wel handig.

  • Quad
  • Registratie: Mei 2009
  • Nu online

Quad

Doof

@RobbyTown Geen shares fstab staan die Proxmox probeert te mounten bij het booten?

Alles went behalve een Twent.
nggyu nglyd


  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

Ben geen expert in linux (met google werk kom ik aan de juiste commando's)

@dcm360 boot zou meer dan ruimte genoeg zijn. Slechts 6% gebruikt, toch?
Afbeeldingslocatie: https://tweakers.net/i/1v9vCwhcd73Te6YKbuApE9zcpcg=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/b02cz2zA3oYu0Bv1lcZIBTpi.png?f=user_large

@Quad fstab niets mee gedaan naar mijn weten. nano /etc/fstab gedaan en geeft deze output
code:
1
2
3
4
5
# <file system> <mount point> <type> <options> <dump> <pass>
/dev/pve/root / ext4 errors=remount-ro 0 1
UUID=4D14-B93D /boot/efi vfat defaults 0 1
/dev/pve/swap none swap sw 0 0
proc /proc proc defaults 0 0

[ Voor 8% gewijzigd door RobbyTown op 07-01-2026 17:31 ]

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


  • Mich
  • Registratie: December 2000
  • Laatst online: 08:04
RobbyTown schreef op woensdag 7 januari 2026 @ 17:26:
Ben geen expert in linux (met google werk kom ik aan de juiste commando's)

@dcm360 boot zou meer dan ruimte genoeg zijn. Slechts 6% gebruikt, toch?
[Afbeelding]

@Quad fstab niets mee gedaan naar mijn weten. nano /etc/fstab gedaan en geeft deze output
code:
1
2
3
4
5
# <file system> <mount point> <type> <options> <dump> <pass>
/dev/pve/root / ext4 errors=remount-ro 0 1
UUID=4D14-B93D /boot/efi vfat defaults 0 1
/dev/pve/swap none swap sw 0 0
proc /proc proc defaults 0 0
Ik ben ook totaal geen expert maar als je op de command line kan uitkomen zou je met journalctl toch je laatste log files kunnen uitlezen en zien waar het op vast loopt?

  • chielmi
  • Registratie: September 2004
  • Laatst online: 09:01
RobbyTown schreef op woensdag 7 januari 2026 @ 16:49:
Ergens sept/okt schoon Proxmox VE 9.0 geinstalleerd. Regelmatig updates gedaan.
Inmiddels draai ik op 9.1.4.

Via browser interface update / upgrade ik proxmox. Bij een kernel update/upgrade. Sluit ik de vm's af en reboot de machine. Echt nu blijft die hangen op Loading initial ramdisk
[Afbeelding]

Na heel lang wachten. KERNEL PANIC

Advanced en dan (Recovery mode) kiezen werkt niet.

Nogmaals Advanced vorige versie gepakt (Linux 6.17.2-2-pve) dan start proxmox weer op.

Via BIOS systeem uitgebreid getest. Geen fouten
[Afbeelding]

Via de "E" toets kun je opstart file aanpassen. Ik kom veel dingen tegen over ventoy dingen mogelijk de boosdoener zijn *klik*. Echter is mijn proxmox zonder ventoy geïnstalleerd dus kan het niet zijn. Maar wat dan wel is niet te vinden. Iemand ervaring met dit probleem?

Hierbij de parameters. Staat er wat vreemds in dat de boel ineens niet meer goed boot? Kies je Linux 6.17.2-2-pve dan start het allemaal goed op.
[Afbeelding]
Je bent niet de enige https://forum.proxmox.com...9-1-4.178729/#post-829150
In mijn geval was het pinnen van de vorige kernel ook de oplossing.

  • Niekniek89
  • Registratie: April 2015
  • Laatst online: 10:47
chielmi schreef op woensdag 7 januari 2026 @ 19:21:
[...]

Je bent niet de enige https://forum.proxmox.com...9-1-4.178729/#post-829150
In mijn geval was het pinnen van de vorige kernel ook de oplossing.
Hoe doe je dat? Het pi. En van de vorige kernel?
Of komt proxmox nog met een oplossing?
9.1.4 staat bij mij al enkele weken klaar, maar een hogere versie lijkt nog niet te komen?

  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Niekniek89 schreef op woensdag 7 januari 2026 @ 19:36:
[...]


Hoe doe je dat? Het pi. En van de vorige kernel?
Of komt proxmox nog met een oplossing?
9.1.4 staat bij mij al enkele weken klaar, maar een hogere versie lijkt nog niet te komen?
De commando’s staan in die laatste post.

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Emootje
  • Registratie: Februari 2004
  • Laatst online: 09-01 07:39
mbouwmee schreef op woensdag 7 januari 2026 @ 16:45:
Hoi ik had hier ook last van het schijnt iets te zijn met intel interfaces:
Nadat ik het onderstaande heb toegepast heb ik er geen last meer van.

########################################################
nano /etc/systemd/system/fix-e1000e.service

[Unit]
Description=Disable offloading on Intel e1000e NIC
After=network-online.target
Wants=network-online.target

[Service]
Type=oneshot
ExecStart=/usr/sbin/ethtool -K enp0s25 tso off gso off gro off

[Install]
WantedBy=multi-user.target

######################################################
Daarrna
systemctl daemon-reload
systemctl enable fix-e1000e
systemctl start fix-e1000e

Ik hoop dat het bij jullie ook lukt ;-)
Dit zal mijn oplossing zijn, het is opgelost wanneer ik mijn netwerkkabel eruit haal en er weer in doe. Maar dat kan dus ook geautomatiseerd worden.
Als ik bovenstaande doe dan krijg ik een error: etc/systemd/system does not exist. Ik werk in root@pve.

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 10-01 17:26

  • Emootje
  • Registratie: Februari 2004
  • Laatst online: 09-01 07:39
Dit werkt! Morgen even testen of ik er in kan blijven. Dank!!!

  • Liegebeest
  • Registratie: Februari 2002
  • Laatst online: 08:57
Quad schreef op woensdag 7 januari 2026 @ 17:08:
@RobbyTown Geen shares fstab staan die Proxmox probeert te mounten bij het booten?
Dat zou geen kernel panic moeten geven, op zijn hoogst hangen tijdens het booten omdat de share onbereikbaar is.

Liege, liege, liegebeest!


  • Liegebeest
  • Registratie: Februari 2002
  • Laatst online: 08:57
Mich schreef op woensdag 7 januari 2026 @ 18:04:
[...]


Ik ben ook totaal geen expert maar als je op de command line kan uitkomen zou je met journalctl toch je laatste log files kunnen uitlezen en zien waar het op vast loopt?
Of als het specifiek om de boot / kernel logs gaat: `dmesg`

Liege, liege, liegebeest!


  • Liegebeest
  • Registratie: Februari 2002
  • Laatst online: 08:57
mbouwmee schreef op woensdag 7 januari 2026 @ 16:45:
Hoi ik had hier ook last van het schijnt iets te zijn met intel interfaces:
Nadat ik het onderstaande heb toegepast heb ik er geen last meer van.
Oplossen met een systemd service vind ik een grappige :D Maar het is eigenlijk wat netter om het via de netwerkkaart configuratie te doen, zoals hier -> https://www.reddit.com/r/...1000e_hardware_unit_hang/

Ik heb daar idd ook wat offloading uit moeten zetten, omdat een zware belasting van m'n e1000 (tijdens backups en transfers) de NIC liet hangen.

Liege, liege, liegebeest!


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 10-01 22:06
Liegebeest schreef op woensdag 7 januari 2026 @ 22:14:
[...]

Dat zou geen kernel panic moeten geven, op zijn hoogst hangen tijdens het booten omdat de share onbereikbaar is.
Of het een kernel panic is weet ik niet - maar het systeem blijft er niet op hangen.
Het bootproces wordt gestopt met een login-prompt op de console.
Na ingelogd te zijn kan je fstab aanpassen.

[ Voor 7% gewijzigd door Airw0lf op 07-01-2026 22:22 ]

makes it run like clockwork


  • Liegebeest
  • Registratie: Februari 2002
  • Laatst online: 08:57
Het hangt er vanaf hoe't in fstab staat. :)

"Hangen" was misschien niet het beste woord. Wat ik bedoel is dat wanneer je een "hard" mount doet (via het options veld), dan zal het systeem volledig weigeren door te gaan met het boot proces totdat de share beschikbaar is en ook werkelijk is gemount. Staat daar echter "soft", dan zal na een timeout het systeem doorgaan met het boot proces.

Heel lang geleden heb ik nog te maken gehad met servers die inderdaad bleven "hangen" omdat een file server niet beschikbaar was en de share "hard" mounted was. Die moesten we dus inderdaad naar een rescue boot gooien, de share op "soft" zetten en opnieuw booten.

[ Voor 25% gewijzigd door Liegebeest op 07-01-2026 22:26 ]

Liege, liege, liegebeest!


  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

chielmi schreef op woensdag 7 januari 2026 @ 19:21:
[...]

Je bent niet de enige https://forum.proxmox.com...9-1-4.178729/#post-829150
In mijn geval was het pinnen van de vorige kernel ook de oplossing.
Die commandos in dat topic geen idee hoe je dat doet. Ik wacht wel op een fix tot die tijd selecteer ik handmatig dat werkt nu ook. Bang dat ik de bedoel echt sloop en daar heb ik weinig zin in. Kan toeval zijn hier ook een Dell machine: uitvoering: Dell OptiPlex 7010 SFF (07CM1)

[ Voor 12% gewijzigd door RobbyTown op 08-01-2026 09:30 ]

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


  • chielmi
  • Registratie: September 2004
  • Laatst online: 09:01
@RobbyTown Die commando's zijn echt niet lastig. Aangezien je eerst handmatig een vorig kernel selecteert in het boot menu zodat je ziet of Proxmox succesvol start. Nu weet je welk kernel goed werkt voor jouw systeem, en pas nu voer je de twee commando's uit die post uit om bij elke volgende boot deze specifieke kernel te gebruiken.

De commando's kun je gewoon in de Proxmox web interface uitvoeren. Selecteer eerst de server in het menu en start vervolgens een shell (4e menu item).

Ik ben er niet van overtuigd dat hier een fix voor gaat komen vanuit Proxmox omdat het nog maar door een handvol mensen is gerapporteerd.

  • webgangster
  • Registratie: Juli 2006
  • Laatst online: 10-01 20:56
@RobbyTown Ik heb enige tijd geleden ook hetzelfde probleem gehad, en kunnen oplossen door Secure Boot uit te schakelen.

  • ElCondor
  • Registratie: Juni 2001
  • Laatst online: 09-01 14:15

ElCondor

Geluk is Onmisbaar

Na eigenlijk het afgelopen jaar geen tijd gehad te hebben om me er goed in te verdiepen de feestdagen er eens voor genomen om mijn ProxMox cluster eens verder 'productie gereed' te maken.
Ik had twee NUC6 apparaatjes hiervoor gebruikt en hier PVE8 op gezet, vorig jaar alweer.
Beetje gespeeld met een containertje aanmaken en heen en weer schieten, maar ik miste toch nog wel fundamentele kennis om de boel echt te beheren.
Het bleef een beetje een black box waar ik vooral gebruik van maakte om een container met een ID provider self-hosted te draaien. Op zich deed het zijn ding, maar het zat me dwars dat ik niet goed begreep hoe de onderliggende infra nu precies functioneerde. :? O-)
Wat te doen bij een faillure (geen HA ingericht, geen backup, geen derde node beschikbaar enz.). Van de installatie procedure destijds te weinig gedocumenteerd en na een gefaalde upgrade die ik wel succesvol heb kunnen terugrollen toch maar eens door de zure appel heen gebeten en me verdiept in de onderliggende infra theorie.
Na een goede herinrichting mbt de storage, PBS op een nieuwe node uitgerold en PVE zelf geupgrade naar versie 9. Zelfs de aanwezige thunderbolt op de NUC ingezet als migratie netwerk tussen de twee PVE nodes. Dat scheelt de helft van de tijd bij een migratie.
Mijn laatste stap gaat zijn om op de PBS nog QDevice toe te voegen om daarmee HA tussen 2 nodes beschikbaar te hebben. 8)

De bedoeling is om uiteindelijk op dit platform en Kubernetes cluster uit de grond te stampen. We gaan op het werk meer doen met Kubernetes en pods, dus het loont om daar nu ook mee te kunnen knoeien.
Leuk platform. Wellicht op een later moment nog mijn huidige Hyper-V omzetten naar PVE. 64GB ram en 2TB ssd ruimte. Daar moet je leuke dingen mee kunnen doen. :9

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • Niekniek89
  • Registratie: April 2015
  • Laatst online: 10:47
Uiteindelijk toch maar geüpgraded naar v9.1.4, gelukkig zonder issues!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

webgangster schreef op donderdag 8 januari 2026 @ 11:36:
@RobbyTown Ik heb enige tijd geleden ook hetzelfde probleem gehad, en kunnen oplossen door Secure Boot uit te schakelen.
Getest maar dat maakt helaas geen verschil.
chielmi schreef op donderdag 8 januari 2026 @ 10:59:
@RobbyTown Die commando's zijn echt niet lastig. Aangezien je eerst handmatig een vorig kernel selecteert in het boot menu zodat je ziet of Proxmox succesvol start. Nu weet je welk kernel goed werkt voor jouw systeem, en pas nu voer je de twee commando's uit die post uit om bij elke volgende boot deze specifieke kernel te gebruiken.

De commando's kun je gewoon in de Proxmox web interface uitvoeren. Selecteer eerst de server in het menu en start vervolgens een shell (4e menu item).

Ik ben er niet van overtuigd dat hier een fix voor gaat komen vanuit Proxmox omdat het nog maar door een handvol mensen is gerapporteerd.
Dank voor de info. Dit lijkt voor mij ook de fix.
In de shell
code:
1
2
proxmox-boot-tool kernel pin 6.17.2-2-pve
proxmox-boot-tool refresh

Daarna. Reboot (rechtsboven in interface). Nu start de boel wel netjes op.

Voor wie het boeiend vind. Hierbij de output van de shell.
Afbeeldingslocatie: https://tweakers.net/i/Fdo7MuhtIpC_BRcwG6O8PhEwxGg=/800x/filters:strip_exif()/f/image/LrrdUrK5O8YizZ4OUkVuua8D.png?f=fotoalbum_large

Allen dank voor de hulp _/-\o_

[ Voor 77% gewijzigd door RobbyTown op 08-01-2026 15:41 ]

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


  • HowsMyApple
  • Registratie: November 2010
  • Laatst online: 11:31
Vanmorgen vroeg wilde ik iets checken in PVE en zag dat enkele LXC's uit stonden. Dat is raar dacht ik.. al snel bedacht ik me dat het allemaal LXC's waren die niet automatisch starten na een reboot.
Oke en waarom is er dan gereboot vannacht? Even in de logs zoeken en ik zag dat er vanwege m'n unattended upgrades config een reboot was gescheduled. Eigenlijk ging alles dus netjes zoals ik het zou willen.
In de toekomst zou ik ipv een "ojee wat is er kapot gegaan"-momentje liever een notificatie oid krijgen dat er iets is geupdatet en gereboot. Dit heb ik net ingeregeld dmv een apt post-invoke hook welke naar een prive Discord channel post.

Het wiel opnieuw uitvinden is soms erg leuk en leerzaam, maar wellicht hebben jullie weet van services/apps die dit beter en overzichtelijker kunnen?

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 10-01 22:06
@HowsMyApple - een e-mail vanuit Proxmox/PVE? Zodat je niet afhankelijk bent van de grappen-en-grollen van Discord?

makes it run like clockwork


  • d-vine
  • Registratie: Augustus 2006
  • Laatst online: 12:03
@HowsMyApple
Pas paar weken geleden gemaakt
Ik heb een n8n CT in proxmox en die stuurt elke week de status door van alle CT's en VM's naar mijn telegram
Je kan ook maken dat bij uitval of reboot je gelijk een melding krijgt en meerdere opties.

[ Voor 112% gewijzigd door d-vine op 10-01-2026 13:39 ]


  • Quad
  • Registratie: Mei 2009
  • Nu online

Quad

Doof

@HowsMyApple Als je Home Assistant gebruikt kan je Proxmox daar ook in integreren.
Als de hele PVE bak uit staat merk je dat wel snel genoeg, als het actief en herstart is krijg je via Home Assistant eventueel informatie binnen.

Alles went behalve een Twent.
nggyu nglyd


  • TheMystery
  • Registratie: Februari 2004
  • Laatst online: 11:49
Ik loop tegen een probleem aan met een docker lxc waar ik de arr suite in draai waar ik een permission denied melding (PermissionError. Exception info: "'[Errno 1] Operation not permitted') krijg als er iets naar de cache folder van bazarr verplaatst wordt, na lang zoeken gevonden dat hiervoor shutil.move voor gebruikt wordt welke te weinig rechten heeft om zijn acties uit te voeren.

ik maak gebruik van een proxmox server waar ik een TrueNAS vm in heb met een aantal shares die ik gekoppeld heb middles de fstab file binnen proxmox en deze gebind mount heb aan de lxc en voor docker heb ik een share voor de config files dit werkt prima voor sonarr en radarr maar dus niet voor bazarr.

ik heb de shares op de volgende manier in fstab gekoppeld:
code:
1
//nas/Docker/ /mnt/lxc_shares/Docker cifs _netdev,x-systemd.automount,noatime,nobrl,uid=100000,gid=110000,dir_mode=0770,file_mode=0770,user=user,pass=pass 0 0


de bind mount binnen de lxc heb ik als volgt:
code:
1
lxc.mount.entry: /mnt/lxc_shares/Docker mnt/Docker none rbind,create=dir 0 0


binnen de lxc container en docker (PUID=1000 en PGID=10000 toegevegd) heb ik dan nog de juiste rechten gezet zodat alles werkt:
code:
1
2
3
4
lxc container
groupadd -g 10000 lxc_shares
useradd user
usermod -aG lxc_shares user


Nu mis ik dus nog waarschijnlijk binnen fstab een optie waardoor shutil.move niet werkt maar kan nergens vinden wat dit nu moet zijn. Iemand een idee?
Als workaround kan ik natuurlijk de config binnen de lxc zetten ipv de share maar had het liever op de share.

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 08:36
Even een dubbel-check voordat ik mijn eigen systeem zou kunnen slopen. (ook al denk ik dat het veilig is ;) )
Mijn install bestaat uit nvme drive (LVM) hier op draait PVE en van alle VMs/LXC de OS disk.

Daarnaast een Zpool Raid-Z2 van spinning-disks en deze is dan optioneel als VM disk gemount als 2e drive in een VM. Dus nooit als boot en voor VM gezien ook niet als ZFS zichtbaar.
Nu zag ik de "bekende" zpool upgrade bericht en mij lijkt dat dit veilig is om te doen maar toch even een dubbelcheck.
Some supported features are not enabled on the following pools. Once a
feature is enabled the pool may become incompatible with software
that does not support the feature. See zpool-features(7) for details.

Note that the pool 'compatibility' feature can be used to inhibit
feature upgrades.
code:
1
2
3
4
5
6
7
8
POOL  FEATURE
---------------
hdds
      redaction_list_spill
      raidz_expansion
      fast_dedup
      longname
      large_microzap
Lang verhaal kort, is het veilig te upgraden?

Backups worden ook in de Zpool opgeslagen maar naast deze backups heb ik ook een PBS draaien op extern systeem die ook backups heeft.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal

Pagina: 1 ... 63 64 Laatste