• d3vlin
  • Registratie: September 2000
  • Laatst online: 05-01 16:09
tuxie6 schreef op vrijdag 28 november 2025 @ 00:48:
Zfs gebruikt ramcache wat zoveel procent van je ram is.
Als je andere systeem gelijk is aan de proxmox server, maar dan met ext4, brtfs, e.d
Dan lijkt mij het niet helemaal onmogelijk dat het door zfs komt.
Je kan de zfscache (arc) aanpassen in /etc/ ...... (dat ben ik even kwijt.)
ZFS on Linux gebruikt standaard de helft van het geheugen als max. (zfs_arc_max = 0)
code:
1
cat /sys/module/zfs/parameters/zfs_arc_max


Om een max van bijvoorbeeld 10GB toe te kennen aan ZFS op een lopend systeem:
code:
1
echo "$[10 * 1024*1024*1024]" > /sys/module/zfs/parameters/zfs_arc_max


Om een max van bijvoorbeeld 10GB standaard toe te kennen bij boot:
code:
1
echo "$[10 * 1024*1024*1024]" > /etc/modprobe.d/zfs

Leaping Lab Rats!


  • sailor_dg
  • Registratie: Januari 2019
  • Laatst online: 09:57
tuxie6 schreef op vrijdag 28 november 2025 @ 00:48:
Zfs gebruikt ramcache wat zoveel procent van je ram is.
Als je andere systeem gelijk is aan de proxmox server, maar dan met ext4, brtfs, e.d
Dan lijkt mij het niet helemaal onmogelijk dat het door zfs komt.
Je kan de zfscache (arc) aanpassen in /etc/ ...... (dat ben ik even kwijt.)

Er zijn meer meldingen geweest dat zfs en vm's om de ram aan het vechten waren. Waardoor het voorkwam dat er processen werden gekild.
Been there. Gebruikte ZFS voor mijn VM disks. Nu terug naar standaard SW raid met ext4

All-electric | Deye 12KSG04LP3 met 2x Yixiang V2, 32x MB31 314 Ah | Panasonic Aquarea J 5kW | Tesla MY, SmartEVSE | 8,8 kWp PV | Proxmox met HomeAssistant, Docker host, PfSense, TrueNas & Mailcow


  • ComTech
  • Registratie: November 2002
  • Laatst online: 05-01 22:32
Ondertussen even de tijd gehad om te testen, als ik de cpu verander van default(kvm) naar host nog steeds hetzelfde.

Afbeeldingslocatie: https://tweakers.net/i/LfHd24wk7O8qsVh7VNohsp--F10=/800x/filters:strip_exif()/f/image/uTUPxZYIKIdoClfyRUpgWd3r.png?f=fotoalbum_large]

Dit is de load als ik op een VM een docker compose uitvoer die wat containers binnenhaalt.
Is toch véél te hoog.
Maar er is genoeg geheugen dus waarom nog beschikbaar dus waarom dan die hoge load.
Als het door zfs komt dan ga ik hem weer opnieuw installeren zonder, enige reden dat ik dat gedaan heb ik dat ik dan een mirror kan maken als er een disk kapot gaat m'n hele systeem niet gelijk down gaat.

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 06:47

Quad

Doof

Kan je evt een disk toevoegen die niet in de ZFS pool zit? En daar de VM storage op plaatsen?

Alles went behalve een Twent.
nggyu nglyd


  • ComTech
  • Registratie: November 2002
  • Laatst online: 05-01 22:32
Quad schreef op vrijdag 28 november 2025 @ 20:15:
Kan je evt een disk toevoegen die niet in de ZFS pool zit? En daar de VM storage op plaatsen?
Dan is de load nog geen 2 en de IO delay amper aanwezig :)
Duidelijk een ZFS dingetje dus :'(

Maar wat is nu de "beste" storage configuratie voor mijn disk configuratie?
Ik heb 2 Sata Intel DC4500 SSD's en 2 Samsung 980 evo nvme SSD's.
Ik dacht dus de 2 sata's in mirror als boot (maar dat kan alleen als ZFS) en de 2 nvme's als mirror voor alle VM's en LXC's.

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Toen ik voor het eest wat ging proberen met Docker op Proxmox ging dat ook voor geen meter, en de oorzaak daarvan leek te zitten in de (combinatie met de) filesystem driver van Docker. Na de installatie van fuse-overlayfs (op de Docker host) liep alles ineens verrassend veel soepeler.

  • Zwelgje
  • Registratie: November 2000
  • Nu online
dcm360 schreef op vrijdag 28 november 2025 @ 23:36:
Toen ik voor het eest wat ging proberen met Docker op Proxmox ging dat ook voor geen meter, en de oorzaak daarvan leek te zitten in de (combinatie met de) filesystem driver van Docker. Na de installatie van fuse-overlayfs (op de Docker host) liep alles ineens verrassend veel soepeler.
is het niet veel slimmer (ik ben geen docker expert!) om in Promox 9.1 direct docker images te draaien op de host?

https://dannyda.com/2025/...-pve-9-1-as-ct-templates/

dat is nieuw in versie 9.1 en voorkomt lijkt mij wat overhead omdat je geen docker host meer nodig bent in de vorm van en linux VM.

(draai zelf alles op LXC containers overigens, doe niks/.weinig met dokter)

A wise man's life is based around fuck you


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 10:06
Zwelgje schreef op zaterdag 29 november 2025 @ 08:03:
[...]

is het niet veel slimmer (ik ben geen docker expert!) om in Promox 9.1 direct docker images te draaien op de host?

https://dannyda.com/2025/...-pve-9-1-as-ct-templates/

dat is nieuw in versie 9.1 en voorkomt lijkt mij wat overhead omdat je geen docker host meer nodig bent in de vorm van en linux VM.

(draai zelf alles op LXC containers overigens, doe niks/.weinig met dokter)
Nog steeds een docker host nodig - de site achter de link heeft het over een LXC.

makes it run like clockwork


  • sailor_dg
  • Registratie: Januari 2019
  • Laatst online: 09:57
ComTech schreef op vrijdag 28 november 2025 @ 21:42:
[...]


Maar wat is nu de "beste" storage configuratie voor mijn disk configuratie?
Ik heb 2 Sata Intel DC4500 SSD's en 2 Samsung 980 evo nvme SSD's.
Ik dacht dus de 2 sata's in mirror als boot (maar dat kan alleen als ZFS) en de 2 nvme's als mirror voor alle VM's en LXC's.
Je kan via command line software raid gebruiken (mdadm). Ik heb mijn vm disks op een mirror staan. Mijn boot disk heeft geen redundancy. Ik heb een cold standby server met kritische vms en heb wel tijd om proxmox in geval van ellende opnieuw op te bouwen

All-electric | Deye 12KSG04LP3 met 2x Yixiang V2, 32x MB31 314 Ah | Panasonic Aquarea J 5kW | Tesla MY, SmartEVSE | 8,8 kWp PV | Proxmox met HomeAssistant, Docker host, PfSense, TrueNas & Mailcow


  • Zwelgje
  • Registratie: November 2000
  • Nu online
Airw0lf schreef op zaterdag 29 november 2025 @ 08:16:
[...]


Nog steeds een docker host nodig - de site achter de link heeft het over een LXC.
geen docker, die software heb je niet nodig. hij spint een LXC op en daar draait die container in.

https://www.virtualizatio...-lxc-and-new-oci-support/

maar je kan dan ook niet alles wat je met docker kan, kwestie van afwegen. performancewise lees ik her en der dat het beter moet zijn.

A wise man's life is based around fuck you


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 10:06
Zwelgje schreef op zaterdag 29 november 2025 @ 08:42:
[...]

geen docker, die software heb je niet nodig. hij spint een LXC op en daar draait die container in.

https://www.virtualizatio...-lxc-and-new-oci-support/

maar je kan dan ook niet alles wat je met docker kan, kwestie van afwegen. performancewise lees ik her en der dat het beter moet zijn.
De OCI-support haalt een LXC template op waarbinnen dan een applicatie draait.
Dus ja - je hebt dan niet perse Docker nodig.

Maar je hebt nog niet voor alle applicaties een LXC template.
Dus je zal op enig moment toch een Docker host nodig hebben.
Tenzij je handmatig zelf zo een VM/LXC (template?) in elkaar wil steken. :+

makes it run like clockwork


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 05-01 16:09
Er zijn geen LXC templates benodigd om OCI images te draaien in PVE 9.1. PVE haalt alleen een OCI (docker) image binnen en slaat die on the spot plat tot een LXC obv Alpine waarin het OCI image draait.

Ze geven zelf aan dat dit nog experimenteel is en het is momenteel nog niet mogelijk om op OCI gebaseerde LXC non-destructief te updaten dus ik zou het nog niet inzetten voor productie.
https://forum.proxmox.com...ci-ct.176259/#post-817595

[ Voor 9% gewijzigd door d3vlin op 29-11-2025 09:22 ]

Leaping Lab Rats!


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 10:06
d3vlin schreef op zaterdag 29 november 2025 @ 09:19:
Er zijn geen LXC templates benodigd om OCI images te draaien in PVE 9.1. PVE haalt alleen een OCI (docker) image binnen en slaat die on the spot plat tot een LXC obv Alpine waarin het OCI image draait.

Ze geven zelf aan dat dit nog experimenteel is en het is momenteel nog niet mogelijk om op OCI gebaseerde LXC non-destructief te updaten dus ik zou het nog niet inzetten voor productie.
https://forum.proxmox.com...ci-ct.176259/#post-817595
Potato-potahto - technisch heb je gelijk - onder de streep draait er een LXC met een applicatie.
En het verhaal rondom het OCI image heb ik even uitgelegd als een LXC-template met een pre-installed applicatie (die op dit moment niet is bij te werken met een nieuwe pull van het image - zie ook onderstaande passage).
However, in the current technology preview state of our OCI image support, all layers are squashed into one rootfs upon container creation. Because of this, you currently cannot update a container simply by swapping in a newer image. This functionality is planned as a future feature though.
Wat dan wil zeggen dat er handmatig updates gedraaid moeten worden binnen de LXC.

[ Voor 8% gewijzigd door Airw0lf op 29-11-2025 09:42 ]

makes it run like clockwork


  • TheFes
  • Registratie: Juni 2001
  • Laatst online: 10:06
Ik hoop dat iemand hier mij kan helpen. Ik heb een probleem met mijn Proxmox server.
Ik had een externe harde schijf gekocht, met het idee die aan mijn Fritzbox te hangen voor Fritz!NAS. Daar wilde ik dan bestanden op zetten om te delen over het netwerk. Voorheen deed ik dat via die Proxmox server, maar die staat niet altijd aan, wat soms onhandig is.

Ik had de drive aan de Fritz!Box gehangen, en gemount in Proxmox. Ik heb daarbij wat domme fouten gemaakt, en de domste was om dit rechtstreeks in Proxmox te doen en niet in een VM. De tweede fout was om niet gewoon de drive rechtstreeks te koppelen, maar dit via het netwerk te doen. De derde fout was om niet te checken of de drive goed gemount was.

Het komt er op neer dat ik dus mijn pve-root partitie helemaal vol geschreven heb met data, omdat de drive niet goed gemount was. Op een gegeven moment had ik door dat er geen data meer op de netwerk-schijf kwam, en dacht ik dat een reboot misschien zou helpen. Dat was de vierde en misschien meest cruciale fout (buiten fout 0, dat is dat ik geen backup heb).

Nu start mijn proxmox dus niet meer op. Ik heb al via Gparted die fout gekopieerde gegevens weggehaald uit de pve-root partitie, maar dat helpt niet.
Het belangrijkste voor mij is momenteel om die gegevens veilig te stellen, ik probeerde dat ook via Gparted te doen, maar ik heb ZFS shares gemaakt en krijg die nu niet gemount. Het liefst zou ik Proxmox weer gewoon starten, maar ik weet niet meer hoe.

Heeft iemand ideeën, suggesties wat dan ook?

Home Assistant configuratie


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 10:06
@TheFes - ik hoop dat je er nog bij kunt via ssh of via een aangesloten scherm en toetsenbord... :+

Wat is de output van cat /etc/pve/storage.cfg?
Data in de boot/root disk wordt meestal weggeschreven in /var/lib/vz - als het bij jou anders is moet dat terug te vinden in dat storage.cfg bestandje.

Ik weet het niet 100% zeker - maar ik dacht dat Proxmox zijn config bewaard in /etc/ove/nodes/<host-name>.
En daar een kopie van maakt bij het opstarten.

Het lijkt erop alsof er geen ruimte meer is voor het maken van die kopie waardoor pve niet meer start.
Afhankelijk van wat je aantreft in storage.cfg is er wellicht een mogelijkheid om wat ruimte te maken.
Waardoor pve weer gestart kan worden.

makes it run like clockwork


  • Thomas H
  • Registratie: Maart 2001
  • Laatst online: 04-01 17:19
CoPilot aangezwengeld, stappen klinken niet onlogisch:
## ✅ **Stap 1: Boot in een Live-omgeving**
* Gebruik een **Ubuntu Live ISO** of de **Proxmox ISO in rescue-modus**.
* Start vanaf USB en kies voor een shell.
## ✅ **Stap 2: Installeer ZFS-tools**
Als je een Ubuntu Live gebruikt:
code:
1
2
sudo apt update
sudo apt install zfsutils-linux

## ✅ **Stap 3: Controleer en importeer ZFS-pool**
* Bekijk beschikbare pools:
code:
1
sudo zpool import

* Importeer jouw pool (vervang `<poolnaam>`):
code:
1
sudo zpool import -f <poolnaam>

* Controleer of alle datasets gemount zijn, en zo niet, mount je deze:
code:
1
2
zfs list
sudo zfs mount -a

Nu kun je je data kopiëren naar een externe schijf of NAS:
code:
1
rsync -av /<mountpoint> /media/externe-schijf/

## ✅ **Stap 4: Ruimte vrijmaken op root**
1. **Start vanaf een Live-ISO**
* Gebruik bijvoorbeeld **Ubuntu Live** of de **Proxmox ISO** in rescue-modus.
* Kies voor een shell/terminal.
2. **Mount je root-partitie**
Eerst moet je de Proxmox root-partitie mounten om toegang te krijgen:
code:
1
2
sudo mkdir /mnt/proxmox
    sudo mount /dev/sdX /mnt/proxmox

(Vervang `/dev/sdX` door jouw rootdisk, bijvoorbeeld `/dev/sda2`.)
3. **Chroot naar je Proxmox-installatie**
Dit geeft je een omgeving alsof je in Proxmox zelf zit:
code:
1
sudo chroot /mnt/proxmox

* Check hoeveel ruimte er is:
code:
1
df -h

* Verwijder grote logbestanden:
code:
1
sudo journalctl --vacuum-size=100M

* Zoek grote bestanden:
code:
1
sudo du -sh /* | sort -h

* Eventueel tijdelijk een extra disk mounten op `/var/lib/vz`:
code:
1
mount /dev/sdX /var/lib/vz

## ✅ **Stap 5: Proxmox opnieuw starten**
Als er genoeg ruimte is vrijgemaakt:
code:
1
sudo reboot
Modbreak:Volledig door AI gegenereerde tekst staan we niet toe. Iedereen kan dat dus dan heeft een forum geen toegevoegde waarde. Volgende keer graag je eigen tekst gebruiken

[ Voor 5% gewijzigd door br00ky op 30-11-2025 15:50 ]


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 03-01 11:31
Zwelgje schreef op zaterdag 29 november 2025 @ 08:42:
[...]


geen docker, die software heb je niet nodig. hij spint een LXC op en daar draait die container in.

https://www.virtualizatio...-lxc-and-new-oci-support/

maar je kan dan ook niet alles wat je met docker kan, kwestie van afwegen. performancewise lees ik her en der dat het beter moet zijn.
Ik vind dit een interessante ontwikkeling. Maar ik denk niet dat je er veel bestaande setups er door kan vervangen. Daar is het nog te beperkt voor. Het "enige" wat het doet is een Docker image converteren naar een LXC. Docker is wel iets meer dan dat :p

Ik denk ook dat het performance verschil miniem gaat zijn. Je haalt er de virtualisatie laag tussen uit maar dat scheelt maar een paar procent.

https://dontasktoask.com/


  • TheFes
  • Registratie: Juni 2001
  • Laatst online: 10:06
@Airw0lf@Thomas H
Bedankt voor de hulp, het is gelukt.
Het probleem bleek uiteindelijk dat ik de data verwijderd had, maar dus ook de folder waarin ik de netwerk schijf gemount had. Die mount stond echter nog wel in /etc/fstab en het ging dus fout als hij die mount wilde gaan doen. Nadat ik die regel verwijderd had werkte alles weer.

Nu maar eens goede backups regelen :)

Home Assistant configuratie


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 06:47

Quad

Doof

Voor de fstab binnen PVE voeg ik nofail toe aan de regels. Als de mount niet beschikbaar is start PVE in elk geval door.

Alles went behalve een Twent.
nggyu nglyd


  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:09
Dat vind ik altijd al een nadeel aan het systeem van mounten.
Als voor één of andere reden je mount niet lukt, is er geen failsafe die verhindert dat je dan gaat schrijven naar een lege map op je root partitie.
En eerst een aparte kleine partitie maken bv /opt en daar dan al je mountpoint zetten enkel en alleen om te vermijden dat je root FS volloopt bij zo'n situatie is ook omslachtig.

  • lolgast
  • Registratie: November 2006
  • Laatst online: 10:19
@GoBieN-Be Als je daar bang voor bent moet je een failsafe voor jezelf inbouwen :)
mountpoint -q /mnt/MOUNTFOLDER && cp /source/file /mnt/MOUNTFOLDER/

mountpoint -q geeft een 0 terug als de opgegeven directory geen mountpoint is en dus gaat alles vanaf de ‘&&’ niet lopen

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 05-01 16:09
orvintax schreef op zondag 30 november 2025 @ 15:12:
Ik denk ook dat het performance verschil miniem gaat zijn. Je haalt er de virtualisatie laag tussen uit maar dat scheelt maar een paar procent.
Het scheelt vooral een hoop overhead/resources.

Leaping Lab Rats!


  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 10:12
@GoBieN-Be

Wat volgens mij helpt is om het mountpoint immutable te maken met chattr +i
Mounten lukt dan wel, maar er iets naartoe schrijven zonder geslaagde mount niet.

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:09
Goede tip, zal ik onthouden.

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 10:17
Ik weet niet of een ieder al Pulse en/of PatchMon heeft ontdekt, maar het geeft een heel mooi overzicht van je hosts, vm's, containers, de usage, backups en updates weer.

Doe er je voordeel mee :)

  • Liegebeest
  • Registratie: Februari 2002
  • Laatst online: 09:08
RudolfR schreef op zondag 30 november 2025 @ 21:29:
@GoBieN-Be

Wat volgens mij helpt is om het mountpoint immutable te maken met chattr +i
Mounten lukt dan wel, maar er iets naartoe schrijven zonder geslaagde mount niet.
Dat is een hele mooie, ja!

Simpel en netjes.

Liege, liege, liegebeest!


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Ik heb die Pulse even geprobeerd. Werkt. Even rommelen met api keys etc maar het werkt.

Nu wil ik, zoals altijd, een statisch ip-adres toewijzen maar dat lijkt op geen enkele voor mij bekende manier mogelijk. /etc/network/interfaces lijkt hij niet op te slaan. Root toegang doe ik via de pve-Shell. (Pct)

Iemand een tip?

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 06:47

Quad

Doof

Een LXC?
Die kan je aanpassen in de network tab van de PVE GUI.

Alles went behalve een Twent.
nggyu nglyd


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 03-01 11:31
d3vlin schreef op zondag 30 november 2025 @ 21:24:
[...]


Het scheelt vooral een hoop overhead/resources.
Ik ben erg benieuwd waar je dit op baseerd.

Proxmox gebruikt namelijk QEMU KVM wat CPU instructiesets zoals VT-x vereist. Hierdoor is er geen softwarematige emulatie laag nodig voor een hoop hardware. Voor zaken zoals netwerk en opslag word dan weer VirtIO gebruikt, wat ook weer een hoop emulatie weghaalt:
Virtio is a virtualization standard for network and disk device drivers where just the guest's device driver "knows" it is running in a virtual environment, and cooperates with the hypervisor. This enables guests to get high performance network and disk operations, and gives most of the performance benefits of paravirtualization.
Met andere woorden het efficientie verschil door het gebruik van een VM is over het algemeen miniem. Althans zover ik weet. Maar ik hoor graag als dat niet zo is :)

[ Voor 3% gewijzigd door orvintax op 01-12-2025 20:20 ]

https://dontasktoask.com/


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Quad schreef op maandag 1 december 2025 @ 20:18:
Een LXC?
Die kan je aanpassen in de network tab van de PVE GUI.
Dat heb ik wel gezien. Ik werk heel ouderwets met VM’s normaal gesproken maar dit is idd een LXC.

[ Voor 4% gewijzigd door Gunner op 01-12-2025 20:37 ]

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 06:47

Quad

Doof

Gunner schreef op maandag 1 december 2025 @ 20:37:
[...]

Dat heb ik wel gezien. Ik werk heel ouderwets met VM’s normaal gesproken maar dit is idd een LXC.
Klopt, het kan wat gek overkomen, maar zo werkt het wel voor een LXC. :)
Je kan ook eenvoudig meerdere adapters toewijzen en instellen. Zo heb ik bijv op TrueNAS een interne bridge adapter toegekend, mijn fstab mounts en PBS kijken bijvoorbeeld naar dat ip, zo routeert het niet via de gateway maar rechtstreeks.

Alles went behalve een Twent.
nggyu nglyd


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 05-01 16:09
orvintax schreef op maandag 1 december 2025 @ 20:18:
[...]

Ik ben erg benieuwd waar je dit op baseerd.

Proxmox gebruikt namelijk QEMU KVM wat CPU instructiesets zoals VT-x vereist. Hierdoor is er geen softwarematige emulatie laag nodig voor een hoop hardware. Voor zaken zoals netwerk en opslag word dan weer VirtIO gebruikt, wat ook weer een hoop emulatie weghaalt:

[...]

Met andere woorden het efficientie verschil door het gebruik van een VM is over het algemeen miniem. Althans zover ik weet. Maar ik hoor graag als dat niet zo is :)
Het scheelt sowieso een Docker laag qua resources en onderhoud. ;) Daarnaast heeft een volwaardige VM met compleet OS in mijn ervaring meer CPU en vooral meer RAM nodig dan een Alpine LXC (waarop de PVE 9.1 OCI LXC containers blijkbaar gebaseerd zijn).

Los van het updaten van de OCI images zelf ben ik trouwens ook wel benieuwd hoe het updaten van Alpine dan gaat verlopen.

[ Voor 6% gewijzigd door d3vlin op 01-12-2025 21:29 ]

Leaping Lab Rats!


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Quad schreef op maandag 1 december 2025 @ 20:40:
[...]

Klopt, het kan wat gek overkomen, maar zo werkt het wel voor een LXC. :)
Je kan ook eenvoudig meerdere adapters toewijzen en instellen. Zo heb ik bijv op TrueNAS een interne bridge adapter toegekend, mijn fstab mounts en PBS kijken bijvoorbeeld naar dat ip, zo routeert het niet via de gateway maar rechtstreeks.
Dank voor het toelichten hoe een LXC werkt. Ik ga er even mee rommelen.

edit: het werkt :henk o<:)

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • ComTech
  • Registratie: November 2002
  • Laatst online: 05-01 22:32
Ik heb na aanleiding van wat problemen met ZFS een mdadm raid gemaakt van mijn 2 nvme disks.
Dat werkt allemaal prima maar ik zag naast de nieuw gemaakte md0 ook nog 2 andere staan.

code:
1
2
3
4
5
6
7
8
9
md1 : active raid1 zd16p2[0]
      2096128 blocks super 1.2 [8/1] [U_______]
      
md2 : active raid1 zd16p5[0]
      115104640 blocks super 1.2 [1/1] [U]
      
md0 : active raid1 nvme1n1[1] nvme0n1[0]
      976630464 blocks super 1.2 [2/2] [UU]
      bitmap: 2/8 pages [8KB], 65536KB chunk


Details van md2 (md1 is bijna hetzelfde).
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
/dev/md2:
           Version : 1.2
     Creation Time : Sat Oct 25 15:10:19 2025
        Raid Level : raid1
        Array Size : 115104640 (109.77 GiB 117.87 GB)
     Used Dev Size : 115104640 (109.77 GiB 117.87 GB)
      Raid Devices : 1
     Total Devices : 1
       Persistence : Superblock is persistent

       Update Time : Wed Dec  3 20:21:38 2025
             State : clean 
    Active Devices : 1
   Working Devices : 1
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : resync

              Name : Xpenology:2
              UUID : 30557c32:ac7bf406:0c6c001b:101b8d34
            Events : 12

    Number   Major   Minor   RaidDevice State
       0     230       21        0      active sync   /dev/zd16p5


Ik heb een xpenology VM draaien maar kan toch niet dat op de proxmox host een raid daarvan zichtbaar is.

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 05-01 16:09
Proxmox Datacenter Manager 1.0 is uit.
https://forum.proxmox.com...anager-1-0-stable.177321/

Leaping Lab Rats!


  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:47

zeroday

There is no alternative!

ik had de eerste beta geinstalleerd en toen maar weer verlaten want vond het niet zo 1-2-3 een directe toevoeging aan de normale datacenter ..
maar goed .. zojuist even snel een VM aangemaakt en geinstalleerd.

installatie was zo gepiept maar met een cluster toch een beetje tricky weer dat je niet valt voor de config van alle nodes.. Je pakt er maar 1 en dan krijg je je cluster te zien.. Dat vind ik nog steeds een beetje knullig, maar als je dat al een keer hebt meegemaakt valt het kwartje snel ..

certificaat moest ik even over nadenken want dat is weer in stukken opgedeeld maar nu kun je een wildcard aanmaken, alleen die wordt zover ik zie alleen voor de datacenter gebruikt ..

Ik had toch meer als een tool willen zien dat ik snel via de datacenter 1x ergens op kan drukken en dat dan alle nodes in dat cluster bijv. die update krijgen ..

maar goed.. versie 1.0 is uit .. we laten het nu maar draaien ;)

There are no secrets, only information you do not yet have


  • ST10©DE
  • Registratie: Maart 2001
  • Laatst online: 05-01 14:44

ST10©DE

Dus.............

Hej Hoi!

Ik heb een vraagje, want het is me nog niet helemaal duidelijk. Op het moment draai ik een Debian server met HomeAssistant Core, Unifi Controller Zigbee2mqtt, fileserver, en ng wat klein spul. Vanwege problemen met updaten van HA, wil ik overstappen naar een Proxmox VE systeem met in één VM HA OS en in een VM Debian. In de Debian VM wil ik dan de fileserver (kan ik een bestaande MDMA raid daarin opnemen?), unifi controller, Pi-Hole (aparte VM?) etc draaien.

Is dit een logische oplossing? En als ik dan SSH naar de server (deze is headless), dan kom ik in Proxmox. Hoe kan ik ssh-en naar de Debian in de VM?

"Ik heb een hekel aan thuiswerken". Hendrik, 36 jaar, brandweerman.


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 06:47

Quad

Doof

@ST10©DE
Je kan rechtstreeks naar de Debian VM SSH'en, aangezien dat een volwaardig OS / machine is.
Ik zou de Unifi controller overzetten naar Unifi OS server in een LXC (is nog wel in early access)
PiHole in een aparte LXC op de Proxmox host, want dat is sneller up dan je Debian VM.

De Proxmox server beheer je via de webinterface op poort 8006 of via SSH.

Alles went behalve een Twent.
nggyu nglyd


  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 07:30

InjecTioN

¯\_(ツ)_/¯

ST10©DE schreef op dinsdag 16 december 2025 @ 09:44:
Hej Hoi!

Ik heb een vraagje, want het is me nog niet helemaal duidelijk. Op het moment draai ik een Debian server met HomeAssistant Core, Unifi Controller Zigbee2mqtt, fileserver, en ng wat klein spul. Vanwege problemen met updaten van HA, wil ik overstappen naar een Proxmox VE systeem met in één VM HA OS en in een VM Debian. In de Debian VM wil ik dan de fileserver (kan ik een bestaande MDMA raid daarin opnemen?), unifi controller, Pi-Hole (aparte VM?) etc draaien.

Is dit een logische oplossing? En als ik dan SSH naar de server (deze is headless), dan kom ik in Proxmox. Hoe kan ik ssh-en naar de Debian in de VM?
Ik zou allereerst LXC’s niet onderschatten t.o.v. VM’s. LXC’s zorgen voor minder overhead, waardoor ze interessanter kunnen zijn in veel situaties. Een pihole, Zigbee2MQTT of unifi controller zijn perfecte situaties om bijvoorbeeld een LXC voor op te zetten.

Wat betreft de mdadm RAID configuratie: die kan je simpelweg koppelen aan de nieuwe installatie (proxmox). Zolang je de disks niet aanpast tijdens de installatie, kan je de array gewoon mounten.

Voor ssh kan je simpelweg de ssh public key van proxmox in de ~/.ssh/authorized_keys file zetten. Dan kan je een-op-een inloggen via ssh. Anderzijds is de debian VM/LXC gewoon een losse node die je met ssh kan benaderen vanuit je eigen werkstation.

Mocht je alsnog via proxmox willen ssh-en, dan kan je dat doen met een JumpProxy via ssh. :)

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • ST10©DE
  • Registratie: Maart 2001
  • Laatst online: 05-01 14:44

ST10©DE

Dus.............

@Quad @InjecTioN Thanks! Dus als ik het goed begrijp zeggen jullie: HA OS in een VM en de andere services elk in een eigen LXC?

"Ik heb een hekel aan thuiswerken". Hendrik, 36 jaar, brandweerman.


  • Gizz
  • Registratie: Maart 2001
  • Laatst online: 09:28

Gizz

Dunder-Mifflin, Inc.

@ST10©DE en voor zaken waar geen LXC voor beschikbaar is kun je natuurlijk docker gebruiken. Dat hoeft niet per se in een aparte VM, want Docker is uiteraard ook beschikbaar als LXC. Promox VE Helper-Scripts is sowieso een handige site om te kennen, maakt het installeren van je HA VM en alle LXC's super eenvoudig.
En als ik dan SSH naar de server (deze is headless), dan kom ik in Proxmox.
Je hebt straks wel één fysieke server, maar die bestaat natuurlijk uit heel veel virtuale services waarnaar je kunt SSH'en. En vergeet niet dat je gewoon een webinterface hebt bij Proxmox waarin je, los van alle dingen die je direct in de GUI kunt doen, ook in de terminal van zowel de host als VMs en LXCs kunt komen.

[ Voor 31% gewijzigd door Gizz op 16-12-2025 11:19 ]

Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX


  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 07:30

InjecTioN

¯\_(ツ)_/¯

ST10©DE schreef op dinsdag 16 december 2025 @ 10:58:
@Quad @InjecTioN Thanks! Dus als ik het goed begrijp zeggen jullie: HA OS in een VM en de andere services elk in een eigen LXC?
Zoals @Gizz al zegt: De helper scripts gaan je heel erg helpen.

Wat betreft de LXC/VM-verhoudingen: ik gebruik alleen HAOS als VM. De rest zijn allemaal LXC's:
  • pihole (2x ivm high availability)
  • jellyfin
  • debian
  • rustdesk
  • docker (met portainer, frigate en nginx-proxy-manager)
  • esphome
  • unify
  • transmission
  • postgres
  • proxmox-backup-server
Over een tijdje wil ik ook nog Sonarr (en dergelijken) opzetten.

Overigens heb ik dit alles draaien op een 3-tal HP ProDesk 405 G4 Mini met Ryzen 5 2400GE, 16GB RAM, 256GB NVME en 480GB SATA met iedere SSD soort een eigen CEPH datastore in high-availability mode, een 2e NIC toegevoegd via een m.2 2.5Gbe Intel 211 adapter & een externe zelfbouw-NAS met OpenMediaVault.

Flinke hand vol aan meuk, maar het draait echt ontzettend soepel in de meterkast. :)

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 06:47

Quad

Doof

ST10©DE schreef op dinsdag 16 december 2025 @ 10:58:
@Quad @InjecTioN Thanks! Dus als ik het goed begrijp zeggen jullie: HA OS in een VM en de andere services elk in een eigen LXC?
Als ik kijk naar mijn eigen omgeving, is dat antwoord op jouw vraag ja.
Ik heb aardig wat LXCs, waarbij ik eigenlijk al weer zover ben om te zeggen; groepeer services die iets van elkaar willen met elkaar in een enkele LXC.
Zo heb ik mijn volle arr stack (muv Plex/SabNZB) in 1 LXC draaien. Maar Home Assistant in een eigen HAOS, TrueNAS in een VM en nog 4 losse Windows VMs (DCs/vGaming/Veeam).

Ik maak gebruik van een gekloonde LXC template die voorzien is van Docker, watchtower, Portainer en filebrowser (laatste staat geïnstalleerd maar autostart=uit).
Van services die geen docker nodig hebben, maak ik een nieuwe kale LXC aan op basis van de template vanuit Proxmox.

Is dit de beste optie? Nee, genoeg hier die vinden dat je geen docker in een LXC moet draaien. Werkt het goed? Ja, absoluut. Is het soms lastig? Ook, want filesharing op een LXC werkt lastiger en soms werkt het bij service A goed maar bij service B weer niet.

Maar een lXC heeft minder resources nodig, heeft een eigen IP (wat beheer weer makkelijk maakt), kan worden gebackupt (zonder mountpoints), wat restore versnelt ipv een hele dockerserver en zo zijn er wel meer voordelen.

Alles went behalve een Twent.
nggyu nglyd


  • ST10©DE
  • Registratie: Maart 2001
  • Laatst online: 05-01 14:44

ST10©DE

Dus.............

Ik weet weer waarom ik het liefst gewoon werk met een Linux distributie (Debian heeft mijn voorkeur) en dan gewoon alles installeren..... Wat een gekloot met proxmox en VM en LXC's. Ik krijg niet eens zigbee2mqtt op een eigen ip-adres. Ik kan het ip adres pingen van mijn laptop. Maar de webinterface van zigbee2mqtt blijft onzichtbaar/onbereikbaar.

"Ik heb een hekel aan thuiswerken". Hendrik, 36 jaar, brandweerman.


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 06:47

Quad

Doof

@ST10©DE Misschien dat ik even met je mee kan kijken via DM?
Om Z2M aan de praat te krijgen moet de configfile kloppend zijn. Zonder config geen startende Z2M.

Je bent nu ook betrekkelijk nieuw in deze materie, het gaat wel met een beetje vallen en opstaan natuurlijk.

[ Voor 25% gewijzigd door Quad op 17-12-2025 23:53 ]

Alles went behalve een Twent.
nggyu nglyd


  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 06:18
Hi Guys,
Ik ben al een tijdje aan het rondneuzen of Proxmox wat voor mij zou zijn maar kom er zo niet aan uit wat het verstandigste is?

Op dit moment heb ik een 'server' (eerder nas), waar unraid op draait.
Maar omdat ik merk dat ik het niet echt gebruik als nas maar meer als server om dockers en vm's op te draaien vind ik dat de unraid laag daartussen eigenlijk te veel overhead geeft.

Daarom wil ik me de vraag stellen of ik niet beter Proxmox kan gebruiken.
Daarnaast ben ik ook bezig met een opleiding Systeem- en Netwerkbeheer en ligt hierbij dus ook volledig in lijn met elkaar om ermee te kunnen spelen.

Mijn huidige setup ziet er als volgt uit:
- Intel i5 met 32 GB RAM
- NVME waar VM en docker bestanden op staan
- SSD voor cache
- HDD voor downloads
- Array van 3x 5TB HDD voor de data

Ik wil en kan dit veranderen naar een setup waarbij ik de NVME hou voor het OS en dergelijke en overschakel naar 4x 5TB HDD voor de data.
Al de rest kan gezien worden als aanvulling.

Qua containers draai ik eigenlijk, denk ik, zoals de meeste Tweakers:
- ad blocking
- arr suite
- syncthing
- nextcloud (ben ik mee aan het experimenteren)
- immich (net als nextcloud
- databases (maraidb, postgresql, redis)
- containers voor financiele en papierwerk bij te houden
- Home Assistant via een VM in de toekomst

Kortom heel wat containers maar niet echt de basisfunctionaliteit waarvoor een nas echt hoort te dienen.

Kan ik, met mijn vereisten, overschakelen naar proxmox en dat gebruiken als storage? Of hou je beter Proxmox apart en laat ik de unraid voor wat het is waar dan de containers op Proxmox naartoe kunnen schrijven?

  • sailor_dg
  • Registratie: Januari 2019
  • Laatst online: 09:57
ik gebruik een truenas VM met een SATA controller in passthrough naar die VM - dit is mijn 'NAS'. die netjes een ZFS opslag aanbiedt via NFS & Samba waar nodig.

All-electric | Deye 12KSG04LP3 met 2x Yixiang V2, 32x MB31 314 Ah | Panasonic Aquarea J 5kW | Tesla MY, SmartEVSE | 8,8 kWp PV | Proxmox met HomeAssistant, Docker host, PfSense, TrueNas & Mailcow


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 03-01 11:31
Asterion schreef op vrijdag 19 december 2025 @ 12:10:
Hi Guys,
Ik ben al een tijdje aan het rondneuzen of Proxmox wat voor mij zou zijn maar kom er zo niet aan uit wat het verstandigste is?

Op dit moment heb ik een 'server' (eerder nas), waar unraid op draait.
Maar omdat ik merk dat ik het niet echt gebruik als nas maar meer als server om dockers en vm's op te draaien vind ik dat de unraid laag daartussen eigenlijk te veel overhead geeft.

Daarom wil ik me de vraag stellen of ik niet beter Proxmox kan gebruiken.
Daarnaast ben ik ook bezig met een opleiding Systeem- en Netwerkbeheer en ligt hierbij dus ook volledig in lijn met elkaar om ermee te kunnen spelen.

Mijn huidige setup ziet er als volgt uit:
- Intel i5 met 32 GB RAM
- NVME waar VM en docker bestanden op staan
- SSD voor cache
- HDD voor downloads
- Array van 3x 5TB HDD voor de data

Ik wil en kan dit veranderen naar een setup waarbij ik de NVME hou voor het OS en dergelijke en overschakel naar 4x 5TB HDD voor de data.
Al de rest kan gezien worden als aanvulling.

Qua containers draai ik eigenlijk, denk ik, zoals de meeste Tweakers:
- ad blocking
- arr suite
- syncthing
- nextcloud (ben ik mee aan het experimenteren)
- immich (net als nextcloud
- databases (maraidb, postgresql, redis)
- containers voor financiele en papierwerk bij te houden
- Home Assistant via een VM in de toekomst

Kortom heel wat containers maar niet echt de basisfunctionaliteit waarvoor een nas echt hoort te dienen.

Kan ik, met mijn vereisten, overschakelen naar proxmox en dat gebruiken als storage? Of hou je beter Proxmox apart en laat ik de unraid voor wat het is waar dan de containers op Proxmox naartoe kunnen schrijven?
Je kunt overschakelen naar Proxmox en dat (ook) gebruiken voor storage. Maar ik zou aanraden om dat door een stukje NAS software te doen. Of dat nu TrueNAS, Unraid of OMV is dat maakt eigenlijk niet uit. Draai het gewoon als (extra) VM op je Proxmox server en geef de disks of satacontroller mee via passthrough. Net zoals @sailor_dg en mij :)

https://dontasktoask.com/


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 03-01 11:31
Ik zou tevens je applicatie VMs/LXCs gewoon op de NVME draaien naast Proxmox en dan goede backups instellen (naar je NAS VM ;) ).

https://dontasktoask.com/


  • sailor_dg
  • Registratie: Januari 2019
  • Laatst online: 09:57
wil je helemaal overkill: ik heb een tweede proxmox pc draaien met daarin ook een truenas VM, welke als ZFS replicatie host werkt en voor andere machines als backup target werkt - deze praat ook met Amazon S3 voor opslag in de cloud van kritische zaken. tweede VM is proxmox backup server welke backups van de VMs zelf ontvangt.

All-electric | Deye 12KSG04LP3 met 2x Yixiang V2, 32x MB31 314 Ah | Panasonic Aquarea J 5kW | Tesla MY, SmartEVSE | 8,8 kWp PV | Proxmox met HomeAssistant, Docker host, PfSense, TrueNas & Mailcow


  • Cyphax
  • Registratie: November 2000
  • Nu online

Cyphax

Moderator LNX
Asterion schreef op vrijdag 19 december 2025 @ 12:10:
Hi Guys,
Ik ben al een tijdje aan het rondneuzen of Proxmox wat voor mij zou zijn maar kom er zo niet aan uit wat het verstandigste is?

Op dit moment heb ik een 'server' (eerder nas), waar unraid op draait.
Maar omdat ik merk dat ik het niet echt gebruik als nas maar meer als server om dockers en vm's op te draaien vind ik dat de unraid laag daartussen eigenlijk te veel overhead geeft.

Daarom wil ik me de vraag stellen of ik niet beter Proxmox kan gebruiken.
Daarnaast ben ik ook bezig met een opleiding Systeem- en Netwerkbeheer en ligt hierbij dus ook volledig in lijn met elkaar om ermee te kunnen spelen.

Mijn huidige setup ziet er als volgt uit:
- Intel i5 met 32 GB RAM
- NVME waar VM en docker bestanden op staan
- SSD voor cache
- HDD voor downloads
- Array van 3x 5TB HDD voor de data

Ik wil en kan dit veranderen naar een setup waarbij ik de NVME hou voor het OS en dergelijke en overschakel naar 4x 5TB HDD voor de data.
Al de rest kan gezien worden als aanvulling.

Qua containers draai ik eigenlijk, denk ik, zoals de meeste Tweakers:
- ad blocking
- arr suite
- syncthing
- nextcloud (ben ik mee aan het experimenteren)
- immich (net als nextcloud
- databases (maraidb, postgresql, redis)
- containers voor financiele en papierwerk bij te houden
- Home Assistant via een VM in de toekomst

Kortom heel wat containers maar niet echt de basisfunctionaliteit waarvoor een nas echt hoort te dienen.

Kan ik, met mijn vereisten, overschakelen naar proxmox en dat gebruiken als storage? Of hou je beter Proxmox apart en laat ik de unraid voor wat het is waar dan de containers op Proxmox naartoe kunnen schrijven?
Op zich is Proxmox een goede oplossing, maar naar mijn bescheiden mening zit daar een hele grote "maar" aan. Proxmox heeft native een andere container-soort aan boord, de LXC. Dat lijkt op sommige punten op Docker maar op andere punten weer minder. Als je een Docker-container wilt draaien, dan moet je eigenlijk dus eerst een VM of container daarvoor draaien waarin je dan je applicaties nog een keer containerized. Nou kan dat op zich prima, maar mijn ervaring ermee is tot dusverre dat het handiger is om dan over te stappen op LXCs, of een ander OS te installeren dan Proxmox. Wat je hier noemt kan je heel goed in LXCs stoppen, en er zijn kant-en-klare templates en scripts die het vereenvoudigen.

Saved by the buoyancy of citrus


  • ST10©DE
  • Registratie: Maart 2001
  • Laatst online: 05-01 14:44

ST10©DE

Dus.............

De Unifi LXC wil niet installeren. Ik krijg een AXV fout bij MongoDB. Is er iemand die mij een hint kan geven hoe dit op te lossen? Of iemand die mij een link kan geven hoe ik UnifiOS op Proxmox kan krijgen (howto)?

"Ik heb een hekel aan thuiswerken". Hendrik, 36 jaar, brandweerman.


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

ST10©DE schreef op zaterdag 20 december 2025 @ 09:33:
De Unifi LXC wil niet installeren. Ik krijg een AXV fout bij MongoDB. Is er iemand die mij een hint kan geven hoe dit op te lossen? Of iemand die mij een link kan geven hoe ik UnifiOS op Proxmox kan krijgen (howto)?
Heb je hier wat aan?

https://community-scripts...roxmoxVE/scripts?id=unifi

Of heb je het hier juist vandaan :P

[ Voor 4% gewijzigd door Gunner op 20-12-2025 09:38 ]

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • tistjendop
  • Registratie: Augustus 2015
  • Niet online
ST10©DE schreef op zaterdag 20 december 2025 @ 09:33:
De Unifi LXC wil niet installeren. Ik krijg een AXV fout bij MongoDB. Is er iemand die mij een hint kan geven hoe dit op te lossen? Of iemand die mij een link kan geven hoe ik UnifiOS op Proxmox kan krijgen (howto)?
Je zou een basis debian/ubuntu lxc kunnen installeren en de unifi network application er op installeren met het script van glennr https://community.ui.com/...61-40a7-82ec-22b17f027776

[ Voor 0% gewijzigd door tistjendop op 20-12-2025 09:40 . Reden: Tikfout ]


  • ST10©DE
  • Registratie: Maart 2001
  • Laatst online: 05-01 14:44

ST10©DE

Dus.............

Yep, die gebruik ik juist. :| Althans, ik probeer het....

Daar staat ook "For non-AVX CPUs, MongoDB 4.4 is installed. Please note this is a legacy solution that may present security risks and could become unsupported in future updates.". Maar 4.4 wordt blijkbaar niet geinstalleerd.

"Ik heb een hekel aan thuiswerken". Hendrik, 36 jaar, brandweerman.


  • ST10©DE
  • Registratie: Maart 2001
  • Laatst online: 05-01 14:44

ST10©DE

Dus.............

tistjendop schreef op zaterdag 20 december 2025 @ 09:40:
[...]


Je zou een basis debian/ubuntu lxc kunnen installeren en de unifi network application er op installeren met het script van glennr https://community.ui.com/...61-40a7-82ec-22b17f027776
Thanks, daar zat ik net aan te denken. Een debian LXC (of een VM, wat is wijsheid?) en daarin Unifi installeren.

"Ik heb een hekel aan thuiswerken". Hendrik, 36 jaar, brandweerman.


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Die GlennR-scripts zijn idd heel goed.

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • tistjendop
  • Registratie: Augustus 2015
  • Niet online
ST10©DE schreef op zaterdag 20 december 2025 @ 09:42:
[...]

Thanks, daar zat ik net aan te denken. Een debian LXC (of een VM, wat is wijsheid?) en daarin Unifi installeren.
Bij mij draait de network application happy in een lxc. Gebruikt minder resources dan een vm, maar verder is er zeker niks mis met hem in een vm te draaien.

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 05-01 16:09
ST10©DE schreef op zaterdag 20 december 2025 @ 09:33:
De Unifi LXC wil niet installeren. Ik krijg een AXV fout bij MongoDB. Is er iemand die mij een hint kan geven hoe dit op te lossen? Of iemand die mij een link kan geven hoe ik UnifiOS op Proxmox kan krijgen (howto)?
Welke CPU (hardware) zit er in je Proxmox systeem? Die moet de avx instructieset ondersteunen anders gaat het niet werken.

code:
1
cat /proc/cpuinfo | grep avx


Een LXC heeft direct beschikbaarheid tot de CPU dus als je CPU avx ondersteunt gaat dat automatisch goed. Bij een VM moet je een virtueel CPU type instellen dat avx ondersteunt zodat de instructieset ook beschikbaar is in de VM. De optie 'host' is het meest compleet, dan gebruikt de VM dezelfde CPU als je Proxmox host.
https://brentk.io/thought...se-of-qemu-cpu-types.html

[ Voor 15% gewijzigd door d3vlin op 20-12-2025 12:06 ]

Leaping Lab Rats!


  • ST10©DE
  • Registratie: Maart 2001
  • Laatst online: 05-01 14:44

ST10©DE

Dus.............

d3vlin schreef op zaterdag 20 december 2025 @ 11:59:
[...]


Welke CPU (hardware) zit er in je Proxmox systeem? Die moet de avx instructieset ondersteunen anders gaat het niet werken.

code:
1
cat /proc/cpuinfo | grep avx


Een LXC heeft direct beschikbaarheid tot de CPU dus als je CPU avx ondersteunt gaat dat automatisch goed. Bij een VM moet je een virtueel CPU type instellen dat avx ondersteunt zodat de instructieset ook beschikbaar is in de VM. De optie 'host' is het meest compleet, dan gebruikt de VM dezelfde CPU als je Proxmox host.
https://brentk.io/thought...se-of-qemu-cpu-types.html
Ik heb een
code:
1
model name      : Intel(R) Pentium(R) Gold G6400 CPU @ 4.00GHz

Die heeft blijkbaar geen avx. Ik heb het nu werkend via Debian in een LXC en het script van hierboven (Glennr) waarvoor veel dank! @tistjendop

"Ik heb een hekel aan thuiswerken". Hendrik, 36 jaar, brandweerman.


  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 06:18
sailor_dg schreef op vrijdag 19 december 2025 @ 12:46:
ik gebruik een truenas VM met een SATA controller in passthrough naar die VM - dit is mijn 'NAS'. die netjes een ZFS opslag aanbiedt via NFS & Samba waar nodig.
orvintax schreef op vrijdag 19 december 2025 @ 14:05:
[...]

Je kunt overschakelen naar Proxmox en dat (ook) gebruiken voor storage. Maar ik zou aanraden om dat door een stukje NAS software te doen. Of dat nu TrueNAS, Unraid of OMV is dat maakt eigenlijk niet uit. Draai het gewoon als (extra) VM op je Proxmox server en geef de disks of satacontroller mee via passthrough. Net zoals @sailor_dg en mij :)
Weten jullie ook hoe het dan zit om een usb-stick door te geven naar de VM van Unraid? Unraid start vanaf een usb om daarna alles in het RAM te houden. Maar ik zou dan misschien beter overstappen naar TrueNAS om die laag al te kunnen skippen?

Voor zover ik al gelezen heb krijgt elke LXC zijn eigen ip-adres? Bij Docker kan je dat kiezen.
Ik veronderstel, als je een VM NAS gebruikt, dat je dan een 'volume' niet kan rechtstreeks kan koppelen aan een map op de opslag die beheerd wordt door de NAS maar dat je dan een NFS share gebruikt?
sailor_dg schreef op vrijdag 19 december 2025 @ 17:24:
wil je helemaal overkill: ik heb een tweede proxmox pc draaien met daarin ook een truenas VM, welke als ZFS replicatie host werkt en voor andere machines als backup target werkt - deze praat ook met Amazon S3 voor opslag in de cloud van kritische zaken. tweede VM is proxmox backup server welke backups van de VMs zelf ontvangt.
Haha, dat is misschien wel mogelijk in de verre toekomst.
In onze opleiding hebben de hogere klassen 3 proxmox'en moeten opzetten, een ubuntu server als fileserver.
Gebruik makend van CEPH en ervoor zorgen dat als er een node uitvalt, een andere node overneemt.
En dat allemaal in VMWare..
Cyphax schreef op vrijdag 19 december 2025 @ 17:46:
[...]

Op zich is Proxmox een goede oplossing, maar naar mijn bescheiden mening zit daar een hele grote "maar" aan. Proxmox heeft native een andere container-soort aan boord, de LXC. Dat lijkt op sommige punten op Docker maar op andere punten weer minder. Als je een Docker-container wilt draaien, dan moet je eigenlijk dus eerst een VM of container daarvoor draaien waarin je dan je applicaties nog een keer containerized. Nou kan dat op zich prima, maar mijn ervaring ermee is tot dusverre dat het handiger is om dan over te stappen op LXCs, of een ander OS te installeren dan Proxmox. Wat je hier noemt kan je heel goed in LXCs stoppen, en er zijn kant-en-klare templates en scripts die het vereenvoudigen.
Of het nu Docker of LXC is maakt voor mij verder niks uit. Docker heb ik nu redelijk onder de knie maar iets nieuws leren is altijd leuk.
Er in verdiepen moet ik nog doen als ik beslis om over te schakelen maar ik vermoed dat dit niet heel ver uiteen zal liggen qua werking?

  • Cyphax
  • Registratie: November 2000
  • Nu online

Cyphax

Moderator LNX
Asterion schreef op zaterdag 20 december 2025 @ 12:37:
[...]

Of het nu Docker of LXC is maakt voor mij verder niks uit. Docker heb ik nu redelijk onder de knie maar iets nieuws leren is altijd leuk.
Er in verdiepen moet ik nog doen als ik beslis om over te schakelen maar ik vermoed dat dit niet heel ver uiteen zal liggen qua werking?
Onder water doen ze hetzelfde: je software isoleren en uitvoeren op de host. Maar de manier waarop je ermee werkt is anders. Een LXC binnen Proxmox lijkt meer op een VM. Bij Docker ben je al gauw bezig met Compose met yaml-configuratie en iets als Portainer of DockGE als je het niet via de CLI wilt doen. Nu zijn er wel wat verbeteringen op komst met support voor OCI-images binnen LXCs maar dat is geloof ik nog niet af en ik heb me daar nog niet zo mee beziggehouden. :)

Saved by the buoyancy of citrus


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 03-01 11:31
Asterion schreef op zaterdag 20 december 2025 @ 12:37:
[...]


[...]


Weten jullie ook hoe het dan zit om een usb-stick door te geven naar de VM van Unraid? Unraid start vanaf een usb om daarna alles in het RAM te houden. Maar ik zou dan misschien beter overstappen naar TrueNAS om die laag al te kunnen skippen?

Voor zover ik al gelezen heb krijgt elke LXC zijn eigen ip-adres? Bij Docker kan je dat kiezen.
Ik veronderstel, als je een VM NAS gebruikt, dat je dan een 'volume' niet kan rechtstreeks kan koppelen aan een map op de opslag die beheerd wordt door de NAS maar dat je dan een NFS share gebruikt?


[...]


Haha, dat is misschien wel mogelijk in de verre toekomst.
In onze opleiding hebben de hogere klassen 3 proxmox'en moeten opzetten, een ubuntu server als fileserver.
Gebruik makend van CEPH en ervoor zorgen dat als er een node uitvalt, een andere node overneemt.
En dat allemaal in VMWare..


[...]


Of het nu Docker of LXC is maakt voor mij verder niks uit. Docker heb ik nu redelijk onder de knie maar iets nieuws leren is altijd leuk.
Er in verdiepen moet ik nog doen als ik beslis om over te schakelen maar ik vermoed dat dit niet heel ver uiteen zal liggen qua werking?
Ik zou de Unraid VM niet meer op een USB disk zetten, maar verplaatsen en naast Proxmox zetten. Gewoon op de NVME.

Ik gebruik inderdaad een NFS share om mijn HDD opslag te delen met andere VMs.

Voor Docker vs LXC moet je zelf kijken naar welke oplossing je het fijnst vind. Uiteindelijk dient het hetzelfde doel.

https://dontasktoask.com/


  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 06:18
Cyphax schreef op zaterdag 20 december 2025 @ 12:52:
[...]

Onder water doen ze hetzelfde: je software isoleren en uitvoeren op de host. Maar de manier waarop je ermee werkt is anders. Een LXC binnen Proxmox lijkt meer op een VM. Bij Docker ben je al gauw bezig met Compose met yaml-configuratie en iets als Portainer of DockGE als je het niet via de CLI wilt doen. Nu zijn er wel wat verbeteringen op komst met support voor OCI-images binnen LXCs maar dat is geloof ik nog niet af en ik heb me daar nog niet zo mee beziggehouden. :)
Thanx, ik denk dat ik gwn even de stap ga wagen en het ga proberen..
orvintax schreef op zaterdag 20 december 2025 @ 16:40:
[...]

Ik zou de Unraid VM niet meer op een USB disk zetten, maar verplaatsen en naast Proxmox zetten. Gewoon op de NVME.

Ik gebruik inderdaad een NFS share om mijn HDD opslag te delen met andere VMs.

Voor Docker vs LXC moet je zelf kijken naar welke oplossing je het fijnst vind. Uiteindelijk dient het hetzelfde doel.
Ah, mazr ik bedoelde dat Unraid vanaf een USB opstart en dat ook vereist want de licentie is gekoppeld aan die USB stick.

Je installeert Unraid niet ergens op. Het laadt alles op van die stick en plaatst dat in het RAM.
Wijzigingen worden er wel naar weggeschreven maar thats it.

  • Jerie
  • Registratie: April 2007
  • Niet online
Asterion schreef op zondag 21 december 2025 @ 11:35:

Je installeert Unraid niet ergens op. Het laadt alles op van die stick en plaatst dat in het RAM.
Wijzigingen worden er wel naar weggeschreven maar thats it.
Ook al zorg je er nog voor dat deze USB stick geen onnodige writes hoeft te ondergaan (immutable OS) dan zou ik toch backups maken van deze USB stick. Ik heb vaak genoeg gehad dat zelfs bij enkel r/o deze dingen toch te heet worden (dat staat als het goed is ook in de specs), en ze stuk gaan.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 06:18
Jerie schreef op zondag 21 december 2025 @ 13:31:
[...]


Ook al zorg je er nog voor dat deze USB stick geen onnodige writes hoeft te ondergaan (immutable OS) dan zou ik toch backups maken van deze USB stick. Ik heb vaak genoeg gehad dat zelfs bij enkel r/o deze dingen toch te heet worden (dat staat als het goed is ook in de specs), en ze stuk gaan.
Daar heb je zeker gelijk in en dat is op dit moment ook goed geregeld.

Maar ik vraag me af of ik niet beter kan overstappen naar TrueNAS om ervoor te zorgen dat ik die stap van passtrough of dergelijk al niet meer hoef te doen.
Is toch weer een laag complexiteit dat toegevoegd wordt.

  • Jerie
  • Registratie: April 2007
  • Niet online
Asterion schreef op zondag 21 december 2025 @ 14:56:
[...]


Daar heb je zeker gelijk in en dat is op dit moment ook goed geregeld.

Maar ik vraag me af of ik niet beter kan overstappen naar TrueNAS om ervoor te zorgen dat ik die stap van passtrough of dergelijk al niet meer hoef te doen.
Is toch weer een laag complexiteit dat toegevoegd wordt.
Wat voor licentie heb je qua Unraid? Wat ik niet cool vindt aan Unraid is hun licentiemodel. Voor professioneel gebruik is dat prima, maar voor een hobby project is dat wat mij betreft te duur. Proxmox is ook duur voor hobby project, maar je kunt ook de repo gebruiken die er op neer komt dat je proefkonijn bent. TrueNAS doet niet moeilijk met hun community edition dat is TrueNAS SCALE, ook gebaseerd op Debian (net als Proxmox).

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 06:18
Jerie schreef op zondag 21 december 2025 @ 15:13:
[...]


Wat voor licentie heb je qua Unraid? Wat ik niet cool vindt aan Unraid is hun licentiemodel. Voor professioneel gebruik is dat prima, maar voor een hobby project is dat wat mij betreft te duur.
Ik heb nog een Pro Licentie. Dat is van voor de huidige licenties.
Komt erop neer dat ik unlimited HDDs kan aansluiten en lifetime updates heb.

Had ik dus nog niet gelezen dat Proxmox in de basis niet gratis is.
Ik dacht dat de VE editie voor thuisgebruik gewoon gratis is?

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Asterion schreef op zondag 21 december 2025 @ 15:30:
[...]
Had ik dus nog niet gelezen dat Proxmox in de basis niet gratis is.
Ik dacht dat de VE editie voor thuisgebruik gewoon gratis is?
Het is misschien wat verwarrend verwoord door @Jerie, maar gebruik van de no-subscription apt source is inderdaad gewoon gratis (of je het nu thuis gebruikt of niet, dat maakt niet eens uit).

  • Dacuuu
  • Registratie: Maart 2009
  • Laatst online: 09:03
Jerie schreef op zondag 21 december 2025 @ 15:13:
[...]


Wat voor licentie heb je qua Unraid? Wat ik niet cool vindt aan Unraid is hun licentiemodel. Voor professioneel gebruik is dat prima, maar voor een hobby project is dat wat mij betreft te duur. Proxmox is ook duur voor hobby project, maar je kunt ook de repo gebruiken die er op neer komt dat je proefkonijn bent. TrueNAS doet niet moeilijk met hun community edition dat is TrueNAS SCALE, ook gebaseerd op Debian (net als Proxmox).
Ik vind unraid heerlijk. Eerst alles cli gedaan op Ubuntu, maar geniet elke dag van unraid. E is dan vind ik ook niet erg dat dat iets geld gekost heeft.

De usb drive back-uppen, en een stick gebruiken met MLC of beter, SLC.

Daarnaast komt unraid binnenkort ook met optie(s) om geen geen usb stick meer te gebruiken. Komt binnenkort in beta.

  • Jerie
  • Registratie: April 2007
  • Niet online
Asterion schreef op zondag 21 december 2025 @ 15:30:
[...]


Ik heb nog een Pro Licentie. Dat is van voor de huidige licenties.
Komt erop neer dat ik unlimited HDDs kan aansluiten en lifetime updates heb.
Als je die licentie al hebt, dan zou ik eerst eens uitzoeken of Unraid niet voldoet aan jouw eisen. Volgens mij heb je het best goed geregeld. Je start r/o op van een USB stick. Daar heb je backups van. Je hebt een lifetime licentie. Dan moet je een goede reden hebben om te willen switchen naar iets anders.

Want of je nou je storage draait op een of andere Linux server distributie met OCI containers, of Proxmox, Unraid, OMV, TrueNAS, dat maakt allemaal niet zoveel uit. Op Unraid kun je ook prima spelen met virtuele netwerken, of VMs.

Als ik je post nog eens vluchtig teruglees dan denk ik: if it ain't broken, don't fix it.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 03-01 11:31
Asterion schreef op zondag 21 december 2025 @ 11:35:
Ah, mazr ik bedoelde dat Unraid vanaf een USB opstart en dat ook vereist want de licentie is gekoppeld aan die USB stick.

Je installeert Unraid niet ergens op. Het laadt alles op van die stick en plaatst dat in het RAM.
Wijzigingen worden er wel naar weggeschreven maar thats it.
Ik was me er niet van bewust dat Unraid je licentie koppelde aan het opslagemdium ( 8)7 ) vandaar dat ik die verplaatsing voorstelde.

https://dontasktoask.com/


  • Vuur Draak
  • Registratie: Mei 2013
  • Laatst online: 22:57
Komend van een RPi4 met HomeAssistant met wat extra's
ben ik sinds kort overgestapt op Proxmox pve op een mini-pc en heb dit nu een maandje werkend:
- Home Asistant (vm)
- Adguard Home (lxc)
- Homepage (lxc)

Hier wil ik nog aan toevoegen:
- Jellyfin (lxc)
- Immich (lxc)

Proxmox host zelf en de lxc' en vm staan op een 500gb ssd in deze mini pc heb ik een 2TB nvme bijgestoken
Die 2TB is bedoeld voor:
Immich database
Media bestanden van Jellyfin en Home Assistant (mp3 / mp4)
Opslag snapshots van videobewakingsbeelden

Ik heb hier al over veel verschillende manieren gelezen hoe je data zou kunnen delen
en vraag mij af wat voor mij de makkelijkste methode zou zijn bestandsdeling te bewerkstelligen.
Kan dit met OMV in een LXC of VM waaraan ik een extra ssd volume kan toevoegen?
Wat zijn jullie tips / ervaringen voor een beginnend proxmoxer...

  • Cyphax
  • Registratie: November 2000
  • Nu online

Cyphax

Moderator LNX
Vuur Draak schreef op zondag 21 december 2025 @ 23:32:
Komend van een RPi4 met HomeAssistant met wat extra's
ben ik sinds kort overgestapt op Proxmox pve op een mini-pc en heb dit nu een maandje werkend:
- Home Asistant (vm)
- Adguard Home (lxc)
- Homepage (lxc)

Hier wil ik nog aan toevoegen:
- Jellyfin (lxc)
- Immich (lxc)

Proxmox host zelf en de lxc' en vm staan op een 500gb ssd in deze mini pc heb ik een 2TB nvme bijgestoken
Die 2TB is bedoeld voor:
Immich database
Media bestanden van Jellyfin en Home Assistant (mp3 / mp4)
Opslag snapshots van videobewakingsbeelden

Ik heb hier al over veel verschillende manieren gelezen hoe je data zou kunnen delen
en vraag mij af wat voor mij de makkelijkste methode zou zijn bestandsdeling te bewerkstelligen.
Kan dit met OMV in een LXC of VM waaraan ik een extra ssd volume kan toevoegen?
Wat zijn jullie tips / ervaringen voor een beginnend proxmoxer...
Naar LXCs toe is het het makkelijkst om gewoon bind mounts te gebruiken. Als die ssd en z'n partitie(s) op de host gemount worden kan je ze gewoon doorgeven.

Saved by the buoyancy of citrus


  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 06:18
Jerie schreef op zondag 21 december 2025 @ 15:45:
[...]


Als je die licentie al hebt, dan zou ik eerst eens uitzoeken of Unraid niet voldoet aan jouw eisen. Volgens mij heb je het best goed geregeld. Je start r/o op van een USB stick. Daar heb je backups van. Je hebt een lifetime licentie. Dan moet je een goede reden hebben om te willen switchen naar iets anders.

Want of je nou je storage draait op een of andere Linux server distributie met OCI containers, of Proxmox, Unraid, OMV, TrueNAS, dat maakt allemaal niet zoveel uit. Op Unraid kun je ook prima spelen met virtuele netwerken, of VMs.

Als ik je post nog eens vluchtig teruglees dan denk ik: if it ain't broken, don't fix it.
Omdat ik het gevoel heb dat ik het op een andere manier beter kan indelen en gebruiken waarvoor het dient.

Wat ik nu heb is een NAS omgeving die ik gebruik voor containers en VMs. Maar niet het doel waarvoor een NAS eigenlijk dient.
Ik had gehoopt om die extra laag ervan tussen te halen.
Ik loop ook tegen de beperkingen aan dat ik redelijk wat containers gebruik die van dezelfde poorten willen gebruik maken.
Dat is op te lossen door ieder een eigen ip-adres te geven of om poort-mapping te gebruiken maar ik vind het toch net niet dat.
Misschien zijn daar nog andere oplossingen voor maar daar heb ik nog niet verder achter gezocht.

Containers rechtstreeks op virtualisatieplatform, samen met de VMs. De overhead is dan toch veel kleiner?
En daarnaast een NAS VM die dan een share kan doorgeven voor de containers.

En ook, omdat het kan!
Ik speel er graag mee en ben zeker niet verlegen om een paar keer opnieuw te beginnen.

  • Jerie
  • Registratie: April 2007
  • Niet online
Asterion schreef op maandag 22 december 2025 @ 12:59:
[...]


Omdat ik het gevoel heb dat ik het op een andere manier beter kan indelen en gebruiken waarvoor het dient.

Wat ik nu heb is een NAS omgeving die ik gebruik voor containers en VMs. Maar niet het doel waarvoor een NAS eigenlijk dient.
Ik had gehoopt om die extra laag ervan tussen te halen.
Ik loop ook tegen de beperkingen aan dat ik redelijk wat containers gebruik die van dezelfde poorten willen gebruik maken.
Dat is op te lossen door ieder een eigen ip-adres te geven of om poort-mapping te gebruiken maar ik vind het toch net niet dat.
Misschien zijn daar nog andere oplossingen voor maar daar heb ik nog niet verder achter gezocht.

Containers rechtstreeks op virtualisatieplatform, samen met de VMs. De overhead is dan toch veel kleiner?
En daarnaast een NAS VM die dan een share kan doorgeven voor de containers.

En ook, omdat het kan!
Ik speel er graag mee en ben zeker niet verlegen om een paar keer opnieuw te beginnen.
Reverse proxy + subdomein + wildcard TLS cert.

Een NAS bevat data (op de storage, tegenwoordig meestal nog HDDs), en draait services (liefst op de NVMe). Die serveert het over een netwerk. Hoeveelheid software die je draait heeft effect op hoeveel je je hardware belast, en dat zie je weer terug op een stroomrekening. Daar wil ik mee zeggen dat je niet een wezenlijk verschil zou hoeven te merken per software stack. De overhead van een VM is ook verwaarloosbaar.

Wat betreft die licentie in het commentaar hier zie ik dat je die kunt rebinden? https://old.reddit.com/r/...ny2ouf/usb_stick_failing/ in ieder geval is dit op zich wel goed advies: je hebt USB sticks die zelf geen data bevatten, maar waar je een microSD in kunt stoppen. Gaat die stuk, dan blijft je USB stick dezelfde serial bevatten. Daarmee kun je om dit probleem van die licentie heenwerken. Een SLC of aMLC storage zou ook al kunnen helpen. Die gaan lang mee, zijn wel wat duurder.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 06:18
Jerie schreef op maandag 22 december 2025 @ 13:11:
[...]


Reverse proxy + subdomein + wildcard TLS cert.

Een NAS bevat data (op de storage, tegenwoordig meestal nog HDDs), en draait services (liefst op de NVMe). Die serveert het over een netwerk. Hoeveelheid software die je draait heeft effect op hoeveel je je hardware belast, en dat zie je weer terug op een stroomrekening. Daar wil ik mee zeggen dat je niet een wezenlijk verschil zou hoeven te merken per software stack. De overhead van een VM is ook verwaarloosbaar.

Wat betreft die licentie in het commentaar hier zie ik dat je die kunt rebinden? https://old.reddit.com/r/...ny2ouf/usb_stick_failing/ in ieder geval is dit op zich wel goed advies: je hebt USB sticks die zelf geen data bevatten, maar waar je een microSD in kunt stoppen. Gaat die stuk, dan blijft je USB stick dezelfde serial bevatten. Daarmee kun je om dit probleem van die licentie heenwerken. Een SLC of aMLC storage zou ook al kunnen helpen. Die gaan lang mee, zijn wel wat duurder.
Dus in feite maakt het niet uit of ik de containers in Unraid gebruik of via Proxmox? De verschillen qua belasting zijn minimaal te noemen?

Ja, de licentie van Unraid is inderdaad over te zetten naar een andere USB Stick. Dan wordt de oude op een soort van blacklist gezet. :-)

Dat van de reverse proxy moet ik dan even bekijken, bedankt voor de tip.
Dan zouden de containers geen poort mapping meer moeten krijgen als ik goede vriend ChatGPT mag geloven als ik reverse proxy zou gebruiken?

  • Jerie
  • Registratie: April 2007
  • Niet online
Asterion schreef op maandag 22 december 2025 @ 13:18:
[...]


Dus in feite maakt het niet uit of ik de containers in Unraid gebruik of via Proxmox? De verschillen qua belasting zijn minimaal te noemen?
Normaal gesproken maakt dat niets uit, tenzij je iets van duidelijke data hebt dat dat wel het geval zou zijn. Anders is het puur speculatief.
Ja, de licentie van Unraid is inderdaad over te zetten naar een andere USB Stick. Dan wordt de oude op een soort van blacklist gezet. :-)
Nice, wel zo terecht inderdaad. Dan is dat probleem ook een non-issue, mits je dus goede backups hebt (en die zeg je te hebben). Met name van je licentie en config, zo te lezen.
Dat van de reverse proxy moet ik dan even bekijken, bedankt voor de tip.
Dan zouden de containers geen poort mapping meer moeten krijgen als ik goede vriend ChatGPT mag geloven als ik reverse proxy zou gebruiken?
Wel interne ports, maar daar heb je niets mee te maken. Je bind bijvoorbeeld de webserver op 10.0.0.1:10001 en die bind je dan met reverse proxy op https://sonarr.thuisserver.domein.invalid waarbij je een certificaat hebt voor *.thuisserver.domein.invalid. Vervolgens heb je een lagere attack surface (niets kan direct met de applicaties verbinden, enkel via de reverse proxy) en heb je ook nooit iets te maken met ports (je reverse proxy dealt daarmee), dat gaat allemaal transparant. Je kunt ook nog gebruikmaken van thuisserver.domein.invalid/sonarr als je dat prettiger vindt. (Of je thuisserver ook extern bereikbaar moet zijn, staat hier even los van, dat is een kwestie van firewalling, al zeg je wel tegen de hele wereld dat thuisserver.domein.invalid in ieder geval bestaat.)

De keuze is geheel aan jou :)

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • Asterion
  • Registratie: Maart 2008
  • Laatst online: 06:18
Jerie schreef op maandag 22 december 2025 @ 13:31:
[...]


Normaal gesproken maakt dat niets uit, tenzij je iets van duidelijke data hebt dat dat wel het geval zou zijn. Anders is het puur speculatief.


[...]


Nice, wel zo terecht inderdaad. Dan is dat probleem ook een non-issue, mits je dus goede backups hebt (en die zeg je te hebben). Met name van je licentie en config, zo te lezen.


[...]


Wel interne ports, maar daar heb je niets mee te maken. Je bind bijvoorbeeld de webserver op 10.0.0.1:10001 en die bind je dan met reverse proxy op https://sonarr.thuisserver.domein.invalid waarbij je een certificaat hebt voor *.thuisserver.domein.invalid. Vervolgens heb je een lagere attack surface (niets kan direct met de applicaties verbinden, enkel via de reverse proxy) en heb je ook nooit iets te maken met ports (je reverse proxy dealt daarmee), dat gaat allemaal transparant. Je kunt ook nog gebruikmaken van thuisserver.domein.invalid/sonarr als je dat prettiger vindt. (Of je thuisserver ook extern bereikbaar moet zijn, staat hier even los van, dat is een kwestie van firewalling, al zeg je wel tegen de hele wereld dat thuisserver.domein.invalid in ieder geval bestaat.)

De keuze is geheel aan jou :)
Dan moet ik daar maar even mee aan de slag gaan en me even in verdiepen.
Bedankt voor de informatie!

  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Gunner schreef op zondag 23 november 2025 @ 14:28:
[...]

Goed, even wat uitzoekwerk gedaan, wat commando's gecheckt en ik gebruikte voor zover ik weet die systemd-boot niet. Deze verwijderd en systeem startte nog op na de reboot :7

Daarna moest ik nog een andere bootloader verwijderen en opnieuw installeren en alles draait nog. In principe dus klaar voor de update.
Vandaag even uitgekozen voor de upgrade van 8 naar 9. Gelukkig zijn de te volgen stappen goed gedocumenteerd en het lijkt gelukt ondanks mijn beperkte kennis van Debian. :7

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • witchdoc
  • Registratie: Juni 2000
  • Laatst online: 04-01 14:20
Ik draai momenteel een enkele Proxmox VE node met wat VMs.
Hiernaast heb ik momenteel ook nog een Synology 1821+ waar momenteel nog de meeste services op draaien (reverse proxy, DNS authorative & recursive server, email server, webserver, NFS/SMB share, certificates, docker, ...).
Ik zou liever die Synology uit mijn setup weghalen en de services naar Proxmox VE verhuizen.

De huidige node (Minisforum MS-A2) heeft 4TB SSD storage.
Voor de 2e PVE node (aka synology vervanger) heb ik uiteraard meer ruimte nodig. Ik was dus aan iets zoals de Minisforum N5 Pro aant denken. Deze dan ook 4TB SSD storage te geven, en verder HD's voor 1) proxmox backup en 2) whatever dat niet op die 4TB SSD hoort.

Dan heb ik 2 hosts in een cluster waar ik ongeveer gelijke specs heb zodat ik de belangrijskte VM's redundant kan opzetten (active/active of active/standby naargelang wat die software supporteerd, geen PVE HA dus).

Vraag: is dat een logische setup? Kan ik tegelijk die HD's 'correct/logisch' gebruiken voor zowel proxmox backup als via de PVE host b.v. NFS en SMB te laten doen voor diezelfde HD's?

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 06:47

Quad

Doof

@witchdoc Als je Proxmox Backup server gebruikt, zet de backups dan op een SSD. PBS gaat niet lekker met opslag op HDD.

Alles went behalve een Twent.
nggyu nglyd


  • witchdoc
  • Registratie: Juni 2000
  • Laatst online: 04-01 14:20
Quad schreef op zondag 28 december 2025 @ 16:02:
@witchdoc Als je Proxmox Backup server gebruikt, zet de backups dan op een SSD. PBS gaat niet lekker met opslag op HDD.
Mmm, VM's gaan backuppen op dezelfde storage lijkt me ook niet echt logisch, toch? Zeker als ik dan ook nog eens 2 apparte nodes moet gaan backuppen dan ben ik gelijk ruim 1TB kwijt dat ik kan gebruiken.
Gans de HD's door SSD's vervangen is niet betaalbaar, dus dat is ook niet echt een oplossing.
Zou in host #2 misschien 1 extra 4TB (zonder redundantie) kunnen stoppen speciaal voor PBS, en dan die nog eens backuppen richting HD's. Maar is dat dan allemaal weer conmfigureerbaar in PBS of PVE?

  • Cyphax
  • Registratie: November 2000
  • Nu online

Cyphax

Moderator LNX
witchdoc schreef op zondag 28 december 2025 @ 16:09:
[...]


Mmm, VM's gaan backuppen op dezelfde storage lijkt me ook niet echt logisch, toch?
Dat kan in principe wel, maar een tweede kopie van je backup op je NAS. Ik heb mijn NAS op de host gemount via SMB en die als bind mount doorgegeven aan PBS, die de backups in eerste instantie op de host opslaat maar een kopie bijhoudt op de NAS via een sync job. Het is allemaal op HDD, ook de primaire backups bedenk ik me net, maar dat is nooit een issue geweest.

Saved by the buoyancy of citrus


  • Rolfie
  • Registratie: Oktober 2003
  • Nu online
Ik heb juist PBS als VM draaien op mijn Synology NAS, waar ik een 16T harddisk in heb zitten voor mijn normale opslag. In die VM heb ik 1T ISCSI lun, van mijn Synology gemaakt, waarop ik de backups bewaar.

Niet het snelste, maar werkt wel goed.

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 10:06
witchdoc schreef op zondag 28 december 2025 @ 15:38:
Ik draai momenteel een enkele Proxmox VE node met wat VMs.
Hiernaast heb ik momenteel ook nog een Synology 1821+ waar momenteel nog de meeste services op draaien (reverse proxy, DNS authorative & recursive server, email server, webserver, NFS/SMB share, certificates, docker, ...).
Ik zou liever die Synology uit mijn setup weghalen en de services naar Proxmox VE verhuizen.

De huidige node (Minisforum MS-A2) heeft 4TB SSD storage.
Voor de 2e PVE node (aka synology vervanger) heb ik uiteraard meer ruimte nodig. Ik was dus aan iets zoals de Minisforum N5 Pro aant denken. Deze dan ook 4TB SSD storage te geven, en verder HD's voor 1) proxmox backup en 2) whatever dat niet op die 4TB SSD hoort.

Dan heb ik 2 hosts in een cluster waar ik ongeveer gelijke specs heb zodat ik de belangrijskte VM's redundant kan opzetten (active/active of active/standby naargelang wat die software supporteerd, geen PVE HA dus).

Vraag: is dat een logische setup? Kan ik tegelijk die HD's 'correct/logisch' gebruiken voor zowel proxmox backup als via de PVE host b.v. NFS en SMB te laten doen voor diezelfde HD's?
Ik weet niet wat je allemaal aan VM's en andere meuk hebt draaien. :+
Maar weet dat je voor een echt PVE cluster eigenlijk 3 dezelfde nodes nodig hebt.

Mijn 0,500 Euro (ter overweging):
Mijn eerste gedachte is/was om die N5-pro in een minimale setup te gebruiken als PBS met twee spindle disks in een raid-0. Zo heb ik het nu gedaan met een Ugreen DXP-4800 NAS.

De Ugreen-NAS-functie is vervangen door een boot-sata-SSD met PBS erop. En daarnaast 2 spindle disks van elk 12-TB in raid-0 volume - aangemaakt met mdadm. Deze dient als backup voor twee PVE servers (prod en test/ontw) - beiden worden in minder dan 2 uur ge-backup-ed via een netwerk met allemaal 1-Gbps poorten. De servers hebben twee poorten in een 802.3ad bond staan.

Beide PVE servers hebben een LXC die als NAS fungeert op een lokaal raid-0 volume - ook weer met twee spindle disks.

Alle LXC's (ik gebruik geen VM's) draaien lokaal via een 4 TB WD-RED nvme SSD.
Met een extra lokale backup via een ext-4 volume. Een backup naar dit volume duurt 2-4 uur - afhankelijk van de mutatiegraad op de NAS-LXC.

De NAS functie is gebaseerd op handmatig ingestelde Samba setup binnen de LXC. Met daarnaast een aantal Docker containers - waaronder Nextcloud met MariaDB en Redis.

Punt wat ik hiermee wil maken: kijk nog eens kritisch naar je huidige setup en de applicaties die je allemaal gebruikt. En overweeg om een goedkoop Ugreen NAS (of vergelijkbaar) in te zetten als PBS en eventueel een tweede als extra PVE server voor die applicaties die niet zo CPU-hungry zijn. Mijn inschatting is dat je hierdoor flexibeler bent, de beste prijs/prestatie verhouding krijgt en de minste risico's op gegevens verlies - mocht een van de servers (PVE of PBS) de eeuwige jachtvelden opgezocht hebben. oOo

makes it run like clockwork


  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 10:06
Quad schreef op zondag 28 december 2025 @ 16:02:
@witchdoc Als je Proxmox Backup server gebruikt, zet de backups dan op een SSD. PBS gaat niet lekker met opslag op HDD.
Die volg ik niet - wat gaat er dan niet lekker?

makes it run like clockwork


  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:47

zeroday

There is no alternative!

Quad schreef op zondag 28 december 2025 @ 16:02:
@witchdoc Als je Proxmox Backup server gebruikt, zet de backups dan op een SSD. PBS gaat niet lekker met opslag op HDD.
Nou .. hier althans wel .. lekker op een NUC
werkt als een tierelier.
Wat niet lekker werkte bij mij was NFS .. met SMB geen enkel issue
Probleem met NFS was het feit dat er bij het instellen tig folders aangemaakt word door PBS en dat vond indertijd bij de hele vroege eerste versie van PBS mijn hardware niet leuk.

ik heb PBS op een NUC draaien en daar zit een HDD in die de data binnen krijgt.
Daarnaast heb ik nog en sync remote erop gezet die de data naar de NAS dupliceert. dus mocht PBS eruit vliegen dan heb ik de data nog op de NAS ..

There are no secrets, only information you do not yet have


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 06:47

Quad

Doof

Mm dat zou misschien kunnen, ik gebruik standaard NFS en met PBS ging dat naar een HDD over z'n nek. Bij het aanmaken en back-uppen.

Met NFS naar een SATA SSD geen enkel issue. Ik heb wel een HDD extern aangesloten met USB, deze gebruik ik als sync, gaat wel prima.

Alles went behalve een Twent.
nggyu nglyd


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 03-01 11:31
Quad schreef op maandag 29 december 2025 @ 14:18:
Mm dat zou misschien kunnen, ik gebruik standaard NFS en met PBS ging dat naar een HDD over z'n nek. Bij het aanmaken en back-uppen.

Met NFS naar een SATA SSD geen enkel issue. Ik heb wel een HDD extern aangesloten met USB, deze gebruik ik als sync, gaat wel prima.
Ik gebruik zelf PBS met een HDD NFS share, werkt prima. Wat bedoel je over z'n nek? Dat het echt mis ging of dat de performance belabberd was?

https://dontasktoask.com/


  • ninjazx9r98
  • Registratie: Juli 2002
  • Laatst online: 08:17
Ik gebruik een PBS LXC container en die werkt prima samen met een NFS share op een NAS die OMV draait.
De share staat op een MDADM RAID 5 die bestaat uit zes HDD's.

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:47

zeroday

There is no alternative!

orvintax schreef op maandag 29 december 2025 @ 18:57:
[...]

Ik gebruik zelf PBS met een HDD NFS share, werkt prima. Wat bedoel je over z'n nek? Dat het echt mis ging of dat de performance belabberd was?
Ik spreek even voor mezelf en de ervaring bij versie 1.0 van PBS, want daarna had ik wel een goede werkende omgeving:
vooral het failen van de backups maken. Dat gebeurde om de haverklap. Onduidelijke redenen.
wellicht te maken de de UID's en GROUPID's etc.. daar bleek PBS picky ..

Uiteindelijk alles opnieuw opgebouwd, beter gelezen, beter de ervaringen opgezocht en 'juiste' instellingen ingevoerd. Nu draait het voor 99% goed. Heel af en toe failed er om welke reden dan ook een backup ..

There are no secrets, only information you do not yet have


  • Rolfie
  • Registratie: Oktober 2003
  • Nu online
zeroday schreef op dinsdag 30 december 2025 @ 09:01:
[...]

Ik spreek even voor mezelf en de ervaring bij versie 1.0 van PBS, want daarna had ik wel een goede werkende omgeving:
vooral het failen van de backups maken. Dat gebeurde om de haverklap. Onduidelijke redenen.
wellicht te maken de de UID's en GROUPID's etc.. daar bleek PBS picky ..

Uiteindelijk alles opnieuw opgebouwd, beter gelezen, beter de ervaringen opgezocht en 'juiste' instellingen ingevoerd. Nu draait het voor 99% goed. Heel af en toe failed er om welke reden dan ook een backup ..
Ik ben juist hierom eerst van NFS, daarna naar SMB overgestapt. En uiteindelijk gewoon ISCSI gebruikt op mjn Synology NASsen. ISCSI werkte eigenlijk direct en perfect zonder enige problemen.

  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 07:30

InjecTioN

¯\_(ツ)_/¯

Rolfie schreef op zondag 28 december 2025 @ 17:11:
Ik heb juist PBS als VM draaien op mijn Synology NAS, waar ik een 16T harddisk in heb zitten voor mijn normale opslag. In die VM heb ik 1T ISCSI lun, van mijn Synology gemaakt, waarop ik de backups bewaar.

Niet het snelste, maar werkt wel goed.
Dit dus. Ik heb een OpenMediaVault zelfbouw NAS met 2x Seagate Exos 8TB in RAID1. Die wordt met NFS gemount aan de proxmox-backup-server LXC die op mijn proxmox cluster van 3 nodes draait.

De backup wordt dus weggeschreven naar mijn NAS met spinning rust. En performance is echt meer dan prima. Er wordt gewoon een snapshot gemaakt, wat ook echt niet de grootste hoeveelheid data hoeft te zijn. Daarbij hoeft het m.i. ook echt niet snel te gaan.

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Ik draai sinds kort Pulse monitoring, grappige tool. Maar nu ik na de update wil inloggen via pct enter krijg ik de melding
root@pve:~# pct enter 104
user config - ignore invalid privilege 'VM.Monitor'
Blijkbaar zit dit niet meer in PVE 9. Via het proxmox forum kom ik bij iets soortgelijks, waar een van de ontwikkelaars zegt;
well the parser drops it (see the warning), but it is still there in the config unless you modify it..
Dit zegt me allemaal niet zoveel. Kan ik dit gewoon negeren?

[ Voor 3% gewijzigd door Gunner op 30-12-2025 16:11 ]

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Vorkie
  • Registratie: September 2001
  • Niet online
Gunner schreef op dinsdag 30 december 2025 @ 16:11:
Ik draai sinds kort Pulse monitoring, grappige tool. Maar nu ik na de update wil inloggen via pct enter krijg ik de melding


[...]


Blijkbaar zit dit niet meer in PVE 9. Via het proxmox forum kom ik bij iets soortgelijks, waar een van de ontwikkelaars zegt;


[...]


Dit zegt me allemaal niet zoveel. Kan ik dit gewoon negeren?
Ben zelf net gemigreerd naar Proxmox vanuit VMWare, uit mijn open chat van Gemini - maak altijd cp van je config.
Hoe los je het op (zodat de melding stopt)?
Als je van die irritante melding af wilt, kun je de config even "verversen":
Handmatig via de CLI:
Open de config van de container: nano /etc/pve/lxc/104.conf.
Zoek naar de regel waar VM.Monitor in staat en verwijder dat woord (of de hele regel als het een overbodige permissie is).
Via de GUI:
Ga naar de container 104 -> Permissions. Als je daar iets ziet wat rood is of niet klopt, verwijder het en voeg het opnieuw toe met de huidige standaarden.
Kortom: Je Pulse monitoring loopt geen gevaar, het is puur een cosmetische waarschuwing van de Proxmox parser.

  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

@Vorkie Dank voor je uitzoekwerk. Zowel in de conf via de CLI als in de Permissions in de GUI staat geen verwijzing naar VM.Monitor maar als jouw AI resultaat aangeeft dat het puur cosmetisch is is dat verder prima. Het is maar een simpele pulse monitoring LXC die verder gewoon goed lijkt te draaien.

Vanuit een andere tool lijkt het alsof de ontwikkelaar dit moet doen, zie ik dat goed?

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:47

zeroday

There is no alternative!

Gunner schreef op dinsdag 30 december 2025 @ 16:11:
Ik draai sinds kort Pulse monitoring, grappige tool. Maar nu ik na de update wil inloggen via pct enter krijg ik de melding


[...]


Blijkbaar zit dit niet meer in PVE 9. Via het proxmox forum kom ik bij iets soortgelijks, waar een van de ontwikkelaars zegt;
Heb je al in github gekeken?
https://github.com/rcourtman/Pulse/issues/348

Daar wordt oa. over dit issue gesproken. Wellicht draai je met een ouder(e) versie?
[...]


Dit zegt me allemaal niet zoveel. Kan ik dit gewoon negeren?

[ Voor 1% gewijzigd door zeroday op 30-12-2025 17:08 . Reden: quote quote verkeerd gezet ]

There are no secrets, only information you do not yet have


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

zeroday schreef op dinsdag 30 december 2025 @ 17:08:
[...]

Daar wordt oa. over dit issue gesproken. Wellicht draai je met een ouder(e) versie?
Nope, eerder deze week update gedaan naar 5.x en vanmiddag weer een nieuwe update naar 5.0.6
Wel had ik hem pas recent voor het eerst gestart na mijn PVE-update maar een reboot blijft dezelfde melding geven.

Verder zien mijn monitoring-stats er prima uit.

edit: ik zie dat het eigenlijk niets met Pulse te maken heeft. Als ik een QM list doe op PVE krijg ik hem ook :P

[ Voor 17% gewijzigd door Gunner op 30-12-2025 17:14 ]

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

edit: dit is iets anders

[ Voor 89% gewijzigd door Gunner op 30-12-2025 17:17 ]

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC

Pagina: 1 ... 63 64 Laatste