• zeroday
  • Registratie: Mei 2007
  • Nu online

zeroday

There is no alternative!

Theetjuh schreef op donderdag 29 januari 2026 @ 11:21:
[...]

Van hun github: To install ProxMenux, simply run the following command in your Proxmox server terminal
Lijkt me dus gewoon op de host te draaien, zie bij helper-scripts er ook geen lxc installatie van.
Dan laat ik hem links liggen ;)

There are no secrets, only information you do not yet have


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Zo, derde node in mijn cluster toch maar dichterbij de andere nodes gezet zodat ik hem kan koppelen op het storage netwerk.
Daarnaast nog even Grafana ingericht met dashboards op Unifi, MikroTik en ProxMox voor meer inzicht (ook leuk om mee te spelen hoor!).
De SSD SMART errors kunnen oplossen door de SSD's zelf te voorzien van een nieuwe firmware. Kon zelfs online gedaan worden en inderdaad geen enkele SMART error meer gezien.

Moet wel om gaan zien naar nieuwe SSD's voor de 2TB aan local storage die node4 heeft, want die hebben een wear van rond de 95% :$ :N

Nu maar eens gaan verdiepen in het inrichten van VLAN's. Ook met het oog op security, maar vooral omdat mijn ene subnet/scope vol begon te lopen met alle devices en containers op het netwerk... Kan hard gaan met het gemak waarmee je een container of VM deployed.

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • dixet
  • Registratie: Februari 2010
  • Laatst online: 08:56
dotcom87 schreef op dinsdag 27 januari 2026 @ 20:22:
Hoe monitoren jullie de services die jullie hebben lopen op proxmox?
En ik vroeg me ook af of Proxmox zelf al iets ingebouwd heeft ivm falende disks (slechte sectoren etc)?
Via home assistant met de Proxmox VE integratie.
Dashboardje voor de leuk en alerts op de belangrijkste sensors (status van de containers, disk space etc)

Afbeeldingslocatie: https://tweakers.net/i/ERLoUyhQjBvAf67Q75kLAIJ50SU=/x800/filters:strip_exif()/f/image/uXozFcJmoUgRsUg3JQrnUWQA.png?f=fotoalbum_large

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 08:44
dixet schreef op dinsdag 3 februari 2026 @ 14:11:
[...]

Via home assistant met de Proxmox VE integratie.
Dashboardje voor de leuk en alerts op de belangrijkste sensors (status van de containers, disk space etc)

[Afbeelding]
Ik ook, alleen is het eea al weer zoveel veranderd dat ik het weer moet aanpassen/opschonen. Onderstaand is van een tijdje terug alweer.
Afbeeldingslocatie: https://tweakers.net/i/FTZBTFyW7ZPXO7evMFxz6UXrOFs=/232x232/filters:strip_icc():strip_exif()/f/image/86SSxcKnj8mvnUs0LFBBi1DX.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/fd1mD8qWcRlGOpQeRSVaXqC8Ggs=/232x232/filters:strip_icc():strip_exif()/f/image/PtvP3UdaMubTCSa4uz5AICGD.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/ln9HZrjcmF50pdE5xyOk9hHxjsU=/232x232/filters:strip_icc():strip_exif()/f/image/DA7XwASfbaIivPmRinX7xV1p.jpg?f=fotoalbum_tile
Afbeeldingslocatie: https://tweakers.net/i/MAs_Cgkz8lKTIK72dTNH_XU207Q=/232x232/filters:strip_icc():strip_exif()/f/image/4bPSS6Z9ZB3nN3k9kXEqVb2K.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/8QbuARUH6apqXN_U5sMUeolNLKQ=/232x232/filters:strip_icc():strip_exif()/f/image/ornlU7u8dfMco5JssIljPOEe.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/7H4p5YOeenb5ZDHYbegpFHsUJBk=/232x232/filters:strip_icc():strip_exif()/f/image/5cVQaSeQz76xFLsQoC2o1zhO.jpg?f=fotoalbum_tile

Alles went behalve een Twent.
nggyu nglyd


  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 23:24
Mocht je issues zoals ik hebben gehad na de huidige updates dat je LXC’s niet meer starten met mount points, dan kun je de update van pve-container terug draaien.
code:
1
apt install pve-container=6.0.18

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 23:24
It is registered as a bug here: https://bugzilla.proxmox.com/show_bug.cgi?id=7271

  • lolgast
  • Registratie: November 2006
  • Laatst online: 08:12
Ik heb ook heel veel dingen in monitoring dashboards gehad, maar onder aan de streep interesseert het me echt geen biet hoe die grafiekjes eruit zien. Ik krijg een bericht als een container > 3 minuten offline is en een mail als de backup is mislukt. Geen nieuws is goed nieuws :)

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 06:41
lolgast schreef op dinsdag 3 februari 2026 @ 18:17:
Ik heb ook heel veel dingen in monitoring dashboards gehad, maar onder aan de streep interesseert het me echt geen biet hoe die grafiekjes eruit zien. Ik krijg een bericht als een container > 3 minuten offline is en een mail als de backup is mislukt. Geen nieuws is goed nieuws :)
Tenzij de monitoring stuk is ;) Dan is geen nieuws slecht nieuws.
Zo bleek ik op een gegeven moment op een defecte HDD te draaien. RAIDZ1 met 3 disks waarvan één niet opstarte. Noch smartctl noch ZFS/zed hadden hier een melding voor gegeven :X

  • Rozz
  • Registratie: April 2000
  • Laatst online: 16-02 12:44

Rozz

I'm an Apogian!!

Quad schreef op dinsdag 3 februari 2026 @ 15:51:
[...]
Ik ook, alleen is het eea al weer zoveel veranderd dat ik het weer moet aanpassen/opschonen. Onderstaand is van een tijdje terug alweer.
Wat gebruik jij (in HA) om die cluster weer te geven, waar je de updates ziet? ziet er netjes uit.

[ Voor 1% gewijzigd door Rozz op 03-02-2026 19:18 . Reden: typo ]


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 08:44
Rozz schreef op dinsdag 3 februari 2026 @ 19:16:
[...]


Wat gebruik jij (in HA) om die cluster weer te geven, waar je de updates ziet? ziet er netjes uit.
Mushroom template card.
YAML:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
type: custom:mushroom-template-card
primary: |
  {% if is_state('binary_sensor.node_pve_updates_packages', 'on') %}
     PVE - 🛠️ {{ states('sensor.node_pve_total_updates') }} updates available
  {% else %}
    PVE
  {% endif %}
icon: phu:proxmox
badge_icon: |
  {% if is_state('binary_sensor.node_pve_status', 'on') %}
    mdi:play
  {% else %}
    mdi:stop
  {% endif %}
badge_color: |
  {% if is_state('binary_sensor.node_pve_status', 'on') %}
    green
  {% else %}
    stopped
  {% endif %}
tap_action:
  action: url
  url_path: https://ipvanpve:8006
color: orange
features_position: bottom
grid_options:
  columns: 12
  rows: 1

Alles went behalve een Twent.
nggyu nglyd


  • Rozz
  • Registratie: April 2000
  • Laatst online: 16-02 12:44

Rozz

I'm an Apogian!!

Top!!
Ik ga er mee stoeien 👍

  • dotcom87
  • Registratie: Januari 2011
  • Nu online
Quad schreef op dinsdag 3 februari 2026 @ 15:51:
[...]

Ik ook, alleen is het eea al weer zoveel veranderd dat ik het weer moet aanpassen/opschonen. Onderstaand is van een tijdje terug alweer.
[Afbeelding][Afbeelding][Afbeelding]
[Afbeelding][Afbeelding][Afbeelding]
Ik ben ook erg benieuwd naar hoe je die available updates sensor hebt gemaakt.

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 23:24
dotcom87 schreef op woensdag 4 februari 2026 @ 06:26:
[...]


Ik ben ook erg benieuwd naar hoe je die available updates sensor hebt gemaakt.
Wordt gewoon met de HACS integratie aangevuld
Afbeeldingslocatie: https://tweakers.net/i/BBKaQJssDVHo6ErjXpVfPs11YA0=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/GfwAtfaVNkel9tQk7oZyAwsT.png?f=user_large

  • Koepert
  • Registratie: Augustus 2013
  • Nu online
dotcom87 schreef op woensdag 28 januari 2026 @ 09:02:
[...]

Pulse had ik inderdaad ook al eens zien passeren. Patchmon is ook een hele nuttige! Thanks!
Pulse is heel fancy maar toch vond ik de AI-nag voor een subscription te irritant worden. Ik zit nu met zowel Beszel als Dockhand te spelen. Uptime Kuma draait al tijden maar die doet natuurlijk niet zoveel met docker zelf. Daar heb ik Dockge voor ingezet, maar die monitort weer niet, dus die ga ik denk ik uitfaseren voor dockhand want die doet beide. Beszel is qua monitoring ook wel erg fijn moet ik zeggen. Kan zowel Host als VMs en Containers.. maar weer geen deployment..

En hoe nuttig is monitoring van de host als die op de host draait :P

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 06:41
Koepert schreef op woensdag 4 februari 2026 @ 09:20:
[...]


Pulse is heel fancy maar toch vond ik de AI-nag voor een subscription te irritant worden. Ik zit nu met zowel Beszel als Dockhand te spelen. Uptime Kuma draait al tijden maar die doet natuurlijk niet zoveel met docker zelf. Daar heb ik Dockge voor ingezet, maar die monitort weer niet, dus die ga ik denk ik uitfaseren voor dockhand want die doet beide. Beszel is qua monitoring ook wel erg fijn moet ik zeggen. Kan zowel Host als VMs en Containers.. maar weer geen deployment..

En hoe nuttig is monitoring van de host als die op de host draait :P
Daarom draai ik Gatus op mijn router. Als de router het niet doet merk ik dat normaliter wel :+

  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Koepert schreef op woensdag 4 februari 2026 @ 09:20:
[...]


Pulse is heel fancy maar toch vond ik de AI-nag voor een subscription te irritant worden.
Oh jij ook al. :X
Echt zo nutteloos die melding, doet afbreuk aan het pakket idd.

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Koepert
  • Registratie: Augustus 2013
  • Nu online
RobertMe schreef op woensdag 4 februari 2026 @ 09:57:
[...]

Daarom draai ik Gatus op mijn router. Als de router het niet doet merk ik dat normaliter wel :+
fair point.. so fancy is mn router echter niet..

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 06:41
Koepert schreef op woensdag 4 februari 2026 @ 10:35:
[...]

fair point.. so fancy is mn router echter niet..
Die van mij is ook zeer zeker niet fancy. Maar gewoon een TopTon mini PC en daarop Debian (met systemd-networkd voor het beheren van de interfaces incl aanmaken VLANs, DHCP server, DHCPv6 Prefix Delegation, ..., en nftables gewoon als firewall).

Waardoor ik ook meteen andere zaken er op kan draaien, middels Podman (/Docker containers). Wat ook wel nodig is. Heb als servertje (ook) een Intel N5105 systeem, alleen heeft die gesoldeerd RAM, "8GB is wel voldoende voor alleen Home Assistant". Klopt an zich wel, behalve dat ik alles dat op de "grote bak" (i3-9100, 32GB RAM, SSDs, 3x spinning rust) heb over gezet zodat die uit kon. Gevolg is alsnog dat die 8GB overvol zit. De TopTon zit SODIMM in met intussen 16GB. En servertje vervangen in deze tijd...

  • zeroday
  • Registratie: Mei 2007
  • Nu online

zeroday

There is no alternative!

Theetjuh schreef op dinsdag 3 februari 2026 @ 16:46:
Mocht je issues zoals ik hebben gehad na de huidige updates dat je LXC’s niet meer starten met mount points, dan kun je de update van pve-container terug draaien.
code:
1
apt install pve-container=6.0.18
oefff die moeten ze snel fixen.. Zelfs een simpel mp0 met een virtuele share via /etc/pve naar /etc/pve gaat al mis .. ik heb even snel een lxc bekeken .. die draaide welk maar de share lag eruit ..
reboot .. en wauw .. inderdaad geen herstart..

downgrade .. en hij start weer ..

There are no secrets, only information you do not yet have


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Yes! Vandaag mijn tweede JetKVM binnengekomen. Beide main ProxMox nodes nu voorzien. En ze worden beide gepowered door een laptop die dienst doet als fileserver. Redelijk powersafe dus 8)

ElCondor had laatst een van de nodes uitgezet, met het idee dat ik hem ook weer aan kon zetten dmv de JetKVM. Omdat deze in een non-powered USB socket zat op de node zelf, was de JetKVM ook uit ;( :F

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 08:44
Mooi spul hè die USB KVMetjes. Let je wel op de accu van die laptop? Constant aan de voeding vinden ze op een gegeven moment niet meer zo leuk is mijn ervaring.

Alles went behalve een Twent.
nggyu nglyd


  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 06:41
Quad schreef op woensdag 4 februari 2026 @ 19:34:
Let je wel op de accu van die laptop? Constant aan de voeding vinden ze op een gegeven moment niet meer zo leuk is mijn ervaring.
Mogelijk wel gekoppeld aan model en instellingen? Mijn Lenovo kan ik, in Linux (en Windows vast ook) instellen dat die niet volledig moet opladen. 60% en dan kapt die er mee. LED blijft ook geel branden voor "niet vol" i.p.v. wit "vol". Mag toch aannemen dat er dan ook echt geen stroom naar de accu gaat. En pas na gebruik op de accu, en ik meen ontladen tot onder de 50% (kan ook minder zijn) dat die hem oplaad tot 60%.
RobertMe schreef op woensdag 4 februari 2026 @ 19:50:
[...]

Mogelijk wel gekoppeld aan model en instellingen? Mijn Lenovo kan ik, in Linux (en Windows vast ook) instellen dat die niet volledig moet opladen. 60% en dan kapt die er mee. LED blijft ook geel branden voor "niet vol" i.p.v. wit "vol". Mag toch aannemen dat er dan ook echt geen stroom naar de accu gaat. En pas na gebruik op de accu, en ik meen ontladen tot onder de 50% (kan ook minder zijn) dat die hem oplaad tot 60%.
Zal inderdaad afhankelijk zijn van merk en model. Mijn laptops (3 jaar en 6-plus jaar) hebben een instelling voor "permanent op adapter aangesloten". Wat het precies doet weet ik niet - maar het zou helpen om de levensduur van de batterij te verlegen.

[ Voor 6% gewijzigd door Airw0lf op 04-02-2026 19:58 ]

makes it run like clockwork


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Inderdaad, ik heb deze ook als zodanig ingesteld. Het is een Lenovo. Ik zal wel eens moeten kijken of ik er een monitor op kan bouwen, op batterij wear, bedoel ik dan.

...Zo veel te doen, ik heb nog zo veel te doen...

Vandaag wat zaken voorbereid om Portainer te gaan vervangen voor Dockhand, of in ieder geval parallel te gaan draaien. Ik heb me in het begin nogal bezondigd aan het deployen van stacks rechtstreeks vanuit de Portainer GUI. Maar dan worden compose.yml, env file en volumes redelijk verstopt. Heeft me even gekost om uit te vlooien waar een en ander precies leefde.
Straks compose en env opnemen in Dockhand, volumes definiëren en dan de boel aanslingeren. Eens kijken of ik de persistentie goed heb geregeld.
Sorry voor de cross-posting. Dit hoort wellicht meer in het docker topic thuis.

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • DarkAllMan
  • Registratie: Mei 2004
  • Laatst online: 13-02 10:44
Beste ProxMoxers...
Ik zit niet niet heel lang in de materie, maar ik heb nu wel mijn 1e probleem. Ik heb Immich draaien in een LXC met een NFS (mp0: /mnt/media/Immich,mp=/mnt/Immich) mount naar mijn Synology. Vandaag heb ik de update naar 2.5.3 gedaan en nu start de LXC niet meer op.
code:
1
2
3
lxc_init: 845 Failed to run lxc.hook.pre-start for container "109"
__lxc_start: 2046 Failed to initialize container "109"
startup for container '109' failed
Na verder onderzoek kom ik uit op:
code:
1
utils - ../src/lxc/utils.c:run_buffer:560 - Script exec /usr/share/lxc/hooks/lxc-pve-prestart-hook 109 lxc pre-start produced output: failed to propagate uid and gid to mountpoint: Operation not permitted
Wie weet wat ik kan doen om dit op te lossen?


Ah, ik geloof dat ik het al heb gevonden:
https://forum.proxmox.com...-lxc-mount-points.180161/
Tijdelijk downgraden van de pve-container...
code:
1
apt install pve-container=6.0.18
Eens kijken of ik nu weer verder kom.

Update.... de update van Immich gaf nog wel een script error, maar na een reboot werkt alles weer en is hij geupdate..... de downgrade van de pve-container heeft dus geholpen.

[ Voor 21% gewijzigd door DarkAllMan op 05-02-2026 10:24 ]


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

@Koepert met Pulse v 5.1.2 lijtk die AI nag verdwenen te zijn.

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Koepert
  • Registratie: Augustus 2013
  • Nu online
Gunner schreef op donderdag 5 februari 2026 @ 11:10:
@Koepert met Pulse v 5.1.2 lijtk die AI nag verdwenen te zijn.
Ah dat is wel Nice,

Voorlopig blijf ik nog ff bij Beszel (& Dockhand) maar ik hou ze in de gaten.

  • webgangster
  • Registratie: Juli 2006
  • Laatst online: 16-02 20:15
ElCondor schreef op woensdag 4 februari 2026 @ 18:47:
Yes! Vandaag mijn tweede JetKVM binnengekomen. Beide main ProxMox nodes nu voorzien. En ze worden beide gepowered door een laptop die dienst doet als fileserver. Redelijk powersafe dus 8)

ElCondor had laatst een van de nodes uitgezet, met het idee dat ik hem ook weer aan kon zetten dmv de JetKVM. Omdat deze in een non-powered USB socket zat op de node zelf, was de JetKVM ook uit ;( :F
Zet je hem dan aan met een WOL pakketje of heb je de Power Adapter besteld voor JetKVM?

  • Djie
  • Registratie: April 2007
  • Laatst online: 14-02 09:01
Quad schreef op dinsdag 3 februari 2026 @ 15:51:
[...]

Ik ook, alleen is het eea al weer zoveel veranderd dat ik het weer moet aanpassen/opschonen. Onderstaand is van een tijdje terug alweer.
[Afbeelding][Afbeelding][Afbeelding]
[Afbeelding][Afbeelding][Afbeelding]
Geinig, hier ook eenzelfde setup in HA met Proxmox VE

Afbeeldingslocatie: https://tweakers.net/i/JPeDnGrfzI08skNt7e2Us7OjWo0=/x800/filters:strip_icc():strip_exif()/f/image/OVehgvcfWEwXMq18v9iVDvGT.jpg?f=fotoalbum_large

  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

webgangster schreef op donderdag 5 februari 2026 @ 12:47:
[...]

Zet je hem dan aan met een WOL pakketje of heb je de Power Adapter besteld voor JetKVM?
Neuh, alles van WOL voorzien. Als de switch niet up is, dan heeft het aanzetten van de node ook geen zin. Dus zit wel voldoende zo.

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 23:24
DarkAllMan schreef op donderdag 5 februari 2026 @ 10:12:
Beste ProxMoxers...
Ik zit niet niet heel lang in de materie, maar ik heb nu wel mijn 1e probleem. Ik heb Immich draaien in een LXC met een NFS (mp0: /mnt/media/Immich,mp=/mnt/Immich) mount naar mijn Synology. Vandaag heb ik de update naar 2.5.3 gedaan en nu start de LXC niet meer op.
code:
1
2
3
lxc_init: 845 Failed to run lxc.hook.pre-start for container "109"
__lxc_start: 2046 Failed to initialize container "109"
startup for container '109' failed
Na verder onderzoek kom ik uit op:
code:
1
utils - ../src/lxc/utils.c:run_buffer:560 - Script exec /usr/share/lxc/hooks/lxc-pve-prestart-hook 109 lxc pre-start produced output: failed to propagate uid and gid to mountpoint: Operation not permitted
Wie weet wat ik kan doen om dit op te lossen?


Ah, ik geloof dat ik het al heb gevonden:
https://forum.proxmox.com...-lxc-mount-points.180161/
Tijdelijk downgraden van de pve-container...
code:
1
apt install pve-container=6.0.18
Eens kijken of ik nu weer verder kom.

Update.... de update van Immich gaf nog wel een script error, maar na een reboot werkt alles weer en is hij geupdate..... de downgrade van de pve-container heeft dus geholpen.
Als je 19 of zelfs 6 posts terug had gelezen, had je de oplossing direct al gehad :)

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 08:44
Djie schreef op donderdag 5 februari 2026 @ 13:28:
[...]


Geinig, hier ook eenzelfde setup in HA met Proxmox VE

[Afbeelding]
Ziet er ook netjes uit. Uiteindelijk heb je er niet heel veel aan, aan zo'n dashboard.
Belangrijkste is dat ik een notificatie krijg wanneer een LXC of VM te lang offline staat en dat HA hem voor mij kan starten (en dat werkt!).

Is Proxmox plat dan merk ik dat wel aan andere zaken.

Alles went behalve een Twent.
nggyu nglyd


  • DarkAllMan
  • Registratie: Mei 2004
  • Laatst online: 13-02 10:44
Kan ik alle andere updates wel installeren behalve PVE-Container 6.1.0?
Of zijn daar ook issues mee?

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 23:24
DarkAllMan schreef op vrijdag 6 februari 2026 @ 08:36:
Kan ik alle andere updates wel installeren behalve PVE-Container 6.1.0?
Of zijn daar ook issues mee?
Op het moment dat ik de installatie deed, ging dat prima, afgezien van die pve-container versie dus.
Maar er zijn inmiddels alweer nieuwere ... ik zou zeggen ... probeer het en laat het ons weten ;)

Ik zag alleen nog geen nieuwere versie van pve-container, dus ik had zoiets ... ik wacht nog wel ff tot die er is :)

[ Voor 12% gewijzigd door Theetjuh op 06-02-2026 09:04 ]


  • Gizz
  • Registratie: Maart 2001
  • Laatst online: 08:52

Gizz

Dunder-Mifflin, Inc.

Misschien niet 100% Proxmox-specifiek, maar ik ben benieuwd hoe jullie updates van al je pakketjes in de gaten houden en uitvoeren. Via Github jezelf mailtjes laten sturen als er er nieuwe releases zijn? Gewoon eens in de zoveel tijd bij al je LXCs langslopen in de shell openen om te updaten?

Dat laatste is eigenlijk mijn 'strategie': (meestal) eens per week even in de shell van elke LXC duiken, update typen (praktisch al mijn LXC's zijn aangemaakt via de helper scripts) en dan vanzelf zien of er iets geupdate wordt of dat ik al de laatste versie draaide. En op de host apt-get update en apt-get upgrade. Maar een erg verfijnde aanpak is dit niet, heb ik het idee :P

Ik zie nu het script PVE LXC Apps Updater op Proxmox VE Helder-Scripts staan, waarmee alle LXC's in één keer geupdate worden. Dat maakt het updaten al een klusje met veel minder stappen.

Ben benieuwd hoe anderen dit aanpakken, ook met het oog op breaking changes die soms bij updates komen kijken :)

Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX


  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 06:41
Ik heb sinds kort een deel via Podman Quadlets (Docker alternatief) lopen. De Quadlet files heb ik in Git staan die weer in Forgejo (Gitea fork, GitHub alternatief) staan. Vervolgens gaat Renovate daar 1x per dag overheen die pull requests aanmaakt voor updates.

Waarbij ik dus regelmatig (niet perse elke dag) even de pull requests langs loop. Extra voordeel is dat, waar mogelijk, Renovate ook meteen het changelog / release notes er bij zet. Hoef ik die niet op te zoeken.

En zo'n zelfde setup kun je ook met Docker (/Docker Compose) doen. Waarbij er in die hoek ook veel software te vinden is in de GitOps hoek. Dockhand komt de laatste tijd vaker voorbij, of Komodo. Beide ondersteunen Git en webhooks. Waarbij je bij het mergen van een PR een endpoint van Dockhand/Komodo/... laat aanroepen die vervolgens de nieuwste file(s) binnen haalt en deze deployed.

Software deployments en updates beheer je dan in Git waardoor je versie historie, van de config files, hebt en dus ook terug kunt bv. En Dockhand/Komodo/... zorgen na wijzigingen voor de automatische uitrol ervan. En Renovate maakt automatisch pull requests aan als er nieuwe versies zijn. (Uiteraard dan met versie tags voor de containers, als je de latest tag gebruikt werkt dat uiteraard niet).
Ik maak geen gebruik van helper scripts.

Updates doe ik wekelijks met een bash script wat via een cronjob gestart wordt. Dit geldt zowel voor proxmox zelf als de vm's en lxc's. Docker containers gebeurd ook wekelijks - maar dan via watchtower.

Breekt er iets, dan heb ik de zaterdag en zondag om dingen te fixen. Dit heb ik tot nu toe twee keer nodig gehad - een keer voor de omada controller en een keer voor pihole - beiden was het gevolg van een major upgrade (d.w.z. bij beiden van v5 naar v6).

makes it run like clockwork


  • Koepert
  • Registratie: Augustus 2013
  • Nu online
Ik doe het volledig met t handje, waardoor ik het geregeld vergeet :P Dus ben ook nog wel echt op zoek naar n goede optie.

Moet zeggen dat ik mijn homelabje ook te "basic" vond om daar echt tijd in te steken. Nu wel iets meer tijd aan gespendeerd

- Mijn 2 hosts rapporteren per Discord webhook als er updates zijn, waarna ik kies wanneer ik ze uitvoer
- Ik heb 1 HAOS VM.. HAOS update, maar de VM zelf.. geen idee eigenlijk
- En dan heb ik nog 4 LXC containers op de andere host
- 1 Alpine met Adguard om te proberen (alpine dan) die ik vandaag toevallig van 3.18 naar 3.23 heb geupdate..
- 1 Debian met Docker Nginx-Proxy Manager --> Vandaag van 12 naar 13
- 1 Debian met Docker --> Dockge, Dockhand en Uptime Kuma. Daar heb ik de fout gemaakt Dockhand uit te rollen vanuit Dockge. Maar Dockhand bevalt me beter, dus ik ben nu wat aan t kijken of ik ook op enige manier dit kan migreren, want Dockge doet toch wel "iets" ook met die compose volgens mij, als is het qua rechten, want nu staat dockge in mn /opt/stacks dir en daarin staat dockhand met binnen die container weer de data, dat gaat nog niet helemaal lekker.
- 1 Debian met Beszel die ik ook vandaag van 12 naar 13 heb geupdate EN Beszel heb geupdate. Die overigens wel met een helper script geinstalleerd.
- 1 Debian Turnkey Fileserver die voor wat intern delen in gebruik is en ik de moeite van update niet waard vond. Ik zoek nog n alternatief voor iets dat ik als remote disk kan mounten in verkenner/finder/linux file explorer om zo bestanden op te zetten die ik op een later moment op een andere pc weer kan openen. Dus geen "instant transfer" maar ook geen Nextcloud/NAS storage oplossing.

Zoals je leest, vandaag was update-dag. Ik wil hier wel wat anders mee maar loop dan toch tegen mn te beperkte kennis aan om t 'goed' te doen. Want dit was allemaal "Oh ja dit moet ook nog" terwijl ik met Dockhand nu wel veel eenvoudiger Dockge, Uptime, Nginx kan updaten. Adguard vanwege Alpine valt daar weer buiten, maar ook niet echt nodig. Alpine gekozen vanwege snelheid van reboot overigens. LXC Debian containers met Docker rebooten bij mij heeeel langzaam (tot Adguard weer up was althans) terwijl Alpine supersnel is. Ik ben er nog niet achter waarom, dus accepteer deze oplossing, maar t is wel ff wennen tov werken met een "Apt OS", niet moeilijker, anders.

Ik heb overigens dit deels in allemaal aparte LXC containers om gewoon de container te kunnen killen als ik iets anders wil. Maar met die Dockhand/Dockge container moet ik nog wel iets.

  • Jerie
  • Registratie: April 2007
  • Niet online
Gizz schreef op vrijdag 6 februari 2026 @ 15:27:
Misschien niet 100% Proxmox-specifiek, maar ik ben benieuwd hoe jullie updates van al je pakketjes in de gaten houden en uitvoeren. Via Github jezelf mailtjes laten sturen als er er nieuwe releases zijn? Gewoon eens in de zoveel tijd bij al je LXCs langslopen in de shell openen om te updaten?

Dat laatste is eigenlijk mijn 'strategie': (meestal) eens per week even in de shell van elke LXC duiken, update typen (praktisch al mijn LXC's zijn aangemaakt via de helper scripts) en dan vanzelf zien of er iets geupdate wordt of dat ik al de laatste versie draaide. En op de host apt-get update en apt-get upgrade. Maar een erg verfijnde aanpak is dit niet, heb ik het idee :P

Ik zie nu het script PVE LXC Apps Updater op Proxmox VE Helder-Scripts staan, waarmee alle LXC's in één keer geupdate worden. Dat maakt het updaten al een klusje met veel minder stappen.

Ben benieuwd hoe anderen dit aanpakken, ook met het oog op breaking changes die soms bij updates komen kijken :)
RSS feed voor CVEs (in Debian). Watchtowerr voor de containers (living on the edge), OS handmatig met topgrade (geen unattended-upgrades). Uiteindelijk wil ik graag Watchtowerr deels met Diun vervangen, en deels unattended-upgrades uitrollen. Maar het blijft altijd een SPOF risico.

Op FreeBSD (OPNsense) zegt topgrade om de een of andere reden welke CVEs in welke ports zitten. Is iets FreeBSD specifieks, en dat doen ze goed!

Uptime-kuma voor monitoring. Heb ook LibreNMS, beetje overkill.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Met wat werk is het me nu gelukt om Dockhand aan de praat te krijgen op mijn omgeving, geen problemen daar, maar wat me opvalt, ik heb twee dockers omgevingen draaien op andere VM's. De een op Ubuntu en de ander op Alpine, in een LCX container op ProxMox. Ik heb daar een Hawser agent deployed om ook deze instances te kunnen monitoren.
Nu komen de CPU en Mem stats van de Ubuntu docker environment netjes door maar de stats vanaf de Alpine omgeving zijn allemaal 0. Heeft iemand dit meegemaakt? Ik heb wat zitten zoeken, maar ook op deGithub kan ik hieromtrent geen echte issues vinden. Heeft dit te maken met het feit dat het hier om een container gaat of omdat het een Alpine linux installatie is? :?

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • Iconlast
  • Registratie: Februari 2010
  • Laatst online: 14-02 17:07
ElCondor schreef op vrijdag 6 februari 2026 @ 18:40:
Met wat werk is het me nu gelukt om Dockhand aan de praat te krijgen op mijn omgeving, geen problemen daar, maar wat me opvalt, ik heb twee dockers omgevingen draaien op andere VM's. De een op Ubuntu en de ander op Alpine, in een LCX container op ProxMox. Ik heb daar een Hawser agent deployed om ook deze instances te kunnen monitoren.
Nu komen de CPU en Mem stats van de Ubuntu docker environment netjes door maar de stats vanaf de Alpine omgeving zijn allemaal 0. Heeft iemand dit meegemaakt? Ik heb wat zitten zoeken, maar ook op deGithub kan ik hieromtrent geen echte issues vinden. Heeft dit te maken met het feit dat het hier om een container gaat of omdat het een Alpine linux installatie is? :?
Alpine is beperkt, of misschien dat er een sensor mist.. Of niet geconfigureerd is.

  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Hmmm, ok, maar hoe activeer ik die dan? O-)

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 06:37
Even een vraagje voor degene die een proxmox cluster hebben. Ik heb een 3 node proxmox cluster op 2,5gbe netwerk. Deze wil ik upgraden naar een 10gbe netwerk. Ben alleen nog op zoek naar een managed 8 poort sfp+ switch. Heb ook al op aliexpress gekeken maar heb zo mn vraagtekens bij de stabiliteit van de switches die daar aangeboden worden. Hebben jullie nog suggesties?

  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 08:52

InjecTioN

¯\_(ツ)_/¯

jwvdst schreef op zaterdag 7 februari 2026 @ 10:36:
Even een vraagje voor degene die een proxmox cluster hebben. Ik heb een 3 node proxmox cluster op 2,5gbe netwerk. Deze wil ik upgraden naar een 10gbe netwerk. Ben alleen nog op zoek naar een managed 8 poort sfp+ switch. Heb ook al op aliexpress gekeken maar heb zo mn vraagtekens bij de stabiliteit van de switches die daar aangeboden worden. Hebben jullie nog suggesties?
Ik zie bij ServeTheHome regelmatig apparaten van o.a. Mikrotik of Unify langs komen. Ook verschillende varianten van wat meer enterprise merken of juist meer onbekende (ome Ali) merken. Ze hebben daar regelmatig switches ter review die mogelijk interessant zijn om eens te overwegen.

Laat t.z.t. vooral weten waar je voor gegaan bent en waarom. :)

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 06:37
InjecTioN schreef op zaterdag 7 februari 2026 @ 11:51:
[...]

Ik zie bij ServeTheHome regelmatig apparaten van o.a. Mikrotik of Unify langs komen. Ook verschillende varianten van wat meer enterprise merken of juist meer onbekende (ome Ali) merken. Ze hebben daar regelmatig switches ter review die mogelijk interessant zijn om eens te overwegen.

Laat t.z.t. vooral weten waar je voor gegaan bent en waarom. :)
Ik zal daar eens kijken.
Heb nog meerdere intel x710 sfp+ kaarten en dac kabels liggen dus zou jammer zijn als ik daar niks mee doe

  • m.eddy
  • Registratie: Juni 2007
  • Laatst online: 08:48
jwvdst schreef op zaterdag 7 februari 2026 @ 12:05:
[...]

Ik zal daar eens kijken.
Heb nog meerdere intel x710 sfp+ kaarten en dac kabels liggen dus zou jammer zijn als ik daar niks mee doe
Moet het allemaal sfp+ zijn of ook een paar sfp?
Anders is deze Mikrotik wellicht wat https://tweakers.net/pric...k-crs310-1g-5s-4s+in.html

  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 06:37
m.eddy schreef op zaterdag 7 februari 2026 @ 12:16:
[...]


Moet het allemaal sfp+ zijn of ook een paar sfp?
Anders is deze Mikrotik wellicht wat https://tweakers.net/pric...k-crs310-1g-5s-4s+in.html
Liefst allemaal sfp+
Wil de switch ook gebruiken als backbone gebruiken voor de switch in de meterkast en de switch op de bovenverdieping

  • m.eddy
  • Registratie: Juni 2007
  • Laatst online: 08:48
jwvdst schreef op zaterdag 7 februari 2026 @ 12:29:
[...]

Liefst allemaal sfp+
Wil de switch ook gebruiken als backbone gebruiken voor de switch in de meterkast en de switch op de bovenverdieping
Dan deze maar, iets duurder dus https://tweakers.net/pric...otik-crs309-1g-8s+in.html

  • Jerie
  • Registratie: April 2007
  • Niet online
jwvdst schreef op zaterdag 7 februari 2026 @ 10:36:
Even een vraagje voor degene die een proxmox cluster hebben. Ik heb een 3 node proxmox cluster op 2,5gbe netwerk. Deze wil ik upgraden naar een 10gbe netwerk. Ben alleen nog op zoek naar een managed 8 poort sfp+ switch. Heb ook al op aliexpress gekeken maar heb zo mn vraagtekens bij de stabiliteit van de switches die daar aangeboden worden. Hebben jullie nog suggesties?
Als je machine TB heeft kun je daar networking op installeren. Je kunt zelfs TCP/IP over USB doen, al moet je dan ook nadenken over data integriteit.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • Luchtenburger
  • Registratie: Januari 2002
  • Laatst online: 07:02
Ik gebruik proxmox met maar één VM voor home assistant. Ik heb dit ooit eens geïnstalleerd en niet echt weer naar gekeken, het draait altijd super stabiel.
Nu zie ik dat ik nog op versie 7.4.20 draai. Ik wil dus graag upgraden naar de laatste versie, maar eerst maar eens naar versie 8.
Hiervoor heb ik de handleiding op de proxmox website ( https://pve.proxmox.com/wiki/Upgrade_from_7_to_8 ) proberen te volgen.

Hierbij loop ik echter tegen het volgende probleem aan als ik de upgrade wil uitvoeren:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
root@pve:~# apt upgrade
Reading package lists... Done
Building dependency tree... Done
Reading state information... Done
Calculating upgrade... Done
Some packages could not be installed. This may mean that you have
requested an impossible situation or if you are using the unstable
distribution that some required packages have not yet been created
or been moved out of Incoming.
The following information may help to resolve the situation:

The following packages have unmet dependencies:
 libgnutlsxx30 : Depends: libgnutls30 (= 3.7.9-2+deb12u5) but 3.7.1-5+deb11u8 is to be installed
E: Broken packages
Ik ben dus absoluut geen proxmox of linux kenner, ik moet alles met veel googlen aanpassen en oplossen. In dit geval lukt het mij echter niet om een een oplossing te vinden voor dit probleem.

Mijn /etc/apt/sources.list ziet er zo uit:
code:
1
2
3
4
5
6
7
8
# deb http://ftp.nl.debian.org/debian bookworm main contrib

# deb http://ftp.nl.debian.org/debian bookworm-updates main contrib

# security updates
deb http://security.debian.org bookworm-security main contrib

deb http://download.proxmox.com/debian/pve bookworm pve-no-subscription
En mijn /etc/apt/sources.list.d/pve-enterprise.list ziet er zo uit:
code:
1
#deb https://enterprise.proxmox.com/debian/pve bookworm pve-enterprise
Wat moet ik doen om het probleem met de 'libgnutlsxx30' package op te lossen of waar kan ik hier meer informatie over vinden?

Nibe S2125-12, VVMS320 / Home Assistant (MinisForum U700; CONBEE II; RF-LINK)


  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 06:37
Jerie schreef op zaterdag 7 februari 2026 @ 15:21:
[...]


Als je machine TB heeft kun je daar networking op installeren. Je kunt zelfs TCP/IP over USB doen, al moet je dan ook nadenken over data integriteit.
Helaas geen TB.

Heb even op serve the home gekeken en kwam de volgende review tegen: https://www.servethehome....ombo-10gbe-switch-review/
Als ik de review zo lees dan presteert de switch in verhouding met de prijs gewoon goed. En een paar extra poorten is ook nooit verkeerd. Er is ook nog een 12x sfp+ variant van deze switch die een paar euro goedkoper is. Begin nu toch weer te twijfelen.

  • nassau
  • Registratie: December 2000
  • Laatst online: 22:28
Luchtenburger schreef op zaterdag 7 februari 2026 @ 17:02:
Ik gebruik proxmox met maar één VM voor home assistant. Ik heb dit ooit eens geïnstalleerd en niet echt weer naar gekeken, het draait altijd super stabiel.
Nu zie ik dat ik nog op versie 7.4.20 draai. Ik wil dus graag upgraden naar de laatste versie, maar eerst maar eens naar versie 8.
Hiervoor heb ik de handleiding op de proxmox website ( https://pve.proxmox.com/wiki/Upgrade_from_7_to_8 ) proberen te volgen.

Hierbij loop ik echter tegen het volgende probleem aan als ik de upgrade wil uitvoeren:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
root@pve:~# apt upgrade
Reading package lists... Done
Building dependency tree... Done
Reading state information... Done
Calculating upgrade... Done
Some packages could not be installed. This may mean that you have
requested an impossible situation or if you are using the unstable
distribution that some required packages have not yet been created
or been moved out of Incoming.
The following information may help to resolve the situation:

The following packages have unmet dependencies:
 libgnutlsxx30 : Depends: libgnutls30 (= 3.7.9-2+deb12u5) but 3.7.1-5+deb11u8 is to be installed
E: Broken packages
Ik ben dus absoluut geen proxmox of linux kenner, ik moet alles met veel googlen aanpassen en oplossen. In dit geval lukt het mij echter niet om een een oplossing te vinden voor dit probleem.

Mijn /etc/apt/sources.list ziet er zo uit:
code:
1
2
3
4
5
6
7
8
# deb http://ftp.nl.debian.org/debian bookworm main contrib

# deb http://ftp.nl.debian.org/debian bookworm-updates main contrib

# security updates
deb http://security.debian.org bookworm-security main contrib

deb http://download.proxmox.com/debian/pve bookworm pve-no-subscription
En mijn /etc/apt/sources.list.d/pve-enterprise.list ziet er zo uit:
code:
1
#deb https://enterprise.proxmox.com/debian/pve bookworm pve-enterprise
Wat moet ik doen om het probleem met de 'libgnutlsxx30' package op te lossen of waar kan ik hier meer informatie over vinden?
Zo te zien mis je de main repo. Waarom staat de eerste regel in commentaar?

Op 1 van mijn debian machines ziet het er zo uit:
code:
1
2
3
deb http://deb.debian.org/debian/ bookworm main
deb http://security.debian.org/debian-security bookworm-security main
deb http://deb.debian.org/debian/ bookworm-updates main
Dan apt update en opnieuw proberen

  • commentator
  • Registratie: Mei 2004
  • Laatst online: 07:05
Luchtenburger schreef op zaterdag 7 februari 2026 @ 17:02:
Ik gebruik proxmox met maar één VM voor home assistant. Ik heb dit ooit eens geïnstalleerd en niet echt weer naar gekeken, het draait altijd super stabiel.
Nu zie ik dat ik nog op versie 7.4.20 draai. Ik wil dus graag upgraden naar de laatste versie, maar eerst maar eens naar versie 8.
Hiervoor heb ik de handleiding op de proxmox website ( https://pve.proxmox.com/wiki/Upgrade_from_7_to_8 ) proberen te volgen.

Hierbij loop ik echter tegen het volgende probleem aan als ik de upgrade wil uitvoeren:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
root@pve:~# apt upgrade
Reading package lists... Done
Building dependency tree... Done
Reading state information... Done
Calculating upgrade... Done
Some packages could not be installed. This may mean that you have
requested an impossible situation or if you are using the unstable
distribution that some required packages have not yet been created
or been moved out of Incoming.
The following information may help to resolve the situation:

The following packages have unmet dependencies:
 libgnutlsxx30 : Depends: libgnutls30 (= 3.7.9-2+deb12u5) but 3.7.1-5+deb11u8 is to be installed
E: Broken packages
Ik ben dus absoluut geen proxmox of linux kenner, ik moet alles met veel googlen aanpassen en oplossen. In dit geval lukt het mij echter niet om een een oplossing te vinden voor dit probleem.

Mijn /etc/apt/sources.list ziet er zo uit:
code:
1
2
3
4
5
6
7
8
# deb http://ftp.nl.debian.org/debian bookworm main contrib

# deb http://ftp.nl.debian.org/debian bookworm-updates main contrib

# security updates
deb http://security.debian.org bookworm-security main contrib

deb http://download.proxmox.com/debian/pve bookworm pve-no-subscription
En mijn /etc/apt/sources.list.d/pve-enterprise.list ziet er zo uit:
code:
1
#deb https://enterprise.proxmox.com/debian/pve bookworm pve-enterprise
Wat moet ik doen om het probleem met de 'libgnutlsxx30' package op te lossen of waar kan ik hier meer informatie over vinden?
waarom maak je niet even een backup van die ene vm op een externe harde schijf en in stalleer je de boel niet gewoon even opnieuw zodat alles weer fris en fruitig en bij de tijd is? Scheelt een hoop uitzoekwerk en mogelijk ook nog extra frustraties van de upgrade die daarna ook weer moet

  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 08:52

InjecTioN

¯\_(ツ)_/¯

jwvdst schreef op zaterdag 7 februari 2026 @ 17:26:
[...]

Helaas geen TB.

Heb even op serve the home gekeken en kwam de volgende review tegen: https://www.servethehome....ombo-10gbe-switch-review/
Als ik de review zo lees dan presteert de switch in verhouding met de prijs gewoon goed. En een paar extra poorten is ook nooit verkeerd. Er is ook nog een 12x sfp+ variant van deze switch die een paar euro goedkoper is. Begin nu toch weer te twijfelen.
Die Sodola SL-SWTGW2C48NS heeft inderdaad wel erg nette specs voor die prijs (~€200,00 en ~€20,00 verzendkosten). Ik ben ergens ook nog aan het rondkijken wat ik als alternatief kan gaan gebruiken. Maar ik verwacht niet dat ik er al baat bij heb in mijn situatie. :)

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • Luchtenburger
  • Registratie: Januari 2002
  • Laatst online: 07:02
@nassau en @commentator dank voor jullie feedback.

Eerste regel weer actief gemaakt, daarna lukte de upgrade wel, ik zit intussen op versie 8.4.16, dank hiervoor!

Ik heb er inderdaad al over nagedacht om proxmox opnieuw te installeren, maar gezien ik niet super handig ben in deze materie durf ik het nog niet aan.
Als wij momenteel home assistant niet hebben draaien, is het een stuk lastiger de lampen aan te doen.

Hier moet ik natuurlijk iets voor gaan verzinnen, de hardware kan ook een keer defect raken.
Ik heb nog een oude laptop liggen, ik denk dat ik daar binnenkort eens mee ga oefenen.

Nibe S2125-12, VVMS320 / Home Assistant (MinisForum U700; CONBEE II; RF-LINK)


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Hmmm, aan de hand van deze link geprobeerd om onder andere sysstat te installeren op de LXC container, maar dit lijkt niet helemaal te gaan zoals het hoort. Het starten van de sysstat service geeft de foutmelding 'service sysstat does not exit'. Wut? De package zelf is wel netjes geïnstalleerd. How now?

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 08:18
Gizz schreef op vrijdag 6 februari 2026 @ 15:27:
Misschien niet 100% Proxmox-specifiek, maar ik ben benieuwd hoe jullie updates van al je pakketjes in de gaten houden en uitvoeren.
Je kunt apticron-systemd installeren, dan krijg je een mailtje als er updates zijn en hoef je niet steeds zelf te kijken. unattended-upgrades installeert standaard automatisch alle security updates.

Leaping Lab Rats!


  • Jerie
  • Registratie: April 2007
  • Niet online
jwvdst schreef op zaterdag 7 februari 2026 @ 17:26:
[...]

Helaas geen TB.

Heb even op serve the home gekeken en kwam de volgende review tegen: https://www.servethehome....ombo-10gbe-switch-review/
Als ik de review zo lees dan presteert de switch in verhouding met de prijs gewoon goed. En een paar extra poorten is ook nooit verkeerd. Er is ook nog een 12x sfp+ variant van deze switch die een paar euro goedkoper is. Begin nu toch weer te twijfelen.
STH levert goede tests qua features en prijs/features. Ik zie dat ze ook W usage rapporteren. 13W idle is voor dit soort switches gangbaar maar er gaan zuinigere RTL-based switches komen. In het zuinige server deel 3 topic hebben we hier discussie over gehad. Let wel op dat sommigen daar een hyperfocus hebben op W usage; dus verwacht de vraag 'is 10 gbit echt nodig?'

Let ook op deze opmerking:
In terms of noise, this was not a silent switch with the fan.
Je kunt waarschijnlijk de fan vervangen met een Noctua. Dat heb ik ook met twee switches gedaan. Nadeel is er ook: ze worden dan warmer. Dit spul maakt herrie omdat het koel in de serverruimte moet blijven. Geluid doet er dan niet toe, temperatuur wel. Ben je dus van plan het is de huiskamer te zetten, dan zou ik de fan vervangen met een Noctua.

Verder lijkt dit een prima deal, maar het is wel Sino-ware dus verwacht geen software updates. Voor een managed switch is dat wel belangrijk.

En daarom zou ik voor een Microtik gaan. OS is op FreeBSD gebaseerd en regelmatige software updates. OS is proprietary, maar in de praktijk is dat andere Sino-spul dat ook. Dat, en/of even wachten op de zuinigere RTL chips. De single port met RJ45 zitten rond 1W op 10 gbit en zijn al verkrijgbaar. SFP+ variant heb ik slechts 1x gezien, switches (nog) niet maar het komt er aan. En de prijs van switches lijkt mij niet aangetast door AI. Heeft immers niets met RAM, GPU, of storage te maken. (Famous last words? :+)

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • m.eddy
  • Registratie: Juni 2007
  • Laatst online: 08:48
Hier ook voorkeur Mikrotik:
- fanless, wel flink heatsink
- kan met POE gevoed worden
- non-china als dat een ding voor je is
- idd firmware updates (voor mijn oude css326-24g-2s komt er ieder jaar nog wel een firmware update uit)

  • Theone098
  • Registratie: Februari 2015
  • Laatst online: 21:12
Hier ook een Mikrotik gebruiker. Als glas geen optie is kun je overwegen om een Noctua fan op de sfp+ module(s) te installeren.

Ik heb dat in combinatie met een USB naar 4-pins fan speed regelaar gedaan en dat werkt heel fijn. Lage snelheid is al voldoende om de sfp+ RJ45 10Gb module koel genoeg te houden. Op joetjoep is voldoende materiaal te vinden.

Fan:
NF-A4x10 PWM fan

Over Mikrotik: flinke leercurve maar grote community en goede documentatie. Spul blijft maar gaan en ook discontinued spullen krijgen nog steeds firmware updates. Het is alleen niet meer te koop.

[ Voor 20% gewijzigd door Theone098 op 07-02-2026 19:46 ]


  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 06:37
Jerie schreef op zaterdag 7 februari 2026 @ 18:51:
[...]


STH levert goede tests qua features en prijs/features. Ik zie dat ze ook W usage rapporteren. 13W idle is voor dit soort switches gangbaar maar er gaan zuinigere RTL-based switches komen. In het zuinige server deel 3 topic hebben we hier discussie over gehad. Let wel op dat sommigen daar een hyperfocus hebben op W usage; dus verwacht de vraag 'is 10 gbit echt nodig?'

Let ook op deze opmerking:


[...]


Je kunt waarschijnlijk de fan vervangen met een Noctua. Dat heb ik ook met twee switches gedaan. Nadeel is er ook: ze worden dan warmer. Dit spul maakt herrie omdat het koel in de serverruimte moet blijven. Geluid doet er dan niet toe, temperatuur wel. Ben je dus van plan het is de huiskamer te zetten, dan zou ik de fan vervangen met een Noctua.

Verder lijkt dit een prima deal, maar het is wel Sino-ware dus verwacht geen software updates. Voor een managed switch is dat wel belangrijk.

En daarom zou ik voor een Microtik gaan. OS is op FreeBSD gebaseerd en regelmatige software updates. OS is proprietary, maar in de praktijk is dat andere Sino-spul dat ook. Dat, en/of even wachten op de zuinigere RTL chips. De single port met RJ45 zitten rond 1W op 10 gbit en zijn al verkrijgbaar. SFP+ variant heb ik slechts 1x gezien, switches (nog) niet maar het komt er aan. En de prijs van switches lijkt mij niet aangetast door AI. Heeft immers niets met RAM, GPU, of storage te maken. (Famous last words? :+)
geluid maakt mij niet uit. De bedoeling is dat mn cluster samen met het accu pakket in mn tuinhuis die ik vant voorjaar ga bouwen komt te staan. Wil daar dan ook een 19 inch server rack maken. Laatste paar watt stroombesparing geef ik niet om. En vraag me vaak af of de duurdere componenten/onderdelen wel opwegen tegen de stroombesparing
Theone098 schreef op zaterdag 7 februari 2026 @ 19:41:
Hier ook een Mikrotik gebruiker. Als glas geen optie is kun je overwegen om een Noctua fan op de sfp+ module(s) te installeren.
Bedoeling is om met DAC kabels, glas en 1 of 2 ethernet kabels (1gbe) te gaan werken dus verwacht dat de interne fan het dan wel af kan

[ Voor 9% gewijzigd door jwvdst op 07-02-2026 20:07 ]


  • Jerie
  • Registratie: April 2007
  • Niet online
jwvdst schreef op zaterdag 7 februari 2026 @ 19:54:
[...]
geluid maakt mij niet uit. De bedoeling is dat mn cluster samen met het accu pakket in mn tuinhuis die ik vant voorjaar ga bouwen komt te staan. Wil daar dan ook een 19 inch server rack maken. Laatste paar watt stroombesparing geef ik niet om. En vraag me vaak af of de duurdere componenten/onderdelen wel opwegen tegen de stroombesparing

[...]

Bedoeling is om met DAC kabels, glas en 1 of 2 ethernet kabels (1gbe) te gaan werken dus verwacht dat de interne fan het dan wel af kan
Oh dan zou ik voor een huidige Microtik gaan. DAC kabels zijn wel heel nice voor W beperking.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 06:37
Jerie schreef op zaterdag 7 februari 2026 @ 21:25:
[...]


Oh dan zou ik voor een huidige Microtik gaan. DAC kabels zijn wel heel nice voor W beperking.
klopt waarom ook niet als ik de dac kabels al heb en de switch bij de servers komt te staan?
mn 3 servers wil ik elk middels 2 DAC kabels aan de switch hangen. daarnaast 2x glasvezel voor naar de switch in de meterkast en voor de switch op de bovenverdieping. Oja een AP en de omvormer van de accupakket komen er ook nog bij op dus dan zit ik al op 10 poorten dus dan heb ik aan 8 poorten niet eens genoeg meer

[ Voor 7% gewijzigd door jwvdst op 07-02-2026 22:17 ]


  • Liegebeest
  • Registratie: Februari 2002
  • Nu online
Liegebeest schreef op woensdag 28 januari 2026 @ 06:57:
[...]
En alsof het profetisch was: ik heb meerdere dagen gemist dat het vernieuwen van m’n certificaten mislukte, tot m’n mail client riep “hey dit klopt niet”.
En nog bleef ik de profetie negeren en verbetering uitstellen! ... Tot gisteravond, toen bleek dat m'n één van m'n Proxmox nodes (wederom met de email server) al 24 uur geen netwerk meer had omdat de e1000 genekt was door moeilijk verkeer.

Dus gisteren als de wiedeweerga Uptime Kuma in een Docker Compose deployment op m'n Synology er bij gezet. En dat werkt netjes! Opzetten en instellen was oprecht een koud kunstje. Nu is m'n Synology de QDev voor Proxmox en de monitoring+alerting voor de diensten die niet op de NAS zelf draaien. Dat wordt een tweede UK instance in Proxmox, om juist de Syno in de gaten te houden.

En ik ga eens kijken hoe UK is gebouwd; ik zie dat ze de Teltonika SMS gateway nog niet ondersteunen, dus daar ligt een mooie kans!

EDIT: Wauw, die lui hebben super-goede instructies voor contributions, incl. hele specifieke instructies als je een notification provider wilt toevoegen.

[ Voor 9% gewijzigd door Liegebeest op 09-02-2026 07:05 ]

Liege, liege, liegebeest!


  • Jerie
  • Registratie: April 2007
  • Niet online
jwvdst schreef op zaterdag 7 februari 2026 @ 22:14:
[...]
klopt waarom ook niet als ik de dac kabels al heb en de switch bij de servers komt te staan?
mn 3 servers wil ik elk middels 2 DAC kabels aan de switch hangen. daarnaast 2x glasvezel voor naar de switch in de meterkast en voor de switch op de bovenverdieping. Oja een AP en de omvormer van de accupakket komen er ook nog bij op dus dan zit ik al op 10 poorten dus dan heb ik aan 8 poorten niet eens genoeg meer
DAC kabels kosten nauwelijks iets qua aanschaf en elektriciteit. Dat maakt ze geschikter dan SFP+ cages. Als je wel SFP+ cages zou gebruiken, dan is in geval van 10 gbit SFP+ glasvezel (zoals OM3 duplex) goedkoper en zuiniger. Wat ik niet snap is waarom heb je twee DAC kabels per server nodig? Wil je gaan pair bonden?

Wat men (ik zeg niet specifiek dat jij dit moet doen) ook kan doen is zeggen: zo'n Chinese switch vind ik prima in mijn LAN, als deze maar airgapped is van het internet. Dan zou je inderdaad weg kunnen komen met een 10 gbit switch, en dan nog een fatsoenlijke 1 gbit switch ernaast. Die 1 gbit switches kunnen heel goedkoop en zuinig zijn, ook van fatsoenlijke merken die goede ondersteuning leveren.

Dan zou je aan minder dan 8 ports genoeg hebben. Deze heeft 8 SFP+:

https://www.sodola-networ...-multi-gig-network-switch

Maar als die drie servers naast elkaar staan dan zou je ook nog kunnen zeggen ik doe DAC kabels tussen de switches. Dan doe 1-2, 2-3 als je het OK vind om via server 2 te praten van 1 naar 3 of 1-2, 1-3, 2-3. In dat laatste geval heb je dual SFP+ NICs nodig, maar dat zijn de meeste x710. Ook heb je dan nog geen 10 gbit met enige switch, maar ik weet niet of dat nodig is.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 06:37
Jerie schreef op maandag 9 februari 2026 @ 19:27:
[...]


DAC kabels kosten nauwelijks iets qua aanschaf en elektriciteit. Dat maakt ze geschikter dan SFP+ cages. Als je wel SFP+ cages zou gebruiken, dan is in geval van 10 gbit SFP+ glasvezel (zoals OM3 duplex) goedkoper en zuiniger. Wat ik niet snap is waarom heb je twee DAC kabels per server nodig? Wil je gaan pair bonden?

Wat men (ik zeg niet specifiek dat jij dit moet doen) ook kan doen is zeggen: zo'n Chinese switch vind ik prima in mijn LAN, als deze maar airgapped is van het internet. Dan zou je inderdaad weg kunnen komen met een 10 gbit switch, en dan nog een fatsoenlijke 1 gbit switch ernaast. Die 1 gbit switches kunnen heel goedkoop en zuinig zijn, ook van fatsoenlijke merken die goede ondersteuning leveren.

Dan zou je aan minder dan 8 ports genoeg hebben. Deze heeft 8 SFP+:

https://www.sodola-networ...-multi-gig-network-switch

Maar als die drie servers naast elkaar staan dan zou je ook nog kunnen zeggen ik doe DAC kabels tussen de switches. Dan doe 1-2, 2-3 als je het OK vind om via server 2 te praten van 1 naar 3 of 1-2, 1-3, 2-3. In dat laatste geval heb je dual SFP+ NICs nodig, maar dat zijn de meeste x710. Ook heb je dan nog geen 10 gbit met enige switch, maar ik weet niet of dat nodig is.
wil het cluster gescheiden houden van het thuisnetwerk. Daarom 2x dac per server naar de switch. De iscsi nfs en de backup op de proxmox servers lopen bij mij over het clusternetwerk zodat mn internet (wife approval factor) geen hinder ondervind als er backups gedraaid worden of als er (zware) vm's gestart worden. Heb mn router namelijk virtueel onder proxmox. Het thuisnetwerk en de clusternetwerk komen dan wel allebij in een eigen vlan op dezelfde switch. Daarnaast wil ik vanuit het tuinhuis waar de servers uiteindelijk komen te staan weer met glasvezel naar de switch in de meterkast en de switch op de hobbykamer/bovenverdieping

kwam deze https://nl.aliexpress.com/item/1005008169603056.html nog tegen voor 85 euro en ik weet bijna wel zeker dat deze dezelde hardwarecomponenten heeft als de sodola van jou alleen een serial console extra

  • Jerie
  • Registratie: April 2007
  • Niet online
jwvdst schreef op maandag 9 februari 2026 @ 21:43:
[...]

wil het cluster gescheiden houden van het thuisnetwerk. Daarom 2x dac per server naar de switch. De iscsi nfs en de backup op de proxmox servers lopen bij mij over het clusternetwerk zodat mn internet (wife approval factor) geen hinder ondervind als er backups gedraaid worden of als er (zware) vm's gestart worden. Heb mn router namelijk virtueel onder proxmox. Het thuisnetwerk en de clusternetwerk komen dan wel allebij in een eigen vlan op dezelfde switch. Daarnaast wil ik vanuit het tuinhuis waar de servers uiteindelijk komen te staan weer met glasvezel naar de switch in de meterkast en de switch op de hobbykamer/bovenverdieping

kwam deze https://nl.aliexpress.com/item/1005008169603056.html nog tegen voor 85 euro en ik weet bijna wel zeker dat deze dezelde hardwarecomponenten heeft als de sodola van jou alleen een serial console extra
Kun je ook regelen met QoS op een managed maar fair game. Ook in Proxmox.

Chinezen doen vaak met meerdere merken die uit dezelfde fabriek komen. Zit nu zelf te kijken voor refurbished LTO-6 SAS die zijn relatief goedkoop maar gek genoeg lijken er meerdere eBay accounts dezelfde verkoper te zijn.

Btw die vage merknamen zoals Sodola of random letters doen ze omdat ze een unieke naam nodig hebben :+

[ Voor 3% gewijzigd door Jerie op 09-02-2026 23:00 ]

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • zeroday
  • Registratie: Mei 2007
  • Nu online

zeroday

There is no alternative!

Theetjuh schreef op dinsdag 3 februari 2026 @ 16:46:
Mocht je issues zoals ik hebben gehad na de huidige updates dat je LXC’s niet meer starten met mount points, dan kun je de update van pve-container terug draaien.
code:
1
apt install pve-container=6.0.18
fix is nu beschikbaar

pve-container (6.1.1) trixie; urgency=medium

* fix #7271: exclude non-volume mount points, like e.g. bind mounts, from
attribute preservation.

There are no secrets, only information you do not yet have


  • Rubman
  • Registratie: April 2002
  • Nu online

Rubman

Retarded or just overjoyed!

Ik stap net in de wereld van Proxmox met een NUC 7i5bnk komend van een nog prima draaiende Synology DS718+, die ik als pure data storage wil blijven gebruiken maar misschien in later stadium wil vervangen door een DAS naast de NUC ipv de Synology.
Nu ben ik bezig met migreren van alles wat op de Synology draait naar Proxmox

Home Assistant draait al mooi in een VM op de nuc en lekker snel ivm SSD ipv HDD op de synology met beperkte VM opties.

Waar ik nu mee zit is ik wil de dockers ook gaan overzetten, ansich geen issue gewoon wat meer zaken ergens anders naartoe laten verwijzen zodat de configuratie op de NUC zit maar de data op de NAS met NFS. Echter zat ik te twijfelen over Jellyfin, die draait nu (met hardware transcoding) in een docker op de NAS, maar kan ik nu ook in een LXC draaien rechtsreeks op proxmox. Zitten hier nog voor of nadelen aan?

Als het ergens pijn doet, wil ik erop drukken


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 08:44
@Rubman Nee geen nadelen. Via een LXC kan je de iGPU forwarden voor HW transcode. Ook kan je de Jellyfin LXC backuppen (zonder de mount).

Wat misschien wel handig is, is om een USB-Ethernet adapter op je NUC te plaatsen en deze rechtstreeks te verbinden met je NAS. Op die manier kan je data rechtstreeks vanaf NUC naar NAS laten gaan zonder dat er andere netwerkcomponenten tussen zitten. Of gebruik 2x 2.5Gbps adapters voor hogere datadoorvoersnelheid. (NAS kan tot 5Gbps, NUC kan tot 10Gbps over USB)

De reden waarom; je krijgt namelijk vanaf de NAS een upstream naar de LXC en vanaf de LXC een downstream naar je client. Het is niet heel veel waarschijnlijk, maar een switch of wat er tussenzit moet dan wel 2 datastreams van ~10 tot wel 80Mbps per stuk verwerken afhankelijk van je streamingeigenschappen.

Als je PBS (Proxmox Backup Server) configureert kan je ook lekker een NFS share als backup datastore toekennen aan de NUC en backups naar je NAS trekken.

Alles went behalve een Twent.
nggyu nglyd


  • Rubman
  • Registratie: April 2002
  • Nu online

Rubman

Retarded or just overjoyed!

Quad schreef op woensdag 11 februari 2026 @ 09:02:
@Rubman Nee geen nadelen. Via een LXC kan je de iGPU forwarden voor HW transcode. Ook kan je de Jellyfin LXC backuppen (zonder de mount).

Wat misschien wel handig is, is om een USB-Ethernet adapter op je NUC te plaatsen en deze rechtstreeks te verbinden met je NAS. Op die manier kan je data rechtstreeks vanaf NUC naar NAS laten gaan zonder dat er andere netwerkcomponenten tussen zitten. Of gebruik 2x 2.5Gbps adapters voor hogere datadoorvoersnelheid. (NAS kan tot 5Gbps, NUC kan tot 10Gbps over USB)

De reden waarom; je krijgt namelijk vanaf de NAS een upstream naar de LXC en vanaf de LXC een downstream naar je client. Het is niet heel veel waarschijnlijk, maar een switch of wat er tussenzit moet dan wel 2 datastreams van ~10 tot wel 80Mbps per stuk verwerken afhankelijk van je streamingeigenschappen.

Als je PBS (Proxmox Backup Server) configureert kan je ook lekker een NFS share als backup datastore toekennen aan de NUC en backups naar je NAS trekken.
Goeie ik kan vanaf de nas 1 UTP rechtsreeks naar de NUC knallen op een USB ethernet, verder zit er 1 knappe switch tussen tot die tijd dus zou het verkeer ook aan moeten kunnen.

Ik ga Jellyfin gewoon inzetten in een LXC kijken wat het doet, wil wel de hardware transcoding blijven gebruiken zoals dat nu met de NAS ook is.

Als het ergens pijn doet, wil ik erop drukken


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 08:44
@Rubman met een PVE helper script ben je in een paar minuten aan de gang.

Alles went behalve een Twent.
nggyu nglyd


  • Sypher
  • Registratie: Oktober 2002
  • Laatst online: 23:08
Had net een vaag issue (mogelijk gerelateerd aan die pve-container updates?). Veel apps (in Docker in LXC) lagen er ineens uit, gaven allemaal een melding "database or disk full" maar er was meer dan voldoende ruimte en inodes en de SQLIte was zelf ook gewoon te openen vanuit de LXC zelf.

Mijn setup is Proxmox node => LXC containers => Docker. Elke container heeft een mount voor persistence binnen de LXC zelf.

De LXC's hebben features: keyctl=1,nesting=1 en ivm wat eerder gedoe lxc.apparmor.profile: unconfined.

Dus ja.. wat troubleshooting dan maar:
  • Reboot... Helaas, nog steeds hetzelfde probleem (al is een reboot wel even fijn ivm pending kernel updates enzo ;-))
  • pve-container 6.1.1 was gisteren geïnstalleerd volgens apt history dus terug naar 6.1.0
  • 6.1.0 lijkt hetzelfde probleem te hebben
  • terug naar 6.0.19, en het werkt weer!
  • terug naar 6.1.1...en werkt nog steeds
Snap jij em nog? 8)7

  • Luchtenburger
  • Registratie: Januari 2002
  • Laatst online: 07:02
Mijn opslag loopt momenteel vol, maar ik begrijp niet waarom.
De mini PC waar proxmox op draait heeft een 128GB SSD.
Als ik bij de PVE node kijk zie ik onder Disks:
- /dev/sda: 128.04 GB
- /dev/sda1 1.03 MB (BIOS boot)
- /dev/sda2 536.87 MB (EFI)
- /dev/sda3 127.50 GB (LVM)

Als ik dan bij Disks/LVM kijk, zie ik /dev/sda3 met 127.49 GB staan, hiervan is nog 15.84 GB beschikbaar.
Onder Disks/LVM-Thin zie ik een data disk van 73.54 GB, hiervan is 67,94 GB in gebruik.

Bij Summary van de node zie ik HD space 9.98 GiB of 28.87 GiB. Ik neem aan dat proxmox zelf op dit gedeelte draait?

Ik heb maar één VM (met Home Assistant), als ik daar bij de Summary kijk, zie ik een bootdisk van 64.00 GiB

Als ik vervolgens in Home Assistant kijk, zie ik dat ik een schijf heb van 62.3 GB, hiervan heb ik 22.1 GB in gebruik.

Het gebruik in Home Assistant is in het verleden meer geweest, maar ik heb gezorgd dat databases minder groot werden.

Na wat speurwerk op internet heb ik begrepen dat alleen data die echt bestaat, bij een LVM-Thin als "in gebruik" wordt weergegeven, niet de allocatie van de drive van de VM.
Ik zou dus eigenlijk twee VMs moeten kunnen aanmaken met elk een disk van 50 GB. Als in beide VMs 10 GB aan data wordt opgeslagen, zou de LVM-Thin disk moeten aangeven dat er 20 GB in gebruik is.
Heb ik dit goed begrepen?

Zo ja, waarom is er nu al wel 67.94 GB van mijn LVM-Thin drive in gebruik terwijl ik binnen Home Assistant slechts 22.1 GB aan data heb staan?
En zou ik er iets aan kunnen doen om het gebruik van 67.94 GB terug te dringen?

Nibe S2125-12, VVMS320 / Home Assistant (MinisForum U700; CONBEE II; RF-LINK)


  • lolgast
  • Registratie: November 2006
  • Laatst online: 08:12
@Luchtenburger
Ik vind 'ncdu' echt een fijne tool om in de terminal makkelijk te kunnen vinden waar de grootverbruikers zitten. Dus die zou ik even installeren op je proxmox host en dan even door de mappen heen lopen, zie je het snel genoeg.

Overigens is LVM-Thin inderdaad pas in gebruik als het nodig is doordat de disk dynamisch groter wordt gemaakt tot een maximaal, maar als hij eenmaal groter is gemaakt behoud hij die grootte, ook als je de schijf vervolgens zelf opruimt qua data.

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

De meest logische reden waardoor dit kan afwijken, is doordat de VM vrijgekomen ruimte niet teruggeeft. Bij de eigenschappen van de virtuele schijf in Proxmox moet 'Discard' aan staan, en de VM moet TRIM/Discard-commando's naar de virtuele schijf sturen. Met die combinatie zou de ruimte als het goed is wel weer moeten kunnen afnemen.

  • ge-flopt
  • Registratie: Februari 2001
  • Laatst online: 22:05
@Luchtenburger Ik ben fan van "df -m / -max-depth=1" en van daaruit verder kijken. Dit geeft per directory aan hoeveel diskruimte er in gebruik is. Als de diskruimte afwijkt met wat je verwacht ga je verder kijken in die directory.

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 07:28
@Luchtenburger

Bij mij zijn snapshots van de HA VM wel eens het probleem geweest. Heeft me moeite gekost om die diagnose te stellen toen.

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:45
du formatted and sorted
code:
1
2
3
alias duf='du -sk * | sort -n | while read size fname; do for unit in k M G T P E Z Y; do if [ $size -lt 1024 ]; then echo -e "${size}${unit}\t${fname}"; break; fi; size=$((size/1024)); done; done'

duf

[ Voor 5% gewijzigd door GoBieN-Be op 11-02-2026 23:10 ]


  • Cardinal
  • Registratie: Maart 2002
  • Laatst online: 01:07
@Luchtenburger de laatste keer dat mij dat overkwam had ik tig kernels over tijd verzameld.
Hoe lang draait dit al en hoevaak ruim je op?
code:
1
bash -c "$(curl -fsSL https://raw.githubusercontent.com/community-scripts/ProxmoxVE/main/tools/pve/kernel-clean.sh)"

  • Luchtenburger
  • Registratie: Januari 2002
  • Laatst online: 07:02
Hartelijk dank voor de tips over het vol lopen van mijn LVM-thin disk.
Ik ben niet super handig met het proxmox systeem, ik moet deze informatie dus even rustig analyseren om te zien hoe dit mij kan helpen.

Ik heb in het verleden ook al eens problemen gehad dat ik te veel snapshots maakte waardoor de schijf vol liep, er staan nu geen snapshots op.

De VM draait al een aantal jaren, maar ik weet niet eens zo goed hoe lang (3 jaar? 5 jaar?). Ik ruim dit nooit op. Het systeem draait super stabiel, dus ik kijk er eigenlijk nooit naar.
Onlangs kwam ik erachter dat ik nog op proxmox versie 7 draaide en had ik al problemen om dit te upgraden. Met hulp van hier is dat intussen gelukt.
Daarna ben ik eens beter naar het systeem gaan kijken en zag ik dat de schijf aardig vol zat.

Nibe S2125-12, VVMS320 / Home Assistant (MinisForum U700; CONBEE II; RF-LINK)

Luchtenburger schreef op donderdag 12 februari 2026 @ 07:21:
Hartelijk dank voor de tips over het vol lopen van mijn LVM-thin disk.
Ik ben niet super handig met het proxmox systeem, ik moet deze informatie dus even rustig analyseren om te zien hoe dit mij kan helpen.

Ik heb in het verleden ook al eens problemen gehad dat ik te veel snapshots maakte waardoor de schijf vol liep, er staan nu geen snapshots op.

De VM draait al een aantal jaren, maar ik weet niet eens zo goed hoe lang (3 jaar? 5 jaar?). Ik ruim dit nooit op. Het systeem draait super stabiel, dus ik kijk er eigenlijk nooit naar.
Onlangs kwam ik erachter dat ik nog op proxmox versie 7 draaide en had ik al problemen om dit te upgraden. Met hulp van hier is dat intussen gelukt.
Daarna ben ik eens beter naar het systeem gaan kijken en zag ik dat de schijf aardig vol zat.
In jouw geval lijkt me Thick-LVM veel handiger - je hebt dan tenminste zicht op de echte allocatie van diskruimte waardoor de kans op verrassingen aanzienlijk afneemt.

Zo heb ik het nu in ieder geval wel draaien - aangevuld met cronjobs die wekelijks een update/upgrade uitvoeren in de nacht van vrijdag op zaterdag. Zijn er zaterdagochtend geen mails binnengekomen over deze jobs en zijn resultaten, dan is het ergens gruwelijk fout gelopen en moet ik aan de bak!

makes it run like clockwork


  • Luchtenburger
  • Registratie: Januari 2002
  • Laatst online: 07:02
Thick-LVM zou voor mijn inderdaad wel geschikt zijn denk ik gezien ik maar één VM draai.

Ik heb echter de info van @dcm360 eens goed uitgezocht.
"Discard" stond inderdaad niet aan voor de harddisk van de VM, dus die heb ik aangezet.
Daarna zou de ruimte 'een keer' vrijgegeven moeten worden, maar daar heb ik het geduld niet echt voor.
Dus ik heb het volgende commando in de shell van de node uitgevoerd:
code:
1
qm guest exec VMIDHERE -- fstrim -a
(hierbij VMIDHERE uiteraard vervangen door de ID van de VM)

Na enige tijd was dit commando succesvol voltooid, op mijn VM-Thin disk wordt nu nog slechts 23.14 GB van de 73.54 GB gebruikt (31%).

Ik kan dus voorlopig weer vooruit, geen reden om de boel om te zetten naar LVM-Thick.

Allen hartelijk dank voor het meedenken _/-\o_ !

Nibe S2125-12, VVMS320 / Home Assistant (MinisForum U700; CONBEE II; RF-LINK)


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Een vraag, en wellicht is dit al voorbij gekomen, maar ik kon het niet in dit topic vinden.
Ik heb een container waar behoorlijk wat docker containers op draaien (dus docker in een lcx-ception).
Deze lxc is een unprivileged container. Om wat zaken goed in te regelen wilde ik nfs-mounts gaan gebruiken. Daarvoor moet de container echter privileged zijn. Dus, container uit, backup, restore => privileged = true, container aan. Maar dan, geen van de docker containers wil starten. Ik VERMOED, iets met rechten, maar kan er zo even niet achter komen wat precies. Wel gegoogled, maar kan niet echt een oplossing opduikelen. De docker containers komen niet eens tevoorschijn met een docker ps. En docker run <container> geeft de foutmelding dat de container niet gestart kan worden ivm rechten. De container verwijderen en opnieuw maken geeft de melding dat de container niet gestart kan worden omdat het image niet gevonden kan worden of omdat er rechten nodig zijn om het image te downloaden of het image bestaat niet. :?
Uiteindelijk een roll-back moeten doen (Whoehoe voor PBS) en dan start alles wel.

Heeft iemand een tip de goede richting in?

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • Luchtenburger
  • Registratie: Januari 2002
  • Laatst online: 07:02
In aanvulling op mijn probleem met het vol lopen van de LVM-thin pool, ik heb nu een script aangemaakt (naja... ChatGTP heeft dat grotendeels voor mij gedaan :+ ) die een email stuurt zodra de LVM-thin pool voor meer dan 75% vol zit.

Code van het script:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
#!/bin/bash

# === Instellingen ===
THRESHOLD=75                     # Drempel in procenten
VG_NAME="pve"                    # Volume group naam
POOL_NAME="data"                 # Thin pool naam
EMAIL="example@gmail.com"        # Ontvanger
HOSTNAME=$(hostname)

# === Huidig gebruik ophalen ===
USAGE=$(/usr/sbin/lvs --noheadings -o data_percent ${VG_NAME}/${POOL_NAME} 2>/dev/null | tr -d ' ')

# Controle of waarde geldig is
if [[ -z "$USAGE" ]]; then
    echo "Kon LVM-thin gebruik niet uitlezen."
    exit 1
fi

# Afronden naar integer
USAGE_INT=${USAGE%.*}

# === Vergelijken met drempel ===
if (( USAGE_INT >= THRESHOLD )); then
    SUBJECT="ALERT: LVM-thin ${VG_NAME}/${POOL_NAME} op ${HOSTNAME} is ${USAGE_INT}% vol"
    MESSAGE="Het LVM-thin volume ${VG_NAME}/${POOL_NAME} op ${HOSTNAME} is ${USAGE_INT}% gebruikt. Drempel is ${THRESHOLD}%."

    echo "$MESSAGE" | mail -s "$SUBJECT" "$EMAIL"
fi
Locatie van dit script en het commando om deze uitvoerbaar te maken:
code:
1
2
/usr/local/sbin/
chmod +x /usr/local/sbin/check_lvmthin.sh
En tenslotte met crontab zorgen dat dit script elke 10 minuten uitgevoerd wordt:
Commando voor crontab:
code:
1
crontab -e
Regel die hier toegevoegd moet worden:
code:
1
*/10 * * * * /usr/local/sbin/check_lvmthin.sh
Het moet uiteraard wel mogelijk zijn om emails vanuit proxmox te versturen, daar zijn weer andere handleidingen voor op internet te vinden ;)

Nibe S2125-12, VVMS320 / Home Assistant (MinisForum U700; CONBEE II; RF-LINK)


  • Jerie
  • Registratie: April 2007
  • Niet online
Luchtenburger schreef op donderdag 12 februari 2026 @ 07:21:

[..]

De VM draait al een aantal jaren, maar ik weet niet eens zo goed hoe lang (3 jaar? 5 jaar?). Ik ruim dit nooit op. Het systeem draait super stabiel, dus ik kijk er eigenlijk nooit naar.

[..]
Iets zegt me dat je dat bovenstaande script niet iedere 10 minuten hoeft uit te voeren. Eens per week of maand volstaat.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 08:44
Luchtenburger schreef op zaterdag 14 februari 2026 @ 10:10:
In aanvulling op mijn probleem met het vol lopen van de LVM-thin pool, ik heb nu een script aangemaakt (naja... ChatGTP heeft dat grotendeels voor mij gedaan :+ ) die een email stuurt zodra de LVM-thin pool voor meer dan 75% vol zit.

Code van het script:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
#!/bin/bash

# === Instellingen ===
THRESHOLD=75                     # Drempel in procenten
VG_NAME="pve"                    # Volume group naam
POOL_NAME="data"                 # Thin pool naam
EMAIL="example@gmail.com"        # Ontvanger
HOSTNAME=$(hostname)

# === Huidig gebruik ophalen ===
USAGE=$(/usr/sbin/lvs --noheadings -o data_percent ${VG_NAME}/${POOL_NAME} 2>/dev/null | tr -d ' ')

# Controle of waarde geldig is
if [[ -z "$USAGE" ]]; then
    echo "Kon LVM-thin gebruik niet uitlezen."
    exit 1
fi

# Afronden naar integer
USAGE_INT=${USAGE%.*}

# === Vergelijken met drempel ===
if (( USAGE_INT >= THRESHOLD )); then
    SUBJECT="ALERT: LVM-thin ${VG_NAME}/${POOL_NAME} op ${HOSTNAME} is ${USAGE_INT}% vol"
    MESSAGE="Het LVM-thin volume ${VG_NAME}/${POOL_NAME} op ${HOSTNAME} is ${USAGE_INT}% gebruikt. Drempel is ${THRESHOLD}%."

    echo "$MESSAGE" | mail -s "$SUBJECT" "$EMAIL"
fi
Locatie van dit script en het commando om deze uitvoerbaar te maken:
code:
1
2
/usr/local/sbin/
chmod +x /usr/local/sbin/check_lvmthin.sh
En tenslotte met crontab zorgen dat dit script elke 10 minuten uitgevoerd wordt:
Commando voor crontab:
code:
1
crontab -e
Regel die hier toegevoegd moet worden:
code:
1
*/10 * * * * /usr/local/sbin/check_lvmthin.sh
Het moet uiteraard wel mogelijk zijn om emails vanuit proxmox te versturen, daar zijn weer andere handleidingen voor op internet te vinden ;)
Waarom niet in Home Assistant PVE toevoegen, zodat je naast het volume, ook andere zaken kan monitoren? Krijg je geen mail, maar met Signal, HA push of Telegram wel notificaties. :)

Alles went behalve een Twent.
nggyu nglyd


  • Luchtenburger
  • Registratie: Januari 2002
  • Laatst online: 07:02
Jerie schreef op zaterdag 14 februari 2026 @ 10:34:
[...]


Iets zegt me dat je dat bovenstaande script niet iedere 10 minuten hoeft uit te voeren. Eens per week of maand volstaat.
Ik vraag mij ook inderdaad af of dit overkill is. Als ik niet thuis ben en de LVM-thin pool loopt nu vol, dan krijg ik elke 10 minuten een email, wat ik op dat moment niet uit kan zetten.... Ik weet niet of dat echt handig is.
Quad schreef op zaterdag 14 februari 2026 @ 10:46:
[...]

Waarom niet in Home Assistant PVE toevoegen, zodat je naast het volume, ook andere zaken kan monitoren? Krijg je geen mail, maar met Signal, HA push of Telegram wel notificaties. :)
Tja, dat kan wellicht ook. Dit volstaat voor mij momenteel.

Nibe S2125-12, VVMS320 / Home Assistant (MinisForum U700; CONBEE II; RF-LINK)


  • Anoniemand
  • Registratie: November 2012
  • Laatst online: 07:42
ElCondor schreef op vrijdag 13 februari 2026 @ 21:49:
Een vraag, en wellicht is dit al voorbij gekomen, maar ik kon het niet in dit topic vinden.
Ik heb een container waar behoorlijk wat docker containers op draaien (dus docker in een lcx-ception).
Deze lxc is een unprivileged container. Om wat zaken goed in te regelen wilde ik nfs-mounts gaan gebruiken. Daarvoor moet de container echter privileged zijn. Dus, container uit, backup, restore => privileged = true, container aan. Maar dan, geen van de docker containers wil starten. Ik VERMOED, iets met rechten, maar kan er zo even niet achter komen wat precies. Wel gegoogled, maar kan niet echt een oplossing opduikelen. De docker containers komen niet eens tevoorschijn met een docker ps. En docker run <container> geeft de foutmelding dat de container niet gestart kan worden ivm rechten. De container verwijderen en opnieuw maken geeft de melding dat de container niet gestart kan worden omdat het image niet gevonden kan worden of omdat er rechten nodig zijn om het image te downloaden of het image bestaat niet. :?
Uiteindelijk een roll-back moeten doen (Whoehoe voor PBS) en dan start alles wel.

Heeft iemand een tip de goede richting in?
Dat lijkt inderdaad een rechten dingetje te zijn. Het zal hier eerder al besproken zijn, ik vind deze site het wel uitgebreid toelichten. Ik heb hem even snel doorgebladerd, maar het lijkt ook prima uit te leggen hoe je je container privilaged kan houden (meer secure) en toch een mount erop kan krijgen.

  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Anoniemand schreef op zaterdag 14 februari 2026 @ 11:43:
[...]

Dat lijkt inderdaad een rechten dingetje te zijn. Het zal hier eerder al besproken zijn, ik vind deze site het wel uitgebreid toelichten. Ik heb hem even snel doorgebladerd, maar het lijkt ook prima uit te leggen hoe je je container privilaged kan houden (meer secure) en toch een mount erop kan krijgen.
Thx, ik zal eens kijken. Zal vandeweek zijn, ben ik bang :)
Even snel gescant en dit ziet er best duidelijk uit. Ook weer veel te leren, moet ik zeggen.

[ Voor 7% gewijzigd door ElCondor op 14-02-2026 15:51 ]

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

ElCondor schreef op zaterdag 14 februari 2026 @ 15:44:
[...]

Thx, ik zal eens kijken. Zal vandeweek zijn, ben ik bang :)
Even snel gescant en dit ziet er best duidelijk uit. Ook weer veel te leren, moet ik zeggen.
Nou, vanavond hier eens mee aan de slag gegaan. Een beetje vreemd alleen, want de procedure die in de link wordt beschreven gaat er juist van uit dat de container unprivileged moet blijven en dan user ID's doormapt naar resources op de host.
Dat is niet helemaal mijn wens.
Wat ik wil is juist de container privileged maken om gebruik te kunnen maken van nfs-mounting IN de container: 'sudo mount -a' geeft nu een 'mount: permission denied (are you root?)' foutmelding. Dit komt omdat de container unprivileged is.
Als ik echter de container omzet naar privileged dan werkt docker opeens niet meer. Vermoedelijk omdat de docker root folder niet de juiste ownership meer heeft.
Ik heb na privileged restore geprobeerd om de docker root folder via de HOST prompt te chownen naar id 100000:100000 (root in de container) maar dan nog wil docker geen enkele container starten. En dat terwijl de user ID's vóór het omzetten naar privileged voor de docker root folder wel degelijk user:group 100000:100000 hebben.
Dus wat doe ik dan verkeerd?

Ok, andere manier wellicht. Ik heb ook gezien dat je een NFS share op de host kunt mounten en die dan als mountpoint aan de container door kunt mappen. Dat dient echter ook niet mijn use-case, want ik wil de container wel kunnen laten migreren naar een andere host. Dan zou ik de nfs-mount op al mijn hosts los aan moeten maken? Of is hier een andere manier voor om dit voor elkaar te krijgen?

Anders zit er denk ik niets anders op, om dan maar de docker host container te verwijderen en van scratch te beginnen met een VM. Dan ben ik vrij om te doen en te laten wat ik wil, Echter draait er nu authentik en paperless op de betreffende docker instance en die opnieuw optuigen is ook weer gedoe.
Wat een gedoe ;)

Iemand nog tips over hoe dit het best aan te vliegen? :>

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • Liegebeest
  • Registratie: Februari 2002
  • Nu online
@ElCondor de klassieke manier, die je ook bij Kubernetes clusters ziet, is de NFS share idd meegeven als mount. Zeker niet met NFS rommelen in de container. En ook niet met de hand op de host mounten. Laat de container runtime het zware werk voor je doen.

Je doet t met Docker Compose. Bijv:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
# Source - https://stackoverflow.com/a/46481637
# Posted by xrobau, modified by community. See post 'Timeline' for change history
# Retrieved 2026-02-17, License - CC BY-SA 4.0
version: "3.2"

services:
  rsyslog:
    image: jumanjiman/rsyslog
    ports:
      - "514:514"
      - "514:514/udp"
    volumes:
      - type: volume
        source: example
        target: /nfs
        volume:
          nocopy: true
volumes:
  example:
    driver_opts:
      type: "nfs"
      o: "addr=10.40.0.199,nolock,soft,rw"
      device: ":/docker/example"

Liege, liege, liegebeest!


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

@Liegebeest een hele goeie, als het gaat om data IN containers beschikbaar maken, maar dat is ook net niet mijn usecase.
Wat ik wil is een centrale plek waarnaar ik docker containers/composefiles en dat soort zaken naar toe kan publishen en daarmee live zetten.
Dus de nsf share die ik daarvoor op het oog heb moet op de docker hosts beschikbaar komen.

Mijn idee is dus dat ik een centrale plek heb waar ik de docker configuratie heb staan waar de docker instances hun configuratie vandaan trekken.
Daarmee hoef ik bij release van een nieuwe compose niet naar een specifieke docker host toe te publishen, maar kan ik publishen naar de NFS share en daarmee hebben alle docker hosts beschikking over de nieuwe configuratie. Redploy van de betreffende containers of stacks en klaar is kees.

Maar als dit niet de geëigende weg is, dan hoor ik graag hoe dit beter in te richten.

Het idee is om per docker host de volgende folder structuur te maken waarbij binds een mounted folder is die dus vanaf een nfs share ontsloten wordt. <dockerhost> kunnen dus meerdere folders zijn, 1 folder per host waarbinnen de config en binds te vinden zijn.
Markdown:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
mnt/
|
L_dockerdata/ #mounted
  |
  L_docker/
  |  |
  |  L_volumes/
  |
  L_binds/ #mounted
  | |
  | L_<dockerhost>
  |   |
  |   L_<container_bind_data>
  |
  L_<container_source_data> #mounted
De gehele folder dockerdata is nu al op een aantal hosts al gemount, zodat deze centraal gehost zijn.
Dit lukt op waar de dockerhosts VM's zijn, maar niet waar de dockerhost een lxc container is.

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • Cyphax
  • Registratie: November 2000
  • Laatst online: 08:49

Cyphax

Moderator LNX
ElCondor schreef op dinsdag 17 februari 2026 @ 08:16:
@Liegebeest een hele goeie, als het gaat om data IN containers beschikbaar maken, maar dat is ook net niet mijn usecase.
Wat ik wil is een centrale plek waarnaar ik docker containers/composefiles en dat soort zaken naar toe kan publishen en daarmee live zetten.
Dus de nsf share die ik daarvoor op het oog heb moet op de docker hosts beschikbaar komen.

Mijn idee is dus dat ik een centrale plek heb waar ik de docker configuratie heb staan waar de docker instances hun configuratie vandaan trekken.
Daarmee hoef ik bij release van een nieuwe compose niet naar een specifieke docker host toe te publishen, maar kan ik publishen naar de NFS share en daarmee hebben alle docker hosts beschikking over de nieuwe configuratie. Redploy van de betreffende contiainers of stacks en klaar is kees.

Maar als dit niet de geëigende weg is, dan hoor ik graag hoe dit beter in te richten.

Het idee is om per docker host de volgende folder structuur te maken waarbij binds een mounted folder is die dus vanaf een nfs share ontsloten wordt. <dockerhost> kunnen dus meerdere folders zijn, 1 folder per host waarbinnen de config en binds te vinden zijn.
Markdown:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
mnt/
|
L_dockerdata/ #mounted
  |
  L_docker/
  |  |
  |  L_volumes/
  |
  L_binds/ #mounted
  | |
  | L_<dockerhost>
  |   |
  |   L_<container_bind_data>
  |
  L_<container_source_data> #mounted
De gehele folder dockerdata is nu al op een aantal hosts al gemount, zodat deze centraal gehost zijn.
Dit lukt op waar de dockerhosts VM's zijn, maar niet waar de dockerhost een lxc container is.
Komt de share uit op de proxmox-machine zelf, of is dat een ander apparaat als een NAS ofzo?

Saved by the buoyancy of citrus


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Cyphax schreef op dinsdag 17 februari 2026 @ 08:34:
[...]

Komt de share uit op de proxmox-machine zelf, of is dat een ander apparaat als een NAS ofzo?
Dat is een NAS inderdaad.

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • Liegebeest
  • Registratie: Februari 2002
  • Nu online
Wat ik wil is een centrale plek waarnaar ik docker containers/composefiles en dat soort zaken naar toe kan publishen en daarmee live zetten.
De oplossing die jij zoekt heet een container image registry (of repository) en Git. En runtime configuraties doe je via environment variables van de container runtime, niet hard coded.

Waarom probeer je een probleem dat is opgelost houtje touwtje met NFS op te lossen?!

[ Voor 12% gewijzigd door Liegebeest op 17-02-2026 08:46 ]

Liege, liege, liegebeest!


  • Cyphax
  • Registratie: November 2000
  • Laatst online: 08:49

Cyphax

Moderator LNX
Wat ik doe met dit soort situaties is de share mounten op de host en dan dat pad doorgeven via een bind mount. Dan hoeft je container helemaal geen sjoege te hebben van nfs of samba of wat dan ook.

Voor containers en opslag van compose files is het misschien interessant om gitea of forgejo eens te bekijken. Die bieden git (voor de compose files) en een repository voor docker containers. :)

Saved by the buoyancy of citrus


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Over-engineered dus. :/
Dat is ook een mogelijkheid. Ik zal eens kijken op welke manier ik docker rechtstreeks uit een git repo kan laten trekken. Mijn stacks etc push ik al naar een lokale git, vooral vanwege version control, niet om te publishen naar productie, maar het publishen naar de docker hosts toe (of dit nu VM's zijn of LXC containers), dat heb ik nog niet als zodanig bekeken.
Cyphax schreef op dinsdag 17 februari 2026 @ 08:48:
[...]

Wat ik doe met dit soort situaties is de share mounten op de host en dan dat pad doorgeven via een bind mount. Dan hoeft je container helemaal geen sjoege te hebben van nfs of samba of wat dan ook.
...
Dat share mounten op een host is dus precies wat ik wil, maar dat wil dus niet als de docker host een unprivileged LXC container is. Dus kip-ei verhaal. :P
Maar misschien moet ik het dus helemaal anders aanvliegen en de docker hosts direct uit een git repo laten trekken. Ik zal me daar eens in verdiepen. :henk

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • Liegebeest
  • Registratie: Februari 2002
  • Nu online
Container images stop je niet in Git, dat zijn “artifacts”. Die gaan naar een repository/registry. Die kan je zelf met heel weinig moeite opzetten.

Liege, liege, liegebeest!


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Liegebeest schreef op dinsdag 17 februari 2026 @ 08:58:
Container images stop je niet in Git, dat zijn “artifacts”. Die gaan naar een repository/registry. Die kan je zelf met heel weinig moeite opzetten.
Ik denk dat we op dezelfde lijn zitten hoor. Images wil ik ook niet storen, het gaat me puur om de compose files en eventuele presistente configuratie files/binds. De bedoeling is dat die niet direct op de dockerhosts leven, maar op een plek die vanuit alle docker hosts bereikbaar is. Dit om te voorkomen dat als een docker host stuk gaat, ik een nieuwe host in de benen kan helpen en deze direct de stacks kan starten.
Maar de compose files vanuit een git repo trekken zou ook een oplossing kunnen zijn.

Ik ga er eens op studeren.

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)

Pagina: 1 ... 65 66 Laatste