• Liegebeest
  • Registratie: Februari 2002
  • Laatst online: 14:28
nassau schreef op zaterdag 24 januari 2026 @ 14:17:
[...]
Ik heb een minimale VM met dietpi (debian) op mijn synology en dan corosync geïnstalleerd. Automatische updates, set and forget.
Dan doen we in principe het zelfde: een aparte, kleine omgeving op een Synology om de Qdevice te draaien. Of het nou een kleine VM of een container is, is lood om oud ijzer voor mij. Maar voor hen die het met een container willen oplossen, Synology of elders, wilde ik iets betrouwbaarders neerzetten dat wel wordt onderhouden.

Liege, liege, liegebeest!


  • MJV
  • Registratie: Mei 2003
  • Laatst online: 13:46

MJV

Waarschijnlijk probeer ik iets te doen wat niet kan, maar ik probeer het toch.

Ik heb een Synology NAS met een NFS-share die ik in Proxmox heb toegevoegd.
Die NFS-share wil ik in een WIndows VM als disk zien, zodat ik met Proton Drive foto's kan importeren.

Ik kom er echter niet helemaal uit hoe ik dat doe. Ik kan de NSF-share als storage gebruiken, maar heb dan logischerwijs nog geen 1-op-1 toegang vanuit Synology.

Achterliggende use case: Google Takeout gedaan, 400GB aan foto's op Synology, die nu syncen. Proton Drive client wil niet syncen vanaf netwerkschijf, nu alles op USB-hdd gezet, dat werkt, maar is traag. Die USB-hdd wil ik er tussen hebben, zodat ik met een Windows VM direct vanaf de Synology kan syncen. Maar dan moet die share dus wel als 'echte disk' zichbaar zijn in die Windows VM...

WIe kan mij in de juiste richting wijzen?

[ Voor 29% gewijzigd door MJV op 24-01-2026 22:02 ]


  • Rozz
  • Registratie: April 2000
  • Laatst online: 11:29

Rozz

I'm an Apogian!!

MJV schreef op zaterdag 24 januari 2026 @ 21:55:
Waarschijnlijk probeer ik iets te doen wat niet kan, maar ik probeer het toch.
Ik heb een Synology NAS met een NFS-share die ik in Proxmox heb toegevoegd.
Die NFS-share wil ik in een WIndows VM als disk zien, zodat ik met Proton Drive foto's kan importeren.
Ik kom er echter niet helemaal uit hoe ik dat doe. Ik kan de NSF-share als storage gebruiken, maar heb dan logischerwijs nog geen 1-op-1 toegang vanuit Synology.
Achterliggende use case: Google Takeout gedaan, 400GB aan foto's op Synology, die nu syncen. Proton Drive client wil niet syncen vanaf netwerkschijf, nu alles op USB-hdd gezet, dat werkt, maar is traag. Die USB-hdd wil ik er tussen hebben, zodat ik met een Windows VM direct vanaf de Synology kan syncen. Maar dan moet die share dus wel als 'echte disk' zichbaar zijn in die Windows VM...

WIe kan mij in de juiste richting wijzen?
Ik heb in al mn windows-vm`s een NFS share via windows verkenner gemaakt/gelinkt, direct toegang tot de Syno dus, ik snap niet helemaal wat er bij jou dan niet lukt? (Ik heb niets met die share in Proxmox gedaan trouwens)

  • MJV
  • Registratie: Mei 2003
  • Laatst online: 13:46

MJV

Rozz schreef op zondag 25 januari 2026 @ 09:47:
[...]


Ik heb in al mn windows-vm`s een NFS share via windows verkenner gemaakt/gelinkt, direct toegang tot de Syno dus, ik snap niet helemaal wat er bij jou dan niet lukt? (Ik heb niets met die share in Proxmox gedaan trouwens)
Probleem is dat de Proton Drive app niet wil syncen vanaf een netwerklocatie. Heb nu maar via USB passthrough de hdd aan mijn proxmox host gehangen...

  • Rozz
  • Registratie: April 2000
  • Laatst online: 11:29

Rozz

I'm an Apogian!!

MJV schreef op zondag 25 januari 2026 @ 09:50:
[...]
Probleem is dat de Proton Drive app niet wil syncen vanaf een netwerklocatie. Heb nu maar via USB passthrough de hdd aan mijn proxmox host gehangen...
Aha, ja snappum, misschien kan je kijken of de Syno als iscsi / lun op je VM aan kan sluiten, schijnt dan wel als een lokale HD te komen?!? zelf geen ervaring mee.

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 14:06
Rozz schreef op zondag 25 januari 2026 @ 16:28:
[...]


Aha, ja snappum, misschien kan je kijken of de Syno als iscsi / lun op je VM aan kan sluiten, schijnt dan wel als een lokale HD te komen?!? zelf geen ervaring mee.
Dat kan dan wel, maar die data is dan ook op een scsi volume, en daar kan je dan weer niets mee binnen je Synology.

Alles went behalve een Twent.
nggyu nglyd


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

nassau schreef op vrijdag 23 januari 2026 @ 18:46:
[...]

Lekker gewerkt!

Je kunt inderdaad een migratienetwerk configureren: Datacenter->Options->Migration Setting. Kies hier de netwerkinterface
Ja, die had ik gevonden en daar kun je één netwerk definiëren. Maar kun je er ook twee opgeven? Een van de nodes is nog niet op zijn plek beland en kan daardoor niet fysiek op het migratienetwerk worden aangesloten. Althans, niet zonder bekabeling over de gehele zolder te gooien O-)
Hij kan wel migreren via het normale productie netwerk, maar dan moet ik iedere keer switchen. Geen groot issue, maar wel meer klikken te maken. Ik zou graag het productie netwerk als een soort fall-back instellen voor migraties. Nu ja, het werkt verder goed, dus alles ok voor nu,

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • MJV
  • Registratie: Mei 2003
  • Laatst online: 13:46

MJV

Quad schreef op zondag 25 januari 2026 @ 16:29:
[...]

Dat kan dan wel, maar die data is dan ook op een scsi volume, en daar kan je dan weer niets mee binnen je Synology.
Precies. Het volgende-minst-slechte wat ik nu heb bedacht is een reguliere Windows share maken op mijn VM, die kan ik vanaf mijn Synology benaderen als het goed is. Dan zou ik daar vanaf de Synology de data heen kunnen pompen en vanaf de VM kunnen syncen. Dat wordt alleen qua performance denk ik dramatisch, want de storage van de VM staat ook op de Synology, dus gaat die data in een soort cirkeltje.

  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Zo dan, ook alweer mijn eerste hartaanval achter de rug. Met Windows en Hyper-V op mijn main server werd de SMART status van de verschillende disks eigenlijk niet echt in de gaten gehouden. Dus nu ik ProxMox er op heb staan gebeuren daar wel checks voor. En nu blijkt de main nvme waar PM zelf op staat SMART errors qua temperatuur te geven :( Ik heb toen nog gevoeld aan de disk en het leek me niet dat de disk nu echt heet werd, maar dat kunnen natuurlijk ook piek momenten zijn. Afgelopen vrijdag ineenkeer mail dat de main server succesvol fenced off was en dat de guests allemaal failovered zouden worden naar de andere nodes (had wel HA aan staan, maar verder niets aan fine-tuning gedaan).
Lekker dan, niets kwam echt terug meer op, dus het hele HA verhaal had gefaald. Thuisgekomen blijkt de server in de installatie boot te staan vanaf de PM iso die via de JetKVM geprovisioned werd. Oh-ohw, geen bootdevice? Inderdaad, na een reboot bleek de eerste disk foetsie:
Server uitgebouwd, disk eruit, was niet te heet, opnieuw geseat, server geboot en jawel, de disk was er weer en de server kwam op, echter, een flink aantal guests stonden her en der in error state op de verschillende nodes waarnaar ze een poging hadden gedaan om over te failen.
Opruimen geblazen en daarna bleek het opzetten van PBS een gouden greep te zijn geweest. :) Guests vanaf de PBS terugblazen naar de originele locatie en booten met die hap. Geen enkel probleem.
Nu dan toch wel even goed gaan zitten om HA voor de meest essentiele guests in te richten (DC en RDP server).
Daarnaast komt vanmiddag een heatsink voor de nvme drive binnen en die toch maar even installeren. Kan ik gelijk kijken of die failover zijn werk doet. 8)7

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 11:55

InjecTioN

¯\_(ツ)_/¯

ElCondor schreef op maandag 26 januari 2026 @ 09:44:
Zo dan, ook alweer mijn eerste hartaanval achter de rug. Met Windows en Hyper-V op mijn main server werd de SMART status van de verschillende disks eigenlijk niet echt in de gaten gehouden. Dus nu ik ProxMox er op heb staan gebeuren daar wel checks voor. En nu blijkt de main nvme waar PM zelf op staat SMART errors qua temperatuur te geven :( Ik heb toen nog gevoeld aan de disk en het leek me niet dat de disk nu echt heet werd, maar dat kunnen natuurlijk ook piek momenten zijn. Afgelopen vrijdag ineenkeer mail dat de main server succesvol fenced off was en dat de guests allemaal failovered zouden worden naar de andere nodes (had wel HA aan staan, maar verder niets aan fine-tuning gedaan).
Lekker dan, niets kwam echt terug meer op, dus het hele HA verhaal had gefaald. Thuisgekomen blijkt de server in de installatie boot te staan vanaf de PM iso die via de JetKVM geprovisioned werd. Oh-ohw, geen bootdevice? Inderdaad, na een reboot bleek de eerste disk foetsie:
Server uitgebouwd, disk eruit, was niet te heet, opnieuw geseat, server geboot en jawel, de disk was er weer en de server kwam op, echter, een flink aantal guests stonden her en der in error state op de verschillende nodes waarnaar ze een poging hadden gedaan om over te failen.
Opruimen geblazen en daarna bleek het opzetten van PBS een gouden greep te zijn geweest. :) Guests vanaf de PBS terugblazen naar de originele locatie en booten met die hap. Geen enkel probleem.
Nu dan toch wel even goed gaan zitten om HA voor de meest essentiele guests in te richten (DC en RDP server).
Daarnaast komt vanmiddag een heatsink voor de nvme drive binnen en die toch maar even installeren. Kan ik gelijk kijken of die failover zijn werk doet. 8)7
PBS (Proxmox Backup Server) heeft mij inderdaad ook al meerdere malen uit de brand geholpen. Wat een fijn product is dat! :D

Dus de conclusie kan zijn dat de SSD simpelweg niet lekker in z'n slot gestoken zat, of dat de hitte (en afkoelen) misschien juist voor rek en krimp heeft gezorgd, waardòòr de SSD niet lekker in z'n slot meer zat.

Een heatsink is in zo'n geval nooit een slecht idee.

In mijn proxmox cluster heb ik 3 identieke mini pc nodes in clusterized HA opstelling draaien. Iedere node heeft een nvme boot disk (OEM SSD van 256GB) met het OS en een enterprise SATA SSD van Intel (480GB). De SATA disk zit in een CEPH volume over iedere node, wat eigenlijk een mirror is over 3 nodes. Hierdoor is er overal shared storage aanwezig in het geval van een fail-over. Ook heb ik daarnaast nog een OpenMediaVault-NAS met bulk storage waar de VM's afzonderlijk verbinding mee maken. De PBS LXC maakt daar ook verbinding mee.

Wekelijkse backup wordt voorzien vanaf een andere machine op mijn netwerk - aan de andere kant van mijn huis.

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

InjecTioN schreef op maandag 26 januari 2026 @ 10:14:
[...]

PBS (Proxmox Backup Server) heeft mij inderdaad ook al meerdere malen uit de brand geholpen. Wat een fijn product is dat! :D

Dus de conclusie kan zijn dat de SSD simpelweg niet lekker in z'n slot gestoken zat, of dat de hitte (en afkoelen) misschien juist voor rek en krimp heeft gezorgd, waardòòr de SSD niet lekker in z'n slot meer zat.

Een heatsink is in zo'n geval nooit een slecht idee.

In mijn proxmox cluster heb ik 3 identieke mini pc nodes in clusterized HA opstelling draaien. Iedere node heeft een nvme boot disk (OEM SSD van 256GB) met het OS en een enterprise SATA SSD van Intel (480GB). De SATA disk zit in een CEPH volume over iedere node, wat eigenlijk een mirror is over 3 nodes. Hierdoor is er overal shared storage aanwezig in het geval van een fail-over. Ook heb ik daarnaast nog een OpenMediaVault-NAS met bulk storage waar de VM's afzonderlijk verbinding mee maken. De PBS LXC maakt daar ook verbinding mee.

Wekelijkse backup wordt voorzien vanaf een andere machine op mijn netwerk - aan de andere kant van mijn huis.
Nice, ik heb replication voor wat guests aan staan, maar op een ZFS volume. Ceph vereist in de meeste gevallen een 10Gb netwerk, heb ik me laten vertellen, en dat heb ik net niet liggen. Heb jij het wel op 10Gb draaien? Jouw Ceph cluster, bedoel ik dan?

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 11:55

InjecTioN

¯\_(ツ)_/¯

ElCondor schreef op maandag 26 januari 2026 @ 10:21:
[...]

Nice, ik heb replication voor wat guests aan staan, maar op een ZFS volume. Ceph vereist in de meeste gevallen een 10Gb netwerk, heb ik me laten vertellen, en dat heb ik net niet liggen. Heb jij het wel op 10Gb draaien? Jouw Ceph cluster, bedoel ik dan?
Ik heb een active-passive dual NIC opstelling via on-board 1Gbe en m.2 2.5Gbe kaartje. Dus ik heb wel een hogere doorvoer met 2.5Gbe ja. Een unify flex2.5 er tussen gezet en de 1Gbe poortjes aan een Zyxel 1920 series 8-poort switch.

Draait echt meer dan prima zo.

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Nou, nvme voorzien van een heatsink, lijkt te werken, de temps registeren nu als -1~-5 :?
Toen ook maar eens de andere nvme gecheckt en die blijkt ook een negatieve temp te registreren, vreemd allemaal, maar het schijnt voor te komen, zegt het internet. Niet iets om je zorgen over te maken, blijkbaar. :O
We gaan het allemaal meemaken. In de tussentijd ook direct maar even de 3e node voorzien van een extra nic die nu met de nas praat en dat werkt allemaal als een zonnetje. :*)
Nog eens goed in de HA strategie duiken, want bij het downgaan van node 4, de main server, bleek één van de guests nog gekoppeld te zijn aan een lokale iso. Deze dus altijd direct verwijderen als je er klaar mee bent, want als de lokale iso niet beschikbaar is op de target node voor failover, dan => mislukte failover. |:( Of is dat ook in te stellen? Een iso zou geen issue mogen zijn voor failover op een andere node, mijns inziens. O-)

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 11:55

InjecTioN

¯\_(ツ)_/¯

ElCondor schreef op maandag 26 januari 2026 @ 23:12:
Nou, nvme voorzien van een heatsink, lijkt te werken, de temps registeren nu als -1~-5 :?
Toen ook maar eens de andere nvme gecheckt en die blijkt ook een negatieve temp te registreren, vreemd allemaal, maar het schijnt voor te komen, zegt het internet. Niet iets om je zorgen over te maken, blijkbaar. :O
We gaan het allemaal meemaken. In de tussentijd ook direct maar even de 3e node voorzien van een extra nic die nu met de nas praat en dat werkt allemaal als een zonnetje. :*)
Nog eens goed in de HA strategie duiken, want bij het downgaan van node 4, de main server, bleek één van de guests nog gekoppeld te zijn aan een lokale iso. Deze dus altijd direct verwijderen als je er klaar mee bent, want als de lokale iso niet beschikbaar is op de target node voor failover, dan => mislukte failover. |:( Of is dat ook in te stellen? Een iso zou geen issue mogen zijn voor failover op een andere node, mijns inziens. O-)
Sensors zijn voor OEM SSD’s soms inderdaad nog niet bekend in lmsensors, en/of het meten wijkt af van de standaard. Je kan eens kijken of er nog een firmware update voor beschikbaar is.

Wat betreft die ISO: ik heb nog nooit een iso hoeven gebruiken onder Proxmox. Ik gebruik namelijk deze LXC helper scripts: https://community-scripts.github.io/ProxmoxVE/

Ik gebruik overigens überhaupt geen Windows, wat voor mij de enige reden zou zijn om een ISO te moeten gebruiken.

Het hele ISO verhaal is overigens wel een bekend issue dat ook speelt bij ESXi en andere hypervisors. Je hebt simpelweg een working state gedefinieerd die je graag wilt aanhouden in de VM settings. Dat is ooit gevalideerd geweest, maar er ontbreekt simpelweg virtual hardware (ISO). Reden genoeg om te falen. Vooral als een dienst die je wilt draaien ervan afhankelijk is. ¯\_(ツ)_/¯

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

InjecTioN schreef op dinsdag 27 januari 2026 @ 07:16:
[...]
...
Wat betreft die ISO: ik heb nog nooit een iso hoeven gebruiken onder Proxmox. Ik gebruik namelijk deze LXC helper scripts: https://community-scripts.github.io/ProxmoxVE/

Ik gebruik overigens überhaupt geen Windows, wat voor mij de enige reden zou zijn om een ISO te moeten gebruiken.

Het hele ISO verhaal is overigens wel een bekend issue dat ook speelt bij ESXi en andere hypervisors. Je hebt simpelweg een working state gedefinieerd die je graag wilt aanhouden in de VM settings. Dat is ooit gevalideerd geweest, maar er ontbreekt simpelweg virtual hardware (ISO). Reden genoeg om te falen. Vooral als een dienst die je wilt draaien ervan afhankelijk is. ¯\_(ツ)_/¯
De helperscripts ken ik inderdaad. Het probleem was dat ik de VirtIO iso nodig had om de helper agent te installeren op de windows guests. Daarom stak deze er nog in. Ik ben me nog aan het beraden of ik de windows machines moet uitfaseren. Ik heb ze ook wel om gewoon de kennis een beetje op peil te houden en om mijn betere helft te voorzien van windows spulleboel, aangezien ze dat voor haar werk nodig heeft.

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • commentator
  • Registratie: Mei 2004
  • Laatst online: 07:05
ElCondor schreef op dinsdag 27 januari 2026 @ 08:10:
[...]

De helperscripts ken ik inderdaad. Het probleem was dat ik de VirtIO iso nodig had om de helper agent te installeren op de windows guests. Daarom stak deze er nog in. Ik ben me nog aan het beraden of ik de windows machines moet uitfaseren. Ik heb ze ook wel om gewoon de kennis een beetje op peil te houden en om mijn betere helft te voorzien van windows spulleboel, aangezien ze dat voor haar werk nodig heeft.
na de installatie van de helper agent mag die iso er gewoon af

  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

commentator schreef op dinsdag 27 januari 2026 @ 08:24:
[...]

na de installatie van de helper agent mag die iso er gewoon af
:z DAT begrijp ik, maar dat was ik vergeten te doen nadat ik de agent geinstalleerd had. Nog nooit een ceedeetje in de lade laten zitten? :D

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 12:56

zeroday

There is no alternative!

ElCondor schreef op dinsdag 27 januari 2026 @ 08:42:
[...]

:z DAT begrijp ik, maar dat was ik vergeten te doen nadat ik de agent geinstalleerd had. Nog nooit een ceedeetje in de lade laten zitten? :D
Toevallig vorige week gehad. ik verwijder een Linux iso bij een van mijn VM's en reboot en het kreng wilde niet meer starten en riep om de ISO .. uh ???
even alles terug gezet, boot order aangepast en daarna kon het wel ..

mja .. heul apart maar goed ..

There are no secrets, only information you do not yet have


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-02 16:15
ElCondor schreef op maandag 26 januari 2026 @ 23:12:
Nou, nvme voorzien van een heatsink, lijkt te werken, de temps registeren nu als -1~-5 :?
Toen ook maar eens de andere nvme gecheckt en die blijkt ook een negatieve temp te registreren, vreemd allemaal, maar het schijnt voor te komen, zegt het internet. Niet iets om je zorgen over te maken, blijkbaar. :O
We gaan het allemaal meemaken. In de tussentijd ook direct maar even de 3e node voorzien van een extra nic die nu met de nas praat en dat werkt allemaal als een zonnetje. :*)
Nog eens goed in de HA strategie duiken, want bij het downgaan van node 4, de main server, bleek één van de guests nog gekoppeld te zijn aan een lokale iso. Deze dus altijd direct verwijderen als je er klaar mee bent, want als de lokale iso niet beschikbaar is op de target node voor failover, dan => mislukte failover. |:( Of is dat ook in te stellen? Een iso zou geen issue mogen zijn voor failover op een andere node, mijns inziens. O-)
Opzich logisch naar mijn mening als de ISO enkel lokaal op een bepaalde node is opgeslagen. Als je de ISO niet meer nodig hebt is verwijderen natuurlijk het handigst. Maar je kunt hem ook verplaatsen naar een stukje opslag wat voor meerdere nodes bereikbaar is i.e. het netwerk. Denk aan iets als NFS of CEPH.

https://dontasktoask.com/


  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 09:18
Hoe monitoren jullie de services die jullie hebben lopen op proxmox?
En ik vroeg me ook af of Proxmox zelf al iets ingebouwd heeft ivm falende disks (slechte sectoren etc)?

  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 11:55

InjecTioN

¯\_(ツ)_/¯

dotcom87 schreef op dinsdag 27 januari 2026 @ 20:22:
Hoe monitoren jullie de services die jullie hebben lopen op proxmox?
En ik vroeg me ook af of Proxmox zelf al iets ingebouwd heeft ivm falende disks (slechte sectoren etc)?
Proxmox heeft een onderdeel in het menu zitten waarin je van iedere disk de health status af kan lezen. Verder dan dat is er bij mijn weten niet echt iets.

Ik houd de health status overigens ook handmatig bij in grafieken binnen home assistant.

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • Liegebeest
  • Registratie: Februari 2002
  • Laatst online: 14:28
dotcom87 schreef op dinsdag 27 januari 2026 @ 20:22:
Hoe monitoren jullie de services die jullie hebben lopen op proxmox?
Daaaaaaarrrr....moet ik nog werk in steken. :X

Liege, liege, liegebeest!


  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 12:30
Met Pulse, Patchmon en dan nog het nodige in Home Assistant :)

  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 09:18
Theetjuh schreef op dinsdag 27 januari 2026 @ 20:35:
Met Pulse, Patchmon en dan nog het nodige in Home Assistant :)
Wat heb je dan zoal in Home Assistant zitten wat betreft Proxmox?

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 12:30
dotcom87 schreef op dinsdag 27 januari 2026 @ 20:46:
[...]


Wat heb je dan zoal in Home Assistant zitten wat betreft Proxmox?
cpu, memory, diskspace van zowel de nodes als vm/lxc.
En heb sinds kort ook de temperatuur van cpu/gpu en nvme erin dmv een scriptje.

  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 11:55

InjecTioN

¯\_(ツ)_/¯

Theetjuh schreef op dinsdag 27 januari 2026 @ 20:51:
[...]

cpu, memory, diskspace van zowel de nodes als vm/lxc.
En heb sinds kort ook de temperatuur van cpu/gpu en nvme erin dmv een scriptje.
Nice! Gevalletje GMTA I guess. :) Dat doe ik hier ook, maar dan dus ook met disk health erbij.

Ik ga vanavond mijn configuratie met de 3 nodes nog even omgooien. Ik heb 2 SSD’s in mijn units zitten, maar ik gebruik er nu slechts een. De enterprise SSD moet als CEPH storage dienen, maar dus ook echt alleen CEPH storage en niet ook OS boot disk zoals nu… |:(

Dus: proxmox opnieuw installeren op de m.2 SSD, koppelen aan het cluster, nieuwe CEPH OSD aanmaken en koppelen aan de CEPH storage. als alle drie de nodes afgerond zijn, zou ik ook gelijk wat meer schijfruimte over moeten hebben. :)

We gaan het zien of het ook zo vlekkeloos gaat. Ik heb alles gedocumenteerd van de vorige keer, dus het zou een breeze moeten zijn. Famous last words… :X

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • Jerie
  • Registratie: April 2007
  • Niet online
dotcom87 schreef op dinsdag 27 januari 2026 @ 20:22:
Hoe monitoren jullie de services die jullie hebben lopen op proxmox?
En ik vroeg me ook af of Proxmox zelf al iets ingebouwd heeft ivm falende disks (slechte sectoren etc)?
Uptime-Kuma monitoort al mijn services (meeste in containers).

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • Liegebeest
  • Registratie: Februari 2002
  • Laatst online: 14:28
Liegebeest schreef op dinsdag 27 januari 2026 @ 20:33:
[...]

Daaaaaaarrrr....moet ik nog werk in steken. :X
En alsof het profetisch was: ik heb meerdere dagen gemist dat het vernieuwen van m’n certificaten mislukte, tot m’n mail client riep “hey dit klopt niet”.

Liege, liege, liegebeest!


  • Anoniemand
  • Registratie: November 2012
  • Laatst online: 10:08
Hier ook uptime kuma en wat zaken in grafana, het oog wil ook wat :)

  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 09:18
Theetjuh schreef op dinsdag 27 januari 2026 @ 20:35:
Met Pulse, Patchmon en dan nog het nodige in Home Assistant :)
Pulse had ik inderdaad ook al eens zien passeren. Patchmon is ook een hele nuttige! Thanks!

  • Anakin239
  • Registratie: September 2001
  • Laatst online: 13:50
dotcom87 schreef op dinsdag 27 januari 2026 @ 20:22:
Hoe monitoren jullie de services die jullie hebben lopen op proxmox?
En ik vroeg me ook af of Proxmox zelf al iets ingebouwd heeft ivm falende disks (slechte sectoren etc)?
Ik heb de nieuwe versie van ProxMenux geinstalleerd en die heeft op poort 8008 een heel uitgebreid dashboard inclusief allerlei hardware informatie
https://github.com/MacRimi/ProxMenux

  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 09:18
Anakin239 schreef op woensdag 28 januari 2026 @ 09:36:
[...]


Ik heb de nieuwe versie van ProxMenux geinstalleerd en die heeft op poort 8008 een heel uitgebreid dashboard inclusief allerlei hardware informatie
https://github.com/MacRimi/ProxMenux
Die heb ik ook geinstalleerd staan op elke node, die zal ik dan ook eens bekijken. Bedankt voor de tip!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-02 16:15
dotcom87 schreef op dinsdag 27 januari 2026 @ 20:22:
Hoe monitoren jullie de services die jullie hebben lopen op proxmox?
En ik vroeg me ook af of Proxmox zelf al iets ingebouwd heeft ivm falende disks (slechte sectoren etc)?
Ik heb alles in Docker containers (binnen een VM) draaien en gebruik vooral uptime kuma (link).

https://dontasktoask.com/


  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 12:56

zeroday

There is no alternative!

Anakin239 schreef op woensdag 28 januari 2026 @ 09:36:
[...]


Ik heb de nieuwe versie van ProxMenux geinstalleerd en die heeft op poort 8008 een heel uitgebreid dashboard inclusief allerlei hardware informatie
https://github.com/MacRimi/ProxMenux
Draait dit nu in een LXC of op een host? Want ik wil eigenlijk niets op mijn host hebben draaien anders dan proxmox zelf.

There are no secrets, only information you do not yet have


  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 12:30
zeroday schreef op donderdag 29 januari 2026 @ 11:17:
[...]

Draait dit nu in een LXC of op een host? Want ik wil eigenlijk niets op mijn host hebben draaien anders dan proxmox zelf.
Van hun github: To install ProxMenux, simply run the following command in your Proxmox server terminal

Lijkt me dus gewoon op de host te draaien, zie bij helper-scripts er ook geen lxc installatie van.

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 12:56

zeroday

There is no alternative!

Theetjuh schreef op donderdag 29 januari 2026 @ 11:21:
[...]

Van hun github: To install ProxMenux, simply run the following command in your Proxmox server terminal
Lijkt me dus gewoon op de host te draaien, zie bij helper-scripts er ook geen lxc installatie van.
Dan laat ik hem links liggen ;)

There are no secrets, only information you do not yet have


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Zo, derde node in mijn cluster toch maar dichterbij de andere nodes gezet zodat ik hem kan koppelen op het storage netwerk.
Daarnaast nog even Grafana ingericht met dashboards op Unifi, MikroTik en ProxMox voor meer inzicht (ook leuk om mee te spelen hoor!).
De SSD SMART errors kunnen oplossen door de SSD's zelf te voorzien van een nieuwe firmware. Kon zelfs online gedaan worden en inderdaad geen enkele SMART error meer gezien.

Moet wel om gaan zien naar nieuwe SSD's voor de 2TB aan local storage die node4 heeft, want die hebben een wear van rond de 95% :$ :N

Nu maar eens gaan verdiepen in het inrichten van VLAN's. Ook met het oog op security, maar vooral omdat mijn ene subnet/scope vol begon te lopen met alle devices en containers op het netwerk... Kan hard gaan met het gemak waarmee je een container of VM deployed.

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • dixet
  • Registratie: Februari 2010
  • Laatst online: 13:45
dotcom87 schreef op dinsdag 27 januari 2026 @ 20:22:
Hoe monitoren jullie de services die jullie hebben lopen op proxmox?
En ik vroeg me ook af of Proxmox zelf al iets ingebouwd heeft ivm falende disks (slechte sectoren etc)?
Via home assistant met de Proxmox VE integratie.
Dashboardje voor de leuk en alerts op de belangrijkste sensors (status van de containers, disk space etc)

Afbeeldingslocatie: https://tweakers.net/i/ERLoUyhQjBvAf67Q75kLAIJ50SU=/x800/filters:strip_exif()/f/image/uXozFcJmoUgRsUg3JQrnUWQA.png?f=fotoalbum_large

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 14:06
dixet schreef op dinsdag 3 februari 2026 @ 14:11:
[...]

Via home assistant met de Proxmox VE integratie.
Dashboardje voor de leuk en alerts op de belangrijkste sensors (status van de containers, disk space etc)

[Afbeelding]
Ik ook, alleen is het eea al weer zoveel veranderd dat ik het weer moet aanpassen/opschonen. Onderstaand is van een tijdje terug alweer.
Afbeeldingslocatie: https://tweakers.net/i/FTZBTFyW7ZPXO7evMFxz6UXrOFs=/232x232/filters:strip_icc():strip_exif()/f/image/86SSxcKnj8mvnUs0LFBBi1DX.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/fd1mD8qWcRlGOpQeRSVaXqC8Ggs=/232x232/filters:strip_icc():strip_exif()/f/image/PtvP3UdaMubTCSa4uz5AICGD.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/ln9HZrjcmF50pdE5xyOk9hHxjsU=/232x232/filters:strip_icc():strip_exif()/f/image/DA7XwASfbaIivPmRinX7xV1p.jpg?f=fotoalbum_tile
Afbeeldingslocatie: https://tweakers.net/i/MAs_Cgkz8lKTIK72dTNH_XU207Q=/232x232/filters:strip_icc():strip_exif()/f/image/4bPSS6Z9ZB3nN3k9kXEqVb2K.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/8QbuARUH6apqXN_U5sMUeolNLKQ=/232x232/filters:strip_icc():strip_exif()/f/image/ornlU7u8dfMco5JssIljPOEe.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/7H4p5YOeenb5ZDHYbegpFHsUJBk=/232x232/filters:strip_icc():strip_exif()/f/image/5cVQaSeQz76xFLsQoC2o1zhO.jpg?f=fotoalbum_tile

Alles went behalve een Twent.
nggyu nglyd


  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 12:30
Mocht je issues zoals ik hebben gehad na de huidige updates dat je LXC’s niet meer starten met mount points, dan kun je de update van pve-container terug draaien.
code:
1
apt install pve-container=6.0.18

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 12:30
It is registered as a bug here: https://bugzilla.proxmox.com/show_bug.cgi?id=7271

  • lolgast
  • Registratie: November 2006
  • Laatst online: 14:03
Ik heb ook heel veel dingen in monitoring dashboards gehad, maar onder aan de streep interesseert het me echt geen biet hoe die grafiekjes eruit zien. Ik krijg een bericht als een container > 3 minuten offline is en een mail als de backup is mislukt. Geen nieuws is goed nieuws :)

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 12:58
lolgast schreef op dinsdag 3 februari 2026 @ 18:17:
Ik heb ook heel veel dingen in monitoring dashboards gehad, maar onder aan de streep interesseert het me echt geen biet hoe die grafiekjes eruit zien. Ik krijg een bericht als een container > 3 minuten offline is en een mail als de backup is mislukt. Geen nieuws is goed nieuws :)
Tenzij de monitoring stuk is ;) Dan is geen nieuws slecht nieuws.
Zo bleek ik op een gegeven moment op een defecte HDD te draaien. RAIDZ1 met 3 disks waarvan één niet opstarte. Noch smartctl noch ZFS/zed hadden hier een melding voor gegeven :X

  • Rozz
  • Registratie: April 2000
  • Laatst online: 11:29

Rozz

I'm an Apogian!!

Quad schreef op dinsdag 3 februari 2026 @ 15:51:
[...]
Ik ook, alleen is het eea al weer zoveel veranderd dat ik het weer moet aanpassen/opschonen. Onderstaand is van een tijdje terug alweer.
Wat gebruik jij (in HA) om die cluster weer te geven, waar je de updates ziet? ziet er netjes uit.

[ Voor 1% gewijzigd door Rozz op 03-02-2026 19:18 . Reden: typo ]


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 14:06
Rozz schreef op dinsdag 3 februari 2026 @ 19:16:
[...]


Wat gebruik jij (in HA) om die cluster weer te geven, waar je de updates ziet? ziet er netjes uit.
Mushroom template card.
YAML:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
type: custom:mushroom-template-card
primary: |
  {% if is_state('binary_sensor.node_pve_updates_packages', 'on') %}
     PVE - 🛠️ {{ states('sensor.node_pve_total_updates') }} updates available
  {% else %}
    PVE
  {% endif %}
icon: phu:proxmox
badge_icon: |
  {% if is_state('binary_sensor.node_pve_status', 'on') %}
    mdi:play
  {% else %}
    mdi:stop
  {% endif %}
badge_color: |
  {% if is_state('binary_sensor.node_pve_status', 'on') %}
    green
  {% else %}
    stopped
  {% endif %}
tap_action:
  action: url
  url_path: https://ipvanpve:8006
color: orange
features_position: bottom
grid_options:
  columns: 12
  rows: 1

Alles went behalve een Twent.
nggyu nglyd


  • Rozz
  • Registratie: April 2000
  • Laatst online: 11:29

Rozz

I'm an Apogian!!

Top!!
Ik ga er mee stoeien 👍

  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 09:18
Quad schreef op dinsdag 3 februari 2026 @ 15:51:
[...]

Ik ook, alleen is het eea al weer zoveel veranderd dat ik het weer moet aanpassen/opschonen. Onderstaand is van een tijdje terug alweer.
[Afbeelding][Afbeelding][Afbeelding]
[Afbeelding][Afbeelding][Afbeelding]
Ik ben ook erg benieuwd naar hoe je die available updates sensor hebt gemaakt.

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 12:30
dotcom87 schreef op woensdag 4 februari 2026 @ 06:26:
[...]


Ik ben ook erg benieuwd naar hoe je die available updates sensor hebt gemaakt.
Wordt gewoon met de HACS integratie aangevuld
Afbeeldingslocatie: https://tweakers.net/i/BBKaQJssDVHo6ErjXpVfPs11YA0=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/GfwAtfaVNkel9tQk7oZyAwsT.png?f=user_large

  • Koepert
  • Registratie: Augustus 2013
  • Laatst online: 11:58
dotcom87 schreef op woensdag 28 januari 2026 @ 09:02:
[...]

Pulse had ik inderdaad ook al eens zien passeren. Patchmon is ook een hele nuttige! Thanks!
Pulse is heel fancy maar toch vond ik de AI-nag voor een subscription te irritant worden. Ik zit nu met zowel Beszel als Dockhand te spelen. Uptime Kuma draait al tijden maar die doet natuurlijk niet zoveel met docker zelf. Daar heb ik Dockge voor ingezet, maar die monitort weer niet, dus die ga ik denk ik uitfaseren voor dockhand want die doet beide. Beszel is qua monitoring ook wel erg fijn moet ik zeggen. Kan zowel Host als VMs en Containers.. maar weer geen deployment..

En hoe nuttig is monitoring van de host als die op de host draait :P

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 12:58
Koepert schreef op woensdag 4 februari 2026 @ 09:20:
[...]


Pulse is heel fancy maar toch vond ik de AI-nag voor een subscription te irritant worden. Ik zit nu met zowel Beszel als Dockhand te spelen. Uptime Kuma draait al tijden maar die doet natuurlijk niet zoveel met docker zelf. Daar heb ik Dockge voor ingezet, maar die monitort weer niet, dus die ga ik denk ik uitfaseren voor dockhand want die doet beide. Beszel is qua monitoring ook wel erg fijn moet ik zeggen. Kan zowel Host als VMs en Containers.. maar weer geen deployment..

En hoe nuttig is monitoring van de host als die op de host draait :P
Daarom draai ik Gatus op mijn router. Als de router het niet doet merk ik dat normaliter wel :+

  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

Koepert schreef op woensdag 4 februari 2026 @ 09:20:
[...]


Pulse is heel fancy maar toch vond ik de AI-nag voor een subscription te irritant worden.
Oh jij ook al. :X
Echt zo nutteloos die melding, doet afbreuk aan het pakket idd.

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Koepert
  • Registratie: Augustus 2013
  • Laatst online: 11:58
RobertMe schreef op woensdag 4 februari 2026 @ 09:57:
[...]

Daarom draai ik Gatus op mijn router. Als de router het niet doet merk ik dat normaliter wel :+
fair point.. so fancy is mn router echter niet..

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 12:58
Koepert schreef op woensdag 4 februari 2026 @ 10:35:
[...]

fair point.. so fancy is mn router echter niet..
Die van mij is ook zeer zeker niet fancy. Maar gewoon een TopTon mini PC en daarop Debian (met systemd-networkd voor het beheren van de interfaces incl aanmaken VLANs, DHCP server, DHCPv6 Prefix Delegation, ..., en nftables gewoon als firewall).

Waardoor ik ook meteen andere zaken er op kan draaien, middels Podman (/Docker containers). Wat ook wel nodig is. Heb als servertje (ook) een Intel N5105 systeem, alleen heeft die gesoldeerd RAM, "8GB is wel voldoende voor alleen Home Assistant". Klopt an zich wel, behalve dat ik alles dat op de "grote bak" (i3-9100, 32GB RAM, SSDs, 3x spinning rust) heb over gezet zodat die uit kon. Gevolg is alsnog dat die 8GB overvol zit. De TopTon zit SODIMM in met intussen 16GB. En servertje vervangen in deze tijd...

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 12:56

zeroday

There is no alternative!

Theetjuh schreef op dinsdag 3 februari 2026 @ 16:46:
Mocht je issues zoals ik hebben gehad na de huidige updates dat je LXC’s niet meer starten met mount points, dan kun je de update van pve-container terug draaien.
code:
1
apt install pve-container=6.0.18
oefff die moeten ze snel fixen.. Zelfs een simpel mp0 met een virtuele share via /etc/pve naar /etc/pve gaat al mis .. ik heb even snel een lxc bekeken .. die draaide welk maar de share lag eruit ..
reboot .. en wauw .. inderdaad geen herstart..

downgrade .. en hij start weer ..

There are no secrets, only information you do not yet have


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Yes! Vandaag mijn tweede JetKVM binnengekomen. Beide main ProxMox nodes nu voorzien. En ze worden beide gepowered door een laptop die dienst doet als fileserver. Redelijk powersafe dus 8)

ElCondor had laatst een van de nodes uitgezet, met het idee dat ik hem ook weer aan kon zetten dmv de JetKVM. Omdat deze in een non-powered USB socket zat op de node zelf, was de JetKVM ook uit ;( :F

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 14:06
Mooi spul hè die USB KVMetjes. Let je wel op de accu van die laptop? Constant aan de voeding vinden ze op een gegeven moment niet meer zo leuk is mijn ervaring.

Alles went behalve een Twent.
nggyu nglyd


  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 12:58
Quad schreef op woensdag 4 februari 2026 @ 19:34:
Let je wel op de accu van die laptop? Constant aan de voeding vinden ze op een gegeven moment niet meer zo leuk is mijn ervaring.
Mogelijk wel gekoppeld aan model en instellingen? Mijn Lenovo kan ik, in Linux (en Windows vast ook) instellen dat die niet volledig moet opladen. 60% en dan kapt die er mee. LED blijft ook geel branden voor "niet vol" i.p.v. wit "vol". Mag toch aannemen dat er dan ook echt geen stroom naar de accu gaat. En pas na gebruik op de accu, en ik meen ontladen tot onder de 50% (kan ook minder zijn) dat die hem oplaad tot 60%.

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 13:44
RobertMe schreef op woensdag 4 februari 2026 @ 19:50:
[...]

Mogelijk wel gekoppeld aan model en instellingen? Mijn Lenovo kan ik, in Linux (en Windows vast ook) instellen dat die niet volledig moet opladen. 60% en dan kapt die er mee. LED blijft ook geel branden voor "niet vol" i.p.v. wit "vol". Mag toch aannemen dat er dan ook echt geen stroom naar de accu gaat. En pas na gebruik op de accu, en ik meen ontladen tot onder de 50% (kan ook minder zijn) dat die hem oplaad tot 60%.
Zal inderdaad afhankelijk zijn van merk en model. Mijn laptops (3 jaar en 6-plus jaar) hebben een instelling voor "permanent op adapter aangesloten". Wat het precies doet weet ik niet - maar het zou helpen om de levensduur van de batterij te verlegen.

[ Voor 6% gewijzigd door Airw0lf op 04-02-2026 19:58 ]

makes it run like clockwork


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Inderdaad, ik heb deze ook als zodanig ingesteld. Het is een Lenovo. Ik zal wel eens moeten kijken of ik er een monitor op kan bouwen, op batterij wear, bedoel ik dan.

...Zo veel te doen, ik heb nog zo veel te doen...

Vandaag wat zaken voorbereid om Portainer te gaan vervangen voor Dockhand, of in ieder geval parallel te gaan draaien. Ik heb me in het begin nogal bezondigd aan het deployen van stacks rechtstreeks vanuit de Portainer GUI. Maar dan worden compose.yml, env file en volumes redelijk verstopt. Heeft me even gekost om uit te vlooien waar een en ander precies leefde.
Straks compose en env opnemen in Dockhand, volumes definiëren en dan de boel aanslingeren. Eens kijken of ik de persistentie goed heb geregeld.
Sorry voor de cross-posting. Dit hoort wellicht meer in het docker topic thuis.

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • DarkAllMan
  • Registratie: Mei 2004
  • Laatst online: 13-02 10:44
Beste ProxMoxers...
Ik zit niet niet heel lang in de materie, maar ik heb nu wel mijn 1e probleem. Ik heb Immich draaien in een LXC met een NFS (mp0: /mnt/media/Immich,mp=/mnt/Immich) mount naar mijn Synology. Vandaag heb ik de update naar 2.5.3 gedaan en nu start de LXC niet meer op.
code:
1
2
3
lxc_init: 845 Failed to run lxc.hook.pre-start for container "109"
__lxc_start: 2046 Failed to initialize container "109"
startup for container '109' failed
Na verder onderzoek kom ik uit op:
code:
1
utils - ../src/lxc/utils.c:run_buffer:560 - Script exec /usr/share/lxc/hooks/lxc-pve-prestart-hook 109 lxc pre-start produced output: failed to propagate uid and gid to mountpoint: Operation not permitted
Wie weet wat ik kan doen om dit op te lossen?


Ah, ik geloof dat ik het al heb gevonden:
https://forum.proxmox.com...-lxc-mount-points.180161/
Tijdelijk downgraden van de pve-container...
code:
1
apt install pve-container=6.0.18
Eens kijken of ik nu weer verder kom.

Update.... de update van Immich gaf nog wel een script error, maar na een reboot werkt alles weer en is hij geupdate..... de downgrade van de pve-container heeft dus geholpen.

[ Voor 21% gewijzigd door DarkAllMan op 05-02-2026 10:24 ]


  • Gunner
  • Registratie: Oktober 1999
  • Niet online

Gunner

Invincibles

@Koepert met Pulse v 5.1.2 lijtk die AI nag verdwenen te zijn.

Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC


  • Koepert
  • Registratie: Augustus 2013
  • Laatst online: 11:58
Gunner schreef op donderdag 5 februari 2026 @ 11:10:
@Koepert met Pulse v 5.1.2 lijtk die AI nag verdwenen te zijn.
Ah dat is wel Nice,

Voorlopig blijf ik nog ff bij Beszel (& Dockhand) maar ik hou ze in de gaten.

  • webgangster
  • Registratie: Juli 2006
  • Laatst online: 16-02 20:15
ElCondor schreef op woensdag 4 februari 2026 @ 18:47:
Yes! Vandaag mijn tweede JetKVM binnengekomen. Beide main ProxMox nodes nu voorzien. En ze worden beide gepowered door een laptop die dienst doet als fileserver. Redelijk powersafe dus 8)

ElCondor had laatst een van de nodes uitgezet, met het idee dat ik hem ook weer aan kon zetten dmv de JetKVM. Omdat deze in een non-powered USB socket zat op de node zelf, was de JetKVM ook uit ;( :F
Zet je hem dan aan met een WOL pakketje of heb je de Power Adapter besteld voor JetKVM?

  • Djie
  • Registratie: April 2007
  • Laatst online: 14-02 09:01
Quad schreef op dinsdag 3 februari 2026 @ 15:51:
[...]

Ik ook, alleen is het eea al weer zoveel veranderd dat ik het weer moet aanpassen/opschonen. Onderstaand is van een tijdje terug alweer.
[Afbeelding][Afbeelding][Afbeelding]
[Afbeelding][Afbeelding][Afbeelding]
Geinig, hier ook eenzelfde setup in HA met Proxmox VE

Afbeeldingslocatie: https://tweakers.net/i/JPeDnGrfzI08skNt7e2Us7OjWo0=/x800/filters:strip_icc():strip_exif()/f/image/OVehgvcfWEwXMq18v9iVDvGT.jpg?f=fotoalbum_large

  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

webgangster schreef op donderdag 5 februari 2026 @ 12:47:
[...]

Zet je hem dan aan met een WOL pakketje of heb je de Power Adapter besteld voor JetKVM?
Neuh, alles van WOL voorzien. Als de switch niet up is, dan heeft het aanzetten van de node ook geen zin. Dus zit wel voldoende zo.

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 12:30
DarkAllMan schreef op donderdag 5 februari 2026 @ 10:12:
Beste ProxMoxers...
Ik zit niet niet heel lang in de materie, maar ik heb nu wel mijn 1e probleem. Ik heb Immich draaien in een LXC met een NFS (mp0: /mnt/media/Immich,mp=/mnt/Immich) mount naar mijn Synology. Vandaag heb ik de update naar 2.5.3 gedaan en nu start de LXC niet meer op.
code:
1
2
3
lxc_init: 845 Failed to run lxc.hook.pre-start for container "109"
__lxc_start: 2046 Failed to initialize container "109"
startup for container '109' failed
Na verder onderzoek kom ik uit op:
code:
1
utils - ../src/lxc/utils.c:run_buffer:560 - Script exec /usr/share/lxc/hooks/lxc-pve-prestart-hook 109 lxc pre-start produced output: failed to propagate uid and gid to mountpoint: Operation not permitted
Wie weet wat ik kan doen om dit op te lossen?


Ah, ik geloof dat ik het al heb gevonden:
https://forum.proxmox.com...-lxc-mount-points.180161/
Tijdelijk downgraden van de pve-container...
code:
1
apt install pve-container=6.0.18
Eens kijken of ik nu weer verder kom.

Update.... de update van Immich gaf nog wel een script error, maar na een reboot werkt alles weer en is hij geupdate..... de downgrade van de pve-container heeft dus geholpen.
Als je 19 of zelfs 6 posts terug had gelezen, had je de oplossing direct al gehad :)

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 14:06
Djie schreef op donderdag 5 februari 2026 @ 13:28:
[...]


Geinig, hier ook eenzelfde setup in HA met Proxmox VE

[Afbeelding]
Ziet er ook netjes uit. Uiteindelijk heb je er niet heel veel aan, aan zo'n dashboard.
Belangrijkste is dat ik een notificatie krijg wanneer een LXC of VM te lang offline staat en dat HA hem voor mij kan starten (en dat werkt!).

Is Proxmox plat dan merk ik dat wel aan andere zaken.

Alles went behalve een Twent.
nggyu nglyd


  • DarkAllMan
  • Registratie: Mei 2004
  • Laatst online: 13-02 10:44
Kan ik alle andere updates wel installeren behalve PVE-Container 6.1.0?
Of zijn daar ook issues mee?

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 12:30
DarkAllMan schreef op vrijdag 6 februari 2026 @ 08:36:
Kan ik alle andere updates wel installeren behalve PVE-Container 6.1.0?
Of zijn daar ook issues mee?
Op het moment dat ik de installatie deed, ging dat prima, afgezien van die pve-container versie dus.
Maar er zijn inmiddels alweer nieuwere ... ik zou zeggen ... probeer het en laat het ons weten ;)

Ik zag alleen nog geen nieuwere versie van pve-container, dus ik had zoiets ... ik wacht nog wel ff tot die er is :)

[ Voor 12% gewijzigd door Theetjuh op 06-02-2026 09:04 ]


  • Gizz
  • Registratie: Maart 2001
  • Laatst online: 13:13

Gizz

Dunder-Mifflin, Inc.

Misschien niet 100% Proxmox-specifiek, maar ik ben benieuwd hoe jullie updates van al je pakketjes in de gaten houden en uitvoeren. Via Github jezelf mailtjes laten sturen als er er nieuwe releases zijn? Gewoon eens in de zoveel tijd bij al je LXCs langslopen in de shell openen om te updaten?

Dat laatste is eigenlijk mijn 'strategie': (meestal) eens per week even in de shell van elke LXC duiken, update typen (praktisch al mijn LXC's zijn aangemaakt via de helper scripts) en dan vanzelf zien of er iets geupdate wordt of dat ik al de laatste versie draaide. En op de host apt-get update en apt-get upgrade. Maar een erg verfijnde aanpak is dit niet, heb ik het idee :P

Ik zie nu het script PVE LXC Apps Updater op Proxmox VE Helder-Scripts staan, waarmee alle LXC's in één keer geupdate worden. Dat maakt het updaten al een klusje met veel minder stappen.

Ben benieuwd hoe anderen dit aanpakken, ook met het oog op breaking changes die soms bij updates komen kijken :)

Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX


  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 12:58
Ik heb sinds kort een deel via Podman Quadlets (Docker alternatief) lopen. De Quadlet files heb ik in Git staan die weer in Forgejo (Gitea fork, GitHub alternatief) staan. Vervolgens gaat Renovate daar 1x per dag overheen die pull requests aanmaakt voor updates.

Waarbij ik dus regelmatig (niet perse elke dag) even de pull requests langs loop. Extra voordeel is dat, waar mogelijk, Renovate ook meteen het changelog / release notes er bij zet. Hoef ik die niet op te zoeken.

En zo'n zelfde setup kun je ook met Docker (/Docker Compose) doen. Waarbij er in die hoek ook veel software te vinden is in de GitOps hoek. Dockhand komt de laatste tijd vaker voorbij, of Komodo. Beide ondersteunen Git en webhooks. Waarbij je bij het mergen van een PR een endpoint van Dockhand/Komodo/... laat aanroepen die vervolgens de nieuwste file(s) binnen haalt en deze deployed.

Software deployments en updates beheer je dan in Git waardoor je versie historie, van de config files, hebt en dus ook terug kunt bv. En Dockhand/Komodo/... zorgen na wijzigingen voor de automatische uitrol ervan. En Renovate maakt automatisch pull requests aan als er nieuwe versies zijn. (Uiteraard dan met versie tags voor de containers, als je de latest tag gebruikt werkt dat uiteraard niet).

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 13:44
Ik maak geen gebruik van helper scripts.

Updates doe ik wekelijks met een bash script wat via een cronjob gestart wordt. Dit geldt zowel voor proxmox zelf als de vm's en lxc's. Docker containers gebeurd ook wekelijks - maar dan via watchtower.

Breekt er iets, dan heb ik de zaterdag en zondag om dingen te fixen. Dit heb ik tot nu toe twee keer nodig gehad - een keer voor de omada controller en een keer voor pihole - beiden was het gevolg van een major upgrade (d.w.z. bij beiden van v5 naar v6).

makes it run like clockwork


  • Koepert
  • Registratie: Augustus 2013
  • Laatst online: 11:58
Ik doe het volledig met t handje, waardoor ik het geregeld vergeet :P Dus ben ook nog wel echt op zoek naar n goede optie.

Moet zeggen dat ik mijn homelabje ook te "basic" vond om daar echt tijd in te steken. Nu wel iets meer tijd aan gespendeerd

- Mijn 2 hosts rapporteren per Discord webhook als er updates zijn, waarna ik kies wanneer ik ze uitvoer
- Ik heb 1 HAOS VM.. HAOS update, maar de VM zelf.. geen idee eigenlijk
- En dan heb ik nog 4 LXC containers op de andere host
- 1 Alpine met Adguard om te proberen (alpine dan) die ik vandaag toevallig van 3.18 naar 3.23 heb geupdate..
- 1 Debian met Docker Nginx-Proxy Manager --> Vandaag van 12 naar 13
- 1 Debian met Docker --> Dockge, Dockhand en Uptime Kuma. Daar heb ik de fout gemaakt Dockhand uit te rollen vanuit Dockge. Maar Dockhand bevalt me beter, dus ik ben nu wat aan t kijken of ik ook op enige manier dit kan migreren, want Dockge doet toch wel "iets" ook met die compose volgens mij, als is het qua rechten, want nu staat dockge in mn /opt/stacks dir en daarin staat dockhand met binnen die container weer de data, dat gaat nog niet helemaal lekker.
- 1 Debian met Beszel die ik ook vandaag van 12 naar 13 heb geupdate EN Beszel heb geupdate. Die overigens wel met een helper script geinstalleerd.
- 1 Debian Turnkey Fileserver die voor wat intern delen in gebruik is en ik de moeite van update niet waard vond. Ik zoek nog n alternatief voor iets dat ik als remote disk kan mounten in verkenner/finder/linux file explorer om zo bestanden op te zetten die ik op een later moment op een andere pc weer kan openen. Dus geen "instant transfer" maar ook geen Nextcloud/NAS storage oplossing.

Zoals je leest, vandaag was update-dag. Ik wil hier wel wat anders mee maar loop dan toch tegen mn te beperkte kennis aan om t 'goed' te doen. Want dit was allemaal "Oh ja dit moet ook nog" terwijl ik met Dockhand nu wel veel eenvoudiger Dockge, Uptime, Nginx kan updaten. Adguard vanwege Alpine valt daar weer buiten, maar ook niet echt nodig. Alpine gekozen vanwege snelheid van reboot overigens. LXC Debian containers met Docker rebooten bij mij heeeel langzaam (tot Adguard weer up was althans) terwijl Alpine supersnel is. Ik ben er nog niet achter waarom, dus accepteer deze oplossing, maar t is wel ff wennen tov werken met een "Apt OS", niet moeilijker, anders.

Ik heb overigens dit deels in allemaal aparte LXC containers om gewoon de container te kunnen killen als ik iets anders wil. Maar met die Dockhand/Dockge container moet ik nog wel iets.

  • Jerie
  • Registratie: April 2007
  • Niet online
Gizz schreef op vrijdag 6 februari 2026 @ 15:27:
Misschien niet 100% Proxmox-specifiek, maar ik ben benieuwd hoe jullie updates van al je pakketjes in de gaten houden en uitvoeren. Via Github jezelf mailtjes laten sturen als er er nieuwe releases zijn? Gewoon eens in de zoveel tijd bij al je LXCs langslopen in de shell openen om te updaten?

Dat laatste is eigenlijk mijn 'strategie': (meestal) eens per week even in de shell van elke LXC duiken, update typen (praktisch al mijn LXC's zijn aangemaakt via de helper scripts) en dan vanzelf zien of er iets geupdate wordt of dat ik al de laatste versie draaide. En op de host apt-get update en apt-get upgrade. Maar een erg verfijnde aanpak is dit niet, heb ik het idee :P

Ik zie nu het script PVE LXC Apps Updater op Proxmox VE Helder-Scripts staan, waarmee alle LXC's in één keer geupdate worden. Dat maakt het updaten al een klusje met veel minder stappen.

Ben benieuwd hoe anderen dit aanpakken, ook met het oog op breaking changes die soms bij updates komen kijken :)
RSS feed voor CVEs (in Debian). Watchtowerr voor de containers (living on the edge), OS handmatig met topgrade (geen unattended-upgrades). Uiteindelijk wil ik graag Watchtowerr deels met Diun vervangen, en deels unattended-upgrades uitrollen. Maar het blijft altijd een SPOF risico.

Op FreeBSD (OPNsense) zegt topgrade om de een of andere reden welke CVEs in welke ports zitten. Is iets FreeBSD specifieks, en dat doen ze goed!

Uptime-kuma voor monitoring. Heb ook LibreNMS, beetje overkill.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Met wat werk is het me nu gelukt om Dockhand aan de praat te krijgen op mijn omgeving, geen problemen daar, maar wat me opvalt, ik heb twee dockers omgevingen draaien op andere VM's. De een op Ubuntu en de ander op Alpine, in een LCX container op ProxMox. Ik heb daar een Hawser agent deployed om ook deze instances te kunnen monitoren.
Nu komen de CPU en Mem stats van de Ubuntu docker environment netjes door maar de stats vanaf de Alpine omgeving zijn allemaal 0. Heeft iemand dit meegemaakt? Ik heb wat zitten zoeken, maar ook op deGithub kan ik hieromtrent geen echte issues vinden. Heeft dit te maken met het feit dat het hier om een container gaat of omdat het een Alpine linux installatie is? :?

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • Iconlast
  • Registratie: Februari 2010
  • Laatst online: 14-02 17:07
ElCondor schreef op vrijdag 6 februari 2026 @ 18:40:
Met wat werk is het me nu gelukt om Dockhand aan de praat te krijgen op mijn omgeving, geen problemen daar, maar wat me opvalt, ik heb twee dockers omgevingen draaien op andere VM's. De een op Ubuntu en de ander op Alpine, in een LCX container op ProxMox. Ik heb daar een Hawser agent deployed om ook deze instances te kunnen monitoren.
Nu komen de CPU en Mem stats van de Ubuntu docker environment netjes door maar de stats vanaf de Alpine omgeving zijn allemaal 0. Heeft iemand dit meegemaakt? Ik heb wat zitten zoeken, maar ook op deGithub kan ik hieromtrent geen echte issues vinden. Heeft dit te maken met het feit dat het hier om een container gaat of omdat het een Alpine linux installatie is? :?
Alpine is beperkt, of misschien dat er een sensor mist.. Of niet geconfigureerd is.

  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Hmmm, ok, maar hoe activeer ik die dan? O-)

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 06:37
Even een vraagje voor degene die een proxmox cluster hebben. Ik heb een 3 node proxmox cluster op 2,5gbe netwerk. Deze wil ik upgraden naar een 10gbe netwerk. Ben alleen nog op zoek naar een managed 8 poort sfp+ switch. Heb ook al op aliexpress gekeken maar heb zo mn vraagtekens bij de stabiliteit van de switches die daar aangeboden worden. Hebben jullie nog suggesties?

  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 11:55

InjecTioN

¯\_(ツ)_/¯

jwvdst schreef op zaterdag 7 februari 2026 @ 10:36:
Even een vraagje voor degene die een proxmox cluster hebben. Ik heb een 3 node proxmox cluster op 2,5gbe netwerk. Deze wil ik upgraden naar een 10gbe netwerk. Ben alleen nog op zoek naar een managed 8 poort sfp+ switch. Heb ook al op aliexpress gekeken maar heb zo mn vraagtekens bij de stabiliteit van de switches die daar aangeboden worden. Hebben jullie nog suggesties?
Ik zie bij ServeTheHome regelmatig apparaten van o.a. Mikrotik of Unify langs komen. Ook verschillende varianten van wat meer enterprise merken of juist meer onbekende (ome Ali) merken. Ze hebben daar regelmatig switches ter review die mogelijk interessant zijn om eens te overwegen.

Laat t.z.t. vooral weten waar je voor gegaan bent en waarom. :)

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 06:37
InjecTioN schreef op zaterdag 7 februari 2026 @ 11:51:
[...]

Ik zie bij ServeTheHome regelmatig apparaten van o.a. Mikrotik of Unify langs komen. Ook verschillende varianten van wat meer enterprise merken of juist meer onbekende (ome Ali) merken. Ze hebben daar regelmatig switches ter review die mogelijk interessant zijn om eens te overwegen.

Laat t.z.t. vooral weten waar je voor gegaan bent en waarom. :)
Ik zal daar eens kijken.
Heb nog meerdere intel x710 sfp+ kaarten en dac kabels liggen dus zou jammer zijn als ik daar niks mee doe

  • m.eddy
  • Registratie: Juni 2007
  • Nu online
jwvdst schreef op zaterdag 7 februari 2026 @ 12:05:
[...]

Ik zal daar eens kijken.
Heb nog meerdere intel x710 sfp+ kaarten en dac kabels liggen dus zou jammer zijn als ik daar niks mee doe
Moet het allemaal sfp+ zijn of ook een paar sfp?
Anders is deze Mikrotik wellicht wat https://tweakers.net/pric...k-crs310-1g-5s-4s+in.html

  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 06:37
m.eddy schreef op zaterdag 7 februari 2026 @ 12:16:
[...]


Moet het allemaal sfp+ zijn of ook een paar sfp?
Anders is deze Mikrotik wellicht wat https://tweakers.net/pric...k-crs310-1g-5s-4s+in.html
Liefst allemaal sfp+
Wil de switch ook gebruiken als backbone gebruiken voor de switch in de meterkast en de switch op de bovenverdieping

  • m.eddy
  • Registratie: Juni 2007
  • Nu online
jwvdst schreef op zaterdag 7 februari 2026 @ 12:29:
[...]

Liefst allemaal sfp+
Wil de switch ook gebruiken als backbone gebruiken voor de switch in de meterkast en de switch op de bovenverdieping
Dan deze maar, iets duurder dus https://tweakers.net/pric...otik-crs309-1g-8s+in.html

  • Jerie
  • Registratie: April 2007
  • Niet online
jwvdst schreef op zaterdag 7 februari 2026 @ 10:36:
Even een vraagje voor degene die een proxmox cluster hebben. Ik heb een 3 node proxmox cluster op 2,5gbe netwerk. Deze wil ik upgraden naar een 10gbe netwerk. Ben alleen nog op zoek naar een managed 8 poort sfp+ switch. Heb ook al op aliexpress gekeken maar heb zo mn vraagtekens bij de stabiliteit van de switches die daar aangeboden worden. Hebben jullie nog suggesties?
Als je machine TB heeft kun je daar networking op installeren. Je kunt zelfs TCP/IP over USB doen, al moet je dan ook nadenken over data integriteit.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • Luchtenburger
  • Registratie: Januari 2002
  • Laatst online: 11:49
Ik gebruik proxmox met maar één VM voor home assistant. Ik heb dit ooit eens geïnstalleerd en niet echt weer naar gekeken, het draait altijd super stabiel.
Nu zie ik dat ik nog op versie 7.4.20 draai. Ik wil dus graag upgraden naar de laatste versie, maar eerst maar eens naar versie 8.
Hiervoor heb ik de handleiding op de proxmox website ( https://pve.proxmox.com/wiki/Upgrade_from_7_to_8 ) proberen te volgen.

Hierbij loop ik echter tegen het volgende probleem aan als ik de upgrade wil uitvoeren:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
root@pve:~# apt upgrade
Reading package lists... Done
Building dependency tree... Done
Reading state information... Done
Calculating upgrade... Done
Some packages could not be installed. This may mean that you have
requested an impossible situation or if you are using the unstable
distribution that some required packages have not yet been created
or been moved out of Incoming.
The following information may help to resolve the situation:

The following packages have unmet dependencies:
 libgnutlsxx30 : Depends: libgnutls30 (= 3.7.9-2+deb12u5) but 3.7.1-5+deb11u8 is to be installed
E: Broken packages
Ik ben dus absoluut geen proxmox of linux kenner, ik moet alles met veel googlen aanpassen en oplossen. In dit geval lukt het mij echter niet om een een oplossing te vinden voor dit probleem.

Mijn /etc/apt/sources.list ziet er zo uit:
code:
1
2
3
4
5
6
7
8
# deb http://ftp.nl.debian.org/debian bookworm main contrib

# deb http://ftp.nl.debian.org/debian bookworm-updates main contrib

# security updates
deb http://security.debian.org bookworm-security main contrib

deb http://download.proxmox.com/debian/pve bookworm pve-no-subscription
En mijn /etc/apt/sources.list.d/pve-enterprise.list ziet er zo uit:
code:
1
#deb https://enterprise.proxmox.com/debian/pve bookworm pve-enterprise
Wat moet ik doen om het probleem met de 'libgnutlsxx30' package op te lossen of waar kan ik hier meer informatie over vinden?

Nibe S2125-12, VVMS320 / Home Assistant (MinisForum U700; CONBEE II; RF-LINK)


  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 06:37
Jerie schreef op zaterdag 7 februari 2026 @ 15:21:
[...]


Als je machine TB heeft kun je daar networking op installeren. Je kunt zelfs TCP/IP over USB doen, al moet je dan ook nadenken over data integriteit.
Helaas geen TB.

Heb even op serve the home gekeken en kwam de volgende review tegen: https://www.servethehome....ombo-10gbe-switch-review/
Als ik de review zo lees dan presteert de switch in verhouding met de prijs gewoon goed. En een paar extra poorten is ook nooit verkeerd. Er is ook nog een 12x sfp+ variant van deze switch die een paar euro goedkoper is. Begin nu toch weer te twijfelen.

  • nassau
  • Registratie: December 2000
  • Laatst online: 10:33
Luchtenburger schreef op zaterdag 7 februari 2026 @ 17:02:
Ik gebruik proxmox met maar één VM voor home assistant. Ik heb dit ooit eens geïnstalleerd en niet echt weer naar gekeken, het draait altijd super stabiel.
Nu zie ik dat ik nog op versie 7.4.20 draai. Ik wil dus graag upgraden naar de laatste versie, maar eerst maar eens naar versie 8.
Hiervoor heb ik de handleiding op de proxmox website ( https://pve.proxmox.com/wiki/Upgrade_from_7_to_8 ) proberen te volgen.

Hierbij loop ik echter tegen het volgende probleem aan als ik de upgrade wil uitvoeren:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
root@pve:~# apt upgrade
Reading package lists... Done
Building dependency tree... Done
Reading state information... Done
Calculating upgrade... Done
Some packages could not be installed. This may mean that you have
requested an impossible situation or if you are using the unstable
distribution that some required packages have not yet been created
or been moved out of Incoming.
The following information may help to resolve the situation:

The following packages have unmet dependencies:
 libgnutlsxx30 : Depends: libgnutls30 (= 3.7.9-2+deb12u5) but 3.7.1-5+deb11u8 is to be installed
E: Broken packages
Ik ben dus absoluut geen proxmox of linux kenner, ik moet alles met veel googlen aanpassen en oplossen. In dit geval lukt het mij echter niet om een een oplossing te vinden voor dit probleem.

Mijn /etc/apt/sources.list ziet er zo uit:
code:
1
2
3
4
5
6
7
8
# deb http://ftp.nl.debian.org/debian bookworm main contrib

# deb http://ftp.nl.debian.org/debian bookworm-updates main contrib

# security updates
deb http://security.debian.org bookworm-security main contrib

deb http://download.proxmox.com/debian/pve bookworm pve-no-subscription
En mijn /etc/apt/sources.list.d/pve-enterprise.list ziet er zo uit:
code:
1
#deb https://enterprise.proxmox.com/debian/pve bookworm pve-enterprise
Wat moet ik doen om het probleem met de 'libgnutlsxx30' package op te lossen of waar kan ik hier meer informatie over vinden?
Zo te zien mis je de main repo. Waarom staat de eerste regel in commentaar?

Op 1 van mijn debian machines ziet het er zo uit:
code:
1
2
3
deb http://deb.debian.org/debian/ bookworm main
deb http://security.debian.org/debian-security bookworm-security main
deb http://deb.debian.org/debian/ bookworm-updates main
Dan apt update en opnieuw proberen

  • commentator
  • Registratie: Mei 2004
  • Laatst online: 07:05
Luchtenburger schreef op zaterdag 7 februari 2026 @ 17:02:
Ik gebruik proxmox met maar één VM voor home assistant. Ik heb dit ooit eens geïnstalleerd en niet echt weer naar gekeken, het draait altijd super stabiel.
Nu zie ik dat ik nog op versie 7.4.20 draai. Ik wil dus graag upgraden naar de laatste versie, maar eerst maar eens naar versie 8.
Hiervoor heb ik de handleiding op de proxmox website ( https://pve.proxmox.com/wiki/Upgrade_from_7_to_8 ) proberen te volgen.

Hierbij loop ik echter tegen het volgende probleem aan als ik de upgrade wil uitvoeren:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
root@pve:~# apt upgrade
Reading package lists... Done
Building dependency tree... Done
Reading state information... Done
Calculating upgrade... Done
Some packages could not be installed. This may mean that you have
requested an impossible situation or if you are using the unstable
distribution that some required packages have not yet been created
or been moved out of Incoming.
The following information may help to resolve the situation:

The following packages have unmet dependencies:
 libgnutlsxx30 : Depends: libgnutls30 (= 3.7.9-2+deb12u5) but 3.7.1-5+deb11u8 is to be installed
E: Broken packages
Ik ben dus absoluut geen proxmox of linux kenner, ik moet alles met veel googlen aanpassen en oplossen. In dit geval lukt het mij echter niet om een een oplossing te vinden voor dit probleem.

Mijn /etc/apt/sources.list ziet er zo uit:
code:
1
2
3
4
5
6
7
8
# deb http://ftp.nl.debian.org/debian bookworm main contrib

# deb http://ftp.nl.debian.org/debian bookworm-updates main contrib

# security updates
deb http://security.debian.org bookworm-security main contrib

deb http://download.proxmox.com/debian/pve bookworm pve-no-subscription
En mijn /etc/apt/sources.list.d/pve-enterprise.list ziet er zo uit:
code:
1
#deb https://enterprise.proxmox.com/debian/pve bookworm pve-enterprise
Wat moet ik doen om het probleem met de 'libgnutlsxx30' package op te lossen of waar kan ik hier meer informatie over vinden?
waarom maak je niet even een backup van die ene vm op een externe harde schijf en in stalleer je de boel niet gewoon even opnieuw zodat alles weer fris en fruitig en bij de tijd is? Scheelt een hoop uitzoekwerk en mogelijk ook nog extra frustraties van de upgrade die daarna ook weer moet

  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 11:55

InjecTioN

¯\_(ツ)_/¯

jwvdst schreef op zaterdag 7 februari 2026 @ 17:26:
[...]

Helaas geen TB.

Heb even op serve the home gekeken en kwam de volgende review tegen: https://www.servethehome....ombo-10gbe-switch-review/
Als ik de review zo lees dan presteert de switch in verhouding met de prijs gewoon goed. En een paar extra poorten is ook nooit verkeerd. Er is ook nog een 12x sfp+ variant van deze switch die een paar euro goedkoper is. Begin nu toch weer te twijfelen.
Die Sodola SL-SWTGW2C48NS heeft inderdaad wel erg nette specs voor die prijs (~€200,00 en ~€20,00 verzendkosten). Ik ben ergens ook nog aan het rondkijken wat ik als alternatief kan gaan gebruiken. Maar ik verwacht niet dat ik er al baat bij heb in mijn situatie. :)

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • Luchtenburger
  • Registratie: Januari 2002
  • Laatst online: 11:49
@nassau en @commentator dank voor jullie feedback.

Eerste regel weer actief gemaakt, daarna lukte de upgrade wel, ik zit intussen op versie 8.4.16, dank hiervoor!

Ik heb er inderdaad al over nagedacht om proxmox opnieuw te installeren, maar gezien ik niet super handig ben in deze materie durf ik het nog niet aan.
Als wij momenteel home assistant niet hebben draaien, is het een stuk lastiger de lampen aan te doen.

Hier moet ik natuurlijk iets voor gaan verzinnen, de hardware kan ook een keer defect raken.
Ik heb nog een oude laptop liggen, ik denk dat ik daar binnenkort eens mee ga oefenen.

Nibe S2125-12, VVMS320 / Home Assistant (MinisForum U700; CONBEE II; RF-LINK)


  • ElCondor
  • Registratie: Juni 2001
  • Nu online

ElCondor

Geluk is Onmisbaar

Hmmm, aan de hand van deze link geprobeerd om onder andere sysstat te installeren op de LXC container, maar dit lijkt niet helemaal te gaan zoals het hoort. Het starten van de sysstat service geeft de foutmelding 'service sysstat does not exit'. Wut? De package zelf is wel netjes geïnstalleerd. How now?

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • d3vlin
  • Registratie: September 2000
  • Laatst online: 08:18
Gizz schreef op vrijdag 6 februari 2026 @ 15:27:
Misschien niet 100% Proxmox-specifiek, maar ik ben benieuwd hoe jullie updates van al je pakketjes in de gaten houden en uitvoeren.
Je kunt apticron-systemd installeren, dan krijg je een mailtje als er updates zijn en hoef je niet steeds zelf te kijken. unattended-upgrades installeert standaard automatisch alle security updates.

Leaping Lab Rats!


  • Jerie
  • Registratie: April 2007
  • Niet online
jwvdst schreef op zaterdag 7 februari 2026 @ 17:26:
[...]

Helaas geen TB.

Heb even op serve the home gekeken en kwam de volgende review tegen: https://www.servethehome....ombo-10gbe-switch-review/
Als ik de review zo lees dan presteert de switch in verhouding met de prijs gewoon goed. En een paar extra poorten is ook nooit verkeerd. Er is ook nog een 12x sfp+ variant van deze switch die een paar euro goedkoper is. Begin nu toch weer te twijfelen.
STH levert goede tests qua features en prijs/features. Ik zie dat ze ook W usage rapporteren. 13W idle is voor dit soort switches gangbaar maar er gaan zuinigere RTL-based switches komen. In het zuinige server deel 3 topic hebben we hier discussie over gehad. Let wel op dat sommigen daar een hyperfocus hebben op W usage; dus verwacht de vraag 'is 10 gbit echt nodig?'

Let ook op deze opmerking:
In terms of noise, this was not a silent switch with the fan.
Je kunt waarschijnlijk de fan vervangen met een Noctua. Dat heb ik ook met twee switches gedaan. Nadeel is er ook: ze worden dan warmer. Dit spul maakt herrie omdat het koel in de serverruimte moet blijven. Geluid doet er dan niet toe, temperatuur wel. Ben je dus van plan het is de huiskamer te zetten, dan zou ik de fan vervangen met een Noctua.

Verder lijkt dit een prima deal, maar het is wel Sino-ware dus verwacht geen software updates. Voor een managed switch is dat wel belangrijk.

En daarom zou ik voor een Microtik gaan. OS is op FreeBSD gebaseerd en regelmatige software updates. OS is proprietary, maar in de praktijk is dat andere Sino-spul dat ook. Dat, en/of even wachten op de zuinigere RTL chips. De single port met RJ45 zitten rond 1W op 10 gbit en zijn al verkrijgbaar. SFP+ variant heb ik slechts 1x gezien, switches (nog) niet maar het komt er aan. En de prijs van switches lijkt mij niet aangetast door AI. Heeft immers niets met RAM, GPU, of storage te maken. (Famous last words? :+)

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • m.eddy
  • Registratie: Juni 2007
  • Nu online
Hier ook voorkeur Mikrotik:
- fanless, wel flink heatsink
- kan met POE gevoed worden
- non-china als dat een ding voor je is
- idd firmware updates (voor mijn oude css326-24g-2s komt er ieder jaar nog wel een firmware update uit)

  • Theone098
  • Registratie: Februari 2015
  • Laatst online: 09:38
Hier ook een Mikrotik gebruiker. Als glas geen optie is kun je overwegen om een Noctua fan op de sfp+ module(s) te installeren.

Ik heb dat in combinatie met een USB naar 4-pins fan speed regelaar gedaan en dat werkt heel fijn. Lage snelheid is al voldoende om de sfp+ RJ45 10Gb module koel genoeg te houden. Op joetjoep is voldoende materiaal te vinden.

Fan:
NF-A4x10 PWM fan

Over Mikrotik: flinke leercurve maar grote community en goede documentatie. Spul blijft maar gaan en ook discontinued spullen krijgen nog steeds firmware updates. Het is alleen niet meer te koop.

[ Voor 20% gewijzigd door Theone098 op 07-02-2026 19:46 ]


  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 06:37
Jerie schreef op zaterdag 7 februari 2026 @ 18:51:
[...]


STH levert goede tests qua features en prijs/features. Ik zie dat ze ook W usage rapporteren. 13W idle is voor dit soort switches gangbaar maar er gaan zuinigere RTL-based switches komen. In het zuinige server deel 3 topic hebben we hier discussie over gehad. Let wel op dat sommigen daar een hyperfocus hebben op W usage; dus verwacht de vraag 'is 10 gbit echt nodig?'

Let ook op deze opmerking:


[...]


Je kunt waarschijnlijk de fan vervangen met een Noctua. Dat heb ik ook met twee switches gedaan. Nadeel is er ook: ze worden dan warmer. Dit spul maakt herrie omdat het koel in de serverruimte moet blijven. Geluid doet er dan niet toe, temperatuur wel. Ben je dus van plan het is de huiskamer te zetten, dan zou ik de fan vervangen met een Noctua.

Verder lijkt dit een prima deal, maar het is wel Sino-ware dus verwacht geen software updates. Voor een managed switch is dat wel belangrijk.

En daarom zou ik voor een Microtik gaan. OS is op FreeBSD gebaseerd en regelmatige software updates. OS is proprietary, maar in de praktijk is dat andere Sino-spul dat ook. Dat, en/of even wachten op de zuinigere RTL chips. De single port met RJ45 zitten rond 1W op 10 gbit en zijn al verkrijgbaar. SFP+ variant heb ik slechts 1x gezien, switches (nog) niet maar het komt er aan. En de prijs van switches lijkt mij niet aangetast door AI. Heeft immers niets met RAM, GPU, of storage te maken. (Famous last words? :+)
geluid maakt mij niet uit. De bedoeling is dat mn cluster samen met het accu pakket in mn tuinhuis die ik vant voorjaar ga bouwen komt te staan. Wil daar dan ook een 19 inch server rack maken. Laatste paar watt stroombesparing geef ik niet om. En vraag me vaak af of de duurdere componenten/onderdelen wel opwegen tegen de stroombesparing
Theone098 schreef op zaterdag 7 februari 2026 @ 19:41:
Hier ook een Mikrotik gebruiker. Als glas geen optie is kun je overwegen om een Noctua fan op de sfp+ module(s) te installeren.
Bedoeling is om met DAC kabels, glas en 1 of 2 ethernet kabels (1gbe) te gaan werken dus verwacht dat de interne fan het dan wel af kan

[ Voor 9% gewijzigd door jwvdst op 07-02-2026 20:07 ]


  • Jerie
  • Registratie: April 2007
  • Niet online
jwvdst schreef op zaterdag 7 februari 2026 @ 19:54:
[...]
geluid maakt mij niet uit. De bedoeling is dat mn cluster samen met het accu pakket in mn tuinhuis die ik vant voorjaar ga bouwen komt te staan. Wil daar dan ook een 19 inch server rack maken. Laatste paar watt stroombesparing geef ik niet om. En vraag me vaak af of de duurdere componenten/onderdelen wel opwegen tegen de stroombesparing

[...]

Bedoeling is om met DAC kabels, glas en 1 of 2 ethernet kabels (1gbe) te gaan werken dus verwacht dat de interne fan het dan wel af kan
Oh dan zou ik voor een huidige Microtik gaan. DAC kabels zijn wel heel nice voor W beperking.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 06:37
Jerie schreef op zaterdag 7 februari 2026 @ 21:25:
[...]


Oh dan zou ik voor een huidige Microtik gaan. DAC kabels zijn wel heel nice voor W beperking.
klopt waarom ook niet als ik de dac kabels al heb en de switch bij de servers komt te staan?
mn 3 servers wil ik elk middels 2 DAC kabels aan de switch hangen. daarnaast 2x glasvezel voor naar de switch in de meterkast en voor de switch op de bovenverdieping. Oja een AP en de omvormer van de accupakket komen er ook nog bij op dus dan zit ik al op 10 poorten dus dan heb ik aan 8 poorten niet eens genoeg meer

[ Voor 7% gewijzigd door jwvdst op 07-02-2026 22:17 ]


  • Liegebeest
  • Registratie: Februari 2002
  • Laatst online: 14:28
Liegebeest schreef op woensdag 28 januari 2026 @ 06:57:
[...]
En alsof het profetisch was: ik heb meerdere dagen gemist dat het vernieuwen van m’n certificaten mislukte, tot m’n mail client riep “hey dit klopt niet”.
En nog bleef ik de profetie negeren en verbetering uitstellen! ... Tot gisteravond, toen bleek dat m'n één van m'n Proxmox nodes (wederom met de email server) al 24 uur geen netwerk meer had omdat de e1000 genekt was door moeilijk verkeer.

Dus gisteren als de wiedeweerga Uptime Kuma in een Docker Compose deployment op m'n Synology er bij gezet. En dat werkt netjes! Opzetten en instellen was oprecht een koud kunstje. Nu is m'n Synology de QDev voor Proxmox en de monitoring+alerting voor de diensten die niet op de NAS zelf draaien. Dat wordt een tweede UK instance in Proxmox, om juist de Syno in de gaten te houden.

En ik ga eens kijken hoe UK is gebouwd; ik zie dat ze de Teltonika SMS gateway nog niet ondersteunen, dus daar ligt een mooie kans!

EDIT: Wauw, die lui hebben super-goede instructies voor contributions, incl. hele specifieke instructies als je een notification provider wilt toevoegen.

[ Voor 9% gewijzigd door Liegebeest op 09-02-2026 07:05 ]

Liege, liege, liegebeest!


  • Jerie
  • Registratie: April 2007
  • Niet online
jwvdst schreef op zaterdag 7 februari 2026 @ 22:14:
[...]
klopt waarom ook niet als ik de dac kabels al heb en de switch bij de servers komt te staan?
mn 3 servers wil ik elk middels 2 DAC kabels aan de switch hangen. daarnaast 2x glasvezel voor naar de switch in de meterkast en voor de switch op de bovenverdieping. Oja een AP en de omvormer van de accupakket komen er ook nog bij op dus dan zit ik al op 10 poorten dus dan heb ik aan 8 poorten niet eens genoeg meer
DAC kabels kosten nauwelijks iets qua aanschaf en elektriciteit. Dat maakt ze geschikter dan SFP+ cages. Als je wel SFP+ cages zou gebruiken, dan is in geval van 10 gbit SFP+ glasvezel (zoals OM3 duplex) goedkoper en zuiniger. Wat ik niet snap is waarom heb je twee DAC kabels per server nodig? Wil je gaan pair bonden?

Wat men (ik zeg niet specifiek dat jij dit moet doen) ook kan doen is zeggen: zo'n Chinese switch vind ik prima in mijn LAN, als deze maar airgapped is van het internet. Dan zou je inderdaad weg kunnen komen met een 10 gbit switch, en dan nog een fatsoenlijke 1 gbit switch ernaast. Die 1 gbit switches kunnen heel goedkoop en zuinig zijn, ook van fatsoenlijke merken die goede ondersteuning leveren.

Dan zou je aan minder dan 8 ports genoeg hebben. Deze heeft 8 SFP+:

https://www.sodola-networ...-multi-gig-network-switch

Maar als die drie servers naast elkaar staan dan zou je ook nog kunnen zeggen ik doe DAC kabels tussen de switches. Dan doe 1-2, 2-3 als je het OK vind om via server 2 te praten van 1 naar 3 of 1-2, 1-3, 2-3. In dat laatste geval heb je dual SFP+ NICs nodig, maar dat zijn de meeste x710. Ook heb je dan nog geen 10 gbit met enige switch, maar ik weet niet of dat nodig is.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.

Pagina: 1 ... 65 66 Laatste