• Liegebeest
  • Registratie: Februari 2002
  • Laatst online: 21:32
nassau schreef op zaterdag 24 januari 2026 @ 14:17:
[...]
Ik heb een minimale VM met dietpi (debian) op mijn synology en dan corosync geïnstalleerd. Automatische updates, set and forget.
Dan doen we in principe het zelfde: een aparte, kleine omgeving op een Synology om de Qdevice te draaien. Of het nou een kleine VM of een container is, is lood om oud ijzer voor mij. Maar voor hen die het met een container willen oplossen, Synology of elders, wilde ik iets betrouwbaarders neerzetten dat wel wordt onderhouden.

Liege, liege, liegebeest!


  • MJV
  • Registratie: Mei 2003
  • Laatst online: 23:00

MJV

Waarschijnlijk probeer ik iets te doen wat niet kan, maar ik probeer het toch.

Ik heb een Synology NAS met een NFS-share die ik in Proxmox heb toegevoegd.
Die NFS-share wil ik in een WIndows VM als disk zien, zodat ik met Proton Drive foto's kan importeren.

Ik kom er echter niet helemaal uit hoe ik dat doe. Ik kan de NSF-share als storage gebruiken, maar heb dan logischerwijs nog geen 1-op-1 toegang vanuit Synology.

Achterliggende use case: Google Takeout gedaan, 400GB aan foto's op Synology, die nu syncen. Proton Drive client wil niet syncen vanaf netwerkschijf, nu alles op USB-hdd gezet, dat werkt, maar is traag. Die USB-hdd wil ik er tussen hebben, zodat ik met een Windows VM direct vanaf de Synology kan syncen. Maar dan moet die share dus wel als 'echte disk' zichbaar zijn in die Windows VM...

WIe kan mij in de juiste richting wijzen?

[ Voor 29% gewijzigd door MJV op 24-01-2026 22:02 ]


  • Rozz
  • Registratie: April 2000
  • Laatst online: 01-02 18:03

Rozz

I'm an Apogian!!

MJV schreef op zaterdag 24 januari 2026 @ 21:55:
Waarschijnlijk probeer ik iets te doen wat niet kan, maar ik probeer het toch.
Ik heb een Synology NAS met een NFS-share die ik in Proxmox heb toegevoegd.
Die NFS-share wil ik in een WIndows VM als disk zien, zodat ik met Proton Drive foto's kan importeren.
Ik kom er echter niet helemaal uit hoe ik dat doe. Ik kan de NSF-share als storage gebruiken, maar heb dan logischerwijs nog geen 1-op-1 toegang vanuit Synology.
Achterliggende use case: Google Takeout gedaan, 400GB aan foto's op Synology, die nu syncen. Proton Drive client wil niet syncen vanaf netwerkschijf, nu alles op USB-hdd gezet, dat werkt, maar is traag. Die USB-hdd wil ik er tussen hebben, zodat ik met een Windows VM direct vanaf de Synology kan syncen. Maar dan moet die share dus wel als 'echte disk' zichbaar zijn in die Windows VM...

WIe kan mij in de juiste richting wijzen?
Ik heb in al mn windows-vm`s een NFS share via windows verkenner gemaakt/gelinkt, direct toegang tot de Syno dus, ik snap niet helemaal wat er bij jou dan niet lukt? (Ik heb niets met die share in Proxmox gedaan trouwens)

  • MJV
  • Registratie: Mei 2003
  • Laatst online: 23:00

MJV

Rozz schreef op zondag 25 januari 2026 @ 09:47:
[...]


Ik heb in al mn windows-vm`s een NFS share via windows verkenner gemaakt/gelinkt, direct toegang tot de Syno dus, ik snap niet helemaal wat er bij jou dan niet lukt? (Ik heb niets met die share in Proxmox gedaan trouwens)
Probleem is dat de Proton Drive app niet wil syncen vanaf een netwerklocatie. Heb nu maar via USB passthrough de hdd aan mijn proxmox host gehangen...

  • Rozz
  • Registratie: April 2000
  • Laatst online: 01-02 18:03

Rozz

I'm an Apogian!!

MJV schreef op zondag 25 januari 2026 @ 09:50:
[...]
Probleem is dat de Proton Drive app niet wil syncen vanaf een netwerklocatie. Heb nu maar via USB passthrough de hdd aan mijn proxmox host gehangen...
Aha, ja snappum, misschien kan je kijken of de Syno als iscsi / lun op je VM aan kan sluiten, schijnt dan wel als een lokale HD te komen?!? zelf geen ervaring mee.

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 00:13

Quad

Doof

Rozz schreef op zondag 25 januari 2026 @ 16:28:
[...]


Aha, ja snappum, misschien kan je kijken of de Syno als iscsi / lun op je VM aan kan sluiten, schijnt dan wel als een lokale HD te komen?!? zelf geen ervaring mee.
Dat kan dan wel, maar die data is dan ook op een scsi volume, en daar kan je dan weer niets mee binnen je Synology.

Alles went behalve een Twent.
nggyu nglyd


  • ElCondor
  • Registratie: Juni 2001
  • Laatst online: 02-02 15:21

ElCondor

Geluk is Onmisbaar

nassau schreef op vrijdag 23 januari 2026 @ 18:46:
[...]

Lekker gewerkt!

Je kunt inderdaad een migratienetwerk configureren: Datacenter->Options->Migration Setting. Kies hier de netwerkinterface
Ja, die had ik gevonden en daar kun je één netwerk definiëren. Maar kun je er ook twee opgeven? Een van de nodes is nog niet op zijn plek beland en kan daardoor niet fysiek op het migratienetwerk worden aangesloten. Althans, niet zonder bekabeling over de gehele zolder te gooien O-)
Hij kan wel migreren via het normale productie netwerk, maar dan moet ik iedere keer switchen. Geen groot issue, maar wel meer klikken te maken. Ik zou graag het productie netwerk als een soort fall-back instellen voor migraties. Nu ja, het werkt verder goed, dus alles ok voor nu,

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • MJV
  • Registratie: Mei 2003
  • Laatst online: 23:00

MJV

Quad schreef op zondag 25 januari 2026 @ 16:29:
[...]

Dat kan dan wel, maar die data is dan ook op een scsi volume, en daar kan je dan weer niets mee binnen je Synology.
Precies. Het volgende-minst-slechte wat ik nu heb bedacht is een reguliere Windows share maken op mijn VM, die kan ik vanaf mijn Synology benaderen als het goed is. Dan zou ik daar vanaf de Synology de data heen kunnen pompen en vanaf de VM kunnen syncen. Dat wordt alleen qua performance denk ik dramatisch, want de storage van de VM staat ook op de Synology, dus gaat die data in een soort cirkeltje.

  • ElCondor
  • Registratie: Juni 2001
  • Laatst online: 02-02 15:21

ElCondor

Geluk is Onmisbaar

Zo dan, ook alweer mijn eerste hartaanval achter de rug. Met Windows en Hyper-V op mijn main server werd de SMART status van de verschillende disks eigenlijk niet echt in de gaten gehouden. Dus nu ik ProxMox er op heb staan gebeuren daar wel checks voor. En nu blijkt de main nvme waar PM zelf op staat SMART errors qua temperatuur te geven :( Ik heb toen nog gevoeld aan de disk en het leek me niet dat de disk nu echt heet werd, maar dat kunnen natuurlijk ook piek momenten zijn. Afgelopen vrijdag ineenkeer mail dat de main server succesvol fenced off was en dat de guests allemaal failovered zouden worden naar de andere nodes (had wel HA aan staan, maar verder niets aan fine-tuning gedaan).
Lekker dan, niets kwam echt terug meer op, dus het hele HA verhaal had gefaald. Thuisgekomen blijkt de server in de installatie boot te staan vanaf de PM iso die via de JetKVM geprovisioned werd. Oh-ohw, geen bootdevice? Inderdaad, na een reboot bleek de eerste disk foetsie:
Server uitgebouwd, disk eruit, was niet te heet, opnieuw geseat, server geboot en jawel, de disk was er weer en de server kwam op, echter, een flink aantal guests stonden her en der in error state op de verschillende nodes waarnaar ze een poging hadden gedaan om over te failen.
Opruimen geblazen en daarna bleek het opzetten van PBS een gouden greep te zijn geweest. :) Guests vanaf de PBS terugblazen naar de originele locatie en booten met die hap. Geen enkel probleem.
Nu dan toch wel even goed gaan zitten om HA voor de meest essentiele guests in te richten (DC en RDP server).
Daarnaast komt vanmiddag een heatsink voor de nvme drive binnen en die toch maar even installeren. Kan ik gelijk kijken of die failover zijn werk doet. 8)7

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 22:14

InjecTioN

¯\_(ツ)_/¯

ElCondor schreef op maandag 26 januari 2026 @ 09:44:
Zo dan, ook alweer mijn eerste hartaanval achter de rug. Met Windows en Hyper-V op mijn main server werd de SMART status van de verschillende disks eigenlijk niet echt in de gaten gehouden. Dus nu ik ProxMox er op heb staan gebeuren daar wel checks voor. En nu blijkt de main nvme waar PM zelf op staat SMART errors qua temperatuur te geven :( Ik heb toen nog gevoeld aan de disk en het leek me niet dat de disk nu echt heet werd, maar dat kunnen natuurlijk ook piek momenten zijn. Afgelopen vrijdag ineenkeer mail dat de main server succesvol fenced off was en dat de guests allemaal failovered zouden worden naar de andere nodes (had wel HA aan staan, maar verder niets aan fine-tuning gedaan).
Lekker dan, niets kwam echt terug meer op, dus het hele HA verhaal had gefaald. Thuisgekomen blijkt de server in de installatie boot te staan vanaf de PM iso die via de JetKVM geprovisioned werd. Oh-ohw, geen bootdevice? Inderdaad, na een reboot bleek de eerste disk foetsie:
Server uitgebouwd, disk eruit, was niet te heet, opnieuw geseat, server geboot en jawel, de disk was er weer en de server kwam op, echter, een flink aantal guests stonden her en der in error state op de verschillende nodes waarnaar ze een poging hadden gedaan om over te failen.
Opruimen geblazen en daarna bleek het opzetten van PBS een gouden greep te zijn geweest. :) Guests vanaf de PBS terugblazen naar de originele locatie en booten met die hap. Geen enkel probleem.
Nu dan toch wel even goed gaan zitten om HA voor de meest essentiele guests in te richten (DC en RDP server).
Daarnaast komt vanmiddag een heatsink voor de nvme drive binnen en die toch maar even installeren. Kan ik gelijk kijken of die failover zijn werk doet. 8)7
PBS (Proxmox Backup Server) heeft mij inderdaad ook al meerdere malen uit de brand geholpen. Wat een fijn product is dat! :D

Dus de conclusie kan zijn dat de SSD simpelweg niet lekker in z'n slot gestoken zat, of dat de hitte (en afkoelen) misschien juist voor rek en krimp heeft gezorgd, waardòòr de SSD niet lekker in z'n slot meer zat.

Een heatsink is in zo'n geval nooit een slecht idee.

In mijn proxmox cluster heb ik 3 identieke mini pc nodes in clusterized HA opstelling draaien. Iedere node heeft een nvme boot disk (OEM SSD van 256GB) met het OS en een enterprise SATA SSD van Intel (480GB). De SATA disk zit in een CEPH volume over iedere node, wat eigenlijk een mirror is over 3 nodes. Hierdoor is er overal shared storage aanwezig in het geval van een fail-over. Ook heb ik daarnaast nog een OpenMediaVault-NAS met bulk storage waar de VM's afzonderlijk verbinding mee maken. De PBS LXC maakt daar ook verbinding mee.

Wekelijkse backup wordt voorzien vanaf een andere machine op mijn netwerk - aan de andere kant van mijn huis.

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • ElCondor
  • Registratie: Juni 2001
  • Laatst online: 02-02 15:21

ElCondor

Geluk is Onmisbaar

InjecTioN schreef op maandag 26 januari 2026 @ 10:14:
[...]

PBS (Proxmox Backup Server) heeft mij inderdaad ook al meerdere malen uit de brand geholpen. Wat een fijn product is dat! :D

Dus de conclusie kan zijn dat de SSD simpelweg niet lekker in z'n slot gestoken zat, of dat de hitte (en afkoelen) misschien juist voor rek en krimp heeft gezorgd, waardòòr de SSD niet lekker in z'n slot meer zat.

Een heatsink is in zo'n geval nooit een slecht idee.

In mijn proxmox cluster heb ik 3 identieke mini pc nodes in clusterized HA opstelling draaien. Iedere node heeft een nvme boot disk (OEM SSD van 256GB) met het OS en een enterprise SATA SSD van Intel (480GB). De SATA disk zit in een CEPH volume over iedere node, wat eigenlijk een mirror is over 3 nodes. Hierdoor is er overal shared storage aanwezig in het geval van een fail-over. Ook heb ik daarnaast nog een OpenMediaVault-NAS met bulk storage waar de VM's afzonderlijk verbinding mee maken. De PBS LXC maakt daar ook verbinding mee.

Wekelijkse backup wordt voorzien vanaf een andere machine op mijn netwerk - aan de andere kant van mijn huis.
Nice, ik heb replication voor wat guests aan staan, maar op een ZFS volume. Ceph vereist in de meeste gevallen een 10Gb netwerk, heb ik me laten vertellen, en dat heb ik net niet liggen. Heb jij het wel op 10Gb draaien? Jouw Ceph cluster, bedoel ik dan?

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 22:14

InjecTioN

¯\_(ツ)_/¯

ElCondor schreef op maandag 26 januari 2026 @ 10:21:
[...]

Nice, ik heb replication voor wat guests aan staan, maar op een ZFS volume. Ceph vereist in de meeste gevallen een 10Gb netwerk, heb ik me laten vertellen, en dat heb ik net niet liggen. Heb jij het wel op 10Gb draaien? Jouw Ceph cluster, bedoel ik dan?
Ik heb een active-passive dual NIC opstelling via on-board 1Gbe en m.2 2.5Gbe kaartje. Dus ik heb wel een hogere doorvoer met 2.5Gbe ja. Een unify flex2.5 er tussen gezet en de 1Gbe poortjes aan een Zyxel 1920 series 8-poort switch.

Draait echt meer dan prima zo.

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • ElCondor
  • Registratie: Juni 2001
  • Laatst online: 02-02 15:21

ElCondor

Geluk is Onmisbaar

Nou, nvme voorzien van een heatsink, lijkt te werken, de temps registeren nu als -1~-5 :?
Toen ook maar eens de andere nvme gecheckt en die blijkt ook een negatieve temp te registreren, vreemd allemaal, maar het schijnt voor te komen, zegt het internet. Niet iets om je zorgen over te maken, blijkbaar. :O
We gaan het allemaal meemaken. In de tussentijd ook direct maar even de 3e node voorzien van een extra nic die nu met de nas praat en dat werkt allemaal als een zonnetje. :*)
Nog eens goed in de HA strategie duiken, want bij het downgaan van node 4, de main server, bleek één van de guests nog gekoppeld te zijn aan een lokale iso. Deze dus altijd direct verwijderen als je er klaar mee bent, want als de lokale iso niet beschikbaar is op de target node voor failover, dan => mislukte failover. |:( Of is dat ook in te stellen? Een iso zou geen issue mogen zijn voor failover op een andere node, mijns inziens. O-)

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 22:14

InjecTioN

¯\_(ツ)_/¯

ElCondor schreef op maandag 26 januari 2026 @ 23:12:
Nou, nvme voorzien van een heatsink, lijkt te werken, de temps registeren nu als -1~-5 :?
Toen ook maar eens de andere nvme gecheckt en die blijkt ook een negatieve temp te registreren, vreemd allemaal, maar het schijnt voor te komen, zegt het internet. Niet iets om je zorgen over te maken, blijkbaar. :O
We gaan het allemaal meemaken. In de tussentijd ook direct maar even de 3e node voorzien van een extra nic die nu met de nas praat en dat werkt allemaal als een zonnetje. :*)
Nog eens goed in de HA strategie duiken, want bij het downgaan van node 4, de main server, bleek één van de guests nog gekoppeld te zijn aan een lokale iso. Deze dus altijd direct verwijderen als je er klaar mee bent, want als de lokale iso niet beschikbaar is op de target node voor failover, dan => mislukte failover. |:( Of is dat ook in te stellen? Een iso zou geen issue mogen zijn voor failover op een andere node, mijns inziens. O-)
Sensors zijn voor OEM SSD’s soms inderdaad nog niet bekend in lmsensors, en/of het meten wijkt af van de standaard. Je kan eens kijken of er nog een firmware update voor beschikbaar is.

Wat betreft die ISO: ik heb nog nooit een iso hoeven gebruiken onder Proxmox. Ik gebruik namelijk deze LXC helper scripts: https://community-scripts.github.io/ProxmoxVE/

Ik gebruik overigens überhaupt geen Windows, wat voor mij de enige reden zou zijn om een ISO te moeten gebruiken.

Het hele ISO verhaal is overigens wel een bekend issue dat ook speelt bij ESXi en andere hypervisors. Je hebt simpelweg een working state gedefinieerd die je graag wilt aanhouden in de VM settings. Dat is ooit gevalideerd geweest, maar er ontbreekt simpelweg virtual hardware (ISO). Reden genoeg om te falen. Vooral als een dienst die je wilt draaien ervan afhankelijk is. ¯\_(ツ)_/¯

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • ElCondor
  • Registratie: Juni 2001
  • Laatst online: 02-02 15:21

ElCondor

Geluk is Onmisbaar

InjecTioN schreef op dinsdag 27 januari 2026 @ 07:16:
[...]
...
Wat betreft die ISO: ik heb nog nooit een iso hoeven gebruiken onder Proxmox. Ik gebruik namelijk deze LXC helper scripts: https://community-scripts.github.io/ProxmoxVE/

Ik gebruik overigens überhaupt geen Windows, wat voor mij de enige reden zou zijn om een ISO te moeten gebruiken.

Het hele ISO verhaal is overigens wel een bekend issue dat ook speelt bij ESXi en andere hypervisors. Je hebt simpelweg een working state gedefinieerd die je graag wilt aanhouden in de VM settings. Dat is ooit gevalideerd geweest, maar er ontbreekt simpelweg virtual hardware (ISO). Reden genoeg om te falen. Vooral als een dienst die je wilt draaien ervan afhankelijk is. ¯\_(ツ)_/¯
De helperscripts ken ik inderdaad. Het probleem was dat ik de VirtIO iso nodig had om de helper agent te installeren op de windows guests. Daarom stak deze er nog in. Ik ben me nog aan het beraden of ik de windows machines moet uitfaseren. Ik heb ze ook wel om gewoon de kennis een beetje op peil te houden en om mijn betere helft te voorzien van windows spulleboel, aangezien ze dat voor haar werk nodig heeft.

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • commentator
  • Registratie: Mei 2004
  • Laatst online: 23:54
ElCondor schreef op dinsdag 27 januari 2026 @ 08:10:
[...]

De helperscripts ken ik inderdaad. Het probleem was dat ik de VirtIO iso nodig had om de helper agent te installeren op de windows guests. Daarom stak deze er nog in. Ik ben me nog aan het beraden of ik de windows machines moet uitfaseren. Ik heb ze ook wel om gewoon de kennis een beetje op peil te houden en om mijn betere helft te voorzien van windows spulleboel, aangezien ze dat voor haar werk nodig heeft.
na de installatie van de helper agent mag die iso er gewoon af

  • ElCondor
  • Registratie: Juni 2001
  • Laatst online: 02-02 15:21

ElCondor

Geluk is Onmisbaar

commentator schreef op dinsdag 27 januari 2026 @ 08:24:
[...]

na de installatie van de helper agent mag die iso er gewoon af
:z DAT begrijp ik, maar dat was ik vergeten te doen nadat ik de agent geinstalleerd had. Nog nooit een ceedeetje in de lade laten zitten? :D

Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)


  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 18:06

zeroday

There is no alternative!

ElCondor schreef op dinsdag 27 januari 2026 @ 08:42:
[...]

:z DAT begrijp ik, maar dat was ik vergeten te doen nadat ik de agent geinstalleerd had. Nog nooit een ceedeetje in de lade laten zitten? :D
Toevallig vorige week gehad. ik verwijder een Linux iso bij een van mijn VM's en reboot en het kreng wilde niet meer starten en riep om de ISO .. uh ???
even alles terug gezet, boot order aangepast en daarna kon het wel ..

mja .. heul apart maar goed ..

There are no secrets, only information you do not yet have


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 02-02 14:44
ElCondor schreef op maandag 26 januari 2026 @ 23:12:
Nou, nvme voorzien van een heatsink, lijkt te werken, de temps registeren nu als -1~-5 :?
Toen ook maar eens de andere nvme gecheckt en die blijkt ook een negatieve temp te registreren, vreemd allemaal, maar het schijnt voor te komen, zegt het internet. Niet iets om je zorgen over te maken, blijkbaar. :O
We gaan het allemaal meemaken. In de tussentijd ook direct maar even de 3e node voorzien van een extra nic die nu met de nas praat en dat werkt allemaal als een zonnetje. :*)
Nog eens goed in de HA strategie duiken, want bij het downgaan van node 4, de main server, bleek één van de guests nog gekoppeld te zijn aan een lokale iso. Deze dus altijd direct verwijderen als je er klaar mee bent, want als de lokale iso niet beschikbaar is op de target node voor failover, dan => mislukte failover. |:( Of is dat ook in te stellen? Een iso zou geen issue mogen zijn voor failover op een andere node, mijns inziens. O-)
Opzich logisch naar mijn mening als de ISO enkel lokaal op een bepaalde node is opgeslagen. Als je de ISO niet meer nodig hebt is verwijderen natuurlijk het handigst. Maar je kunt hem ook verplaatsen naar een stukje opslag wat voor meerdere nodes bereikbaar is i.e. het netwerk. Denk aan iets als NFS of CEPH.

https://dontasktoask.com/


  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 02-02 14:10
Hoe monitoren jullie de services die jullie hebben lopen op proxmox?
En ik vroeg me ook af of Proxmox zelf al iets ingebouwd heeft ivm falende disks (slechte sectoren etc)?

  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 22:14

InjecTioN

¯\_(ツ)_/¯

dotcom87 schreef op dinsdag 27 januari 2026 @ 20:22:
Hoe monitoren jullie de services die jullie hebben lopen op proxmox?
En ik vroeg me ook af of Proxmox zelf al iets ingebouwd heeft ivm falende disks (slechte sectoren etc)?
Proxmox heeft een onderdeel in het menu zitten waarin je van iedere disk de health status af kan lezen. Verder dan dat is er bij mijn weten niet echt iets.

Ik houd de health status overigens ook handmatig bij in grafieken binnen home assistant.

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • Liegebeest
  • Registratie: Februari 2002
  • Laatst online: 21:32
dotcom87 schreef op dinsdag 27 januari 2026 @ 20:22:
Hoe monitoren jullie de services die jullie hebben lopen op proxmox?
Daaaaaaarrrr....moet ik nog werk in steken. :X

Liege, liege, liegebeest!


  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 18:57
Met Pulse, Patchmon en dan nog het nodige in Home Assistant :)

  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 02-02 14:10
Theetjuh schreef op dinsdag 27 januari 2026 @ 20:35:
Met Pulse, Patchmon en dan nog het nodige in Home Assistant :)
Wat heb je dan zoal in Home Assistant zitten wat betreft Proxmox?

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 18:57
dotcom87 schreef op dinsdag 27 januari 2026 @ 20:46:
[...]


Wat heb je dan zoal in Home Assistant zitten wat betreft Proxmox?
cpu, memory, diskspace van zowel de nodes als vm/lxc.
En heb sinds kort ook de temperatuur van cpu/gpu en nvme erin dmv een scriptje.

  • InjecTioN
  • Registratie: Juli 2005
  • Laatst online: 22:14

InjecTioN

¯\_(ツ)_/¯

Theetjuh schreef op dinsdag 27 januari 2026 @ 20:51:
[...]

cpu, memory, diskspace van zowel de nodes als vm/lxc.
En heb sinds kort ook de temperatuur van cpu/gpu en nvme erin dmv een scriptje.
Nice! Gevalletje GMTA I guess. :) Dat doe ik hier ook, maar dan dus ook met disk health erbij.

Ik ga vanavond mijn configuratie met de 3 nodes nog even omgooien. Ik heb 2 SSD’s in mijn units zitten, maar ik gebruik er nu slechts een. De enterprise SSD moet als CEPH storage dienen, maar dus ook echt alleen CEPH storage en niet ook OS boot disk zoals nu… |:(

Dus: proxmox opnieuw installeren op de m.2 SSD, koppelen aan het cluster, nieuwe CEPH OSD aanmaken en koppelen aan de CEPH storage. als alle drie de nodes afgerond zijn, zou ik ook gelijk wat meer schijfruimte over moeten hebben. :)

We gaan het zien of het ook zo vlekkeloos gaat. Ik heb alles gedocumenteerd van de vorige keer, dus het zou een breeze moeten zijn. Famous last words… :X

1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI


  • Jerie
  • Registratie: April 2007
  • Niet online
dotcom87 schreef op dinsdag 27 januari 2026 @ 20:22:
Hoe monitoren jullie de services die jullie hebben lopen op proxmox?
En ik vroeg me ook af of Proxmox zelf al iets ingebouwd heeft ivm falende disks (slechte sectoren etc)?
Uptime-Kuma monitoort al mijn services (meeste in containers).

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


  • Liegebeest
  • Registratie: Februari 2002
  • Laatst online: 21:32
Liegebeest schreef op dinsdag 27 januari 2026 @ 20:33:
[...]

Daaaaaaarrrr....moet ik nog werk in steken. :X
En alsof het profetisch was: ik heb meerdere dagen gemist dat het vernieuwen van m’n certificaten mislukte, tot m’n mail client riep “hey dit klopt niet”.

Liege, liege, liegebeest!


  • Anoniemand
  • Registratie: November 2012
  • Laatst online: 21:51
Hier ook uptime kuma en wat zaken in grafana, het oog wil ook wat :)

  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 02-02 14:10
Theetjuh schreef op dinsdag 27 januari 2026 @ 20:35:
Met Pulse, Patchmon en dan nog het nodige in Home Assistant :)
Pulse had ik inderdaad ook al eens zien passeren. Patchmon is ook een hele nuttige! Thanks!

  • Anakin239
  • Registratie: September 2001
  • Laatst online: 21:45
dotcom87 schreef op dinsdag 27 januari 2026 @ 20:22:
Hoe monitoren jullie de services die jullie hebben lopen op proxmox?
En ik vroeg me ook af of Proxmox zelf al iets ingebouwd heeft ivm falende disks (slechte sectoren etc)?
Ik heb de nieuwe versie van ProxMenux geinstalleerd en die heeft op poort 8008 een heel uitgebreid dashboard inclusief allerlei hardware informatie
https://github.com/MacRimi/ProxMenux

  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 02-02 14:10
Anakin239 schreef op woensdag 28 januari 2026 @ 09:36:
[...]


Ik heb de nieuwe versie van ProxMenux geinstalleerd en die heeft op poort 8008 een heel uitgebreid dashboard inclusief allerlei hardware informatie
https://github.com/MacRimi/ProxMenux
Die heb ik ook geinstalleerd staan op elke node, die zal ik dan ook eens bekijken. Bedankt voor de tip!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 02-02 14:44
dotcom87 schreef op dinsdag 27 januari 2026 @ 20:22:
Hoe monitoren jullie de services die jullie hebben lopen op proxmox?
En ik vroeg me ook af of Proxmox zelf al iets ingebouwd heeft ivm falende disks (slechte sectoren etc)?
Ik heb alles in Docker containers (binnen een VM) draaien en gebruik vooral uptime kuma (link).

https://dontasktoask.com/


  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 18:06

zeroday

There is no alternative!

Anakin239 schreef op woensdag 28 januari 2026 @ 09:36:
[...]


Ik heb de nieuwe versie van ProxMenux geinstalleerd en die heeft op poort 8008 een heel uitgebreid dashboard inclusief allerlei hardware informatie
https://github.com/MacRimi/ProxMenux
Draait dit nu in een LXC of op een host? Want ik wil eigenlijk niets op mijn host hebben draaien anders dan proxmox zelf.

There are no secrets, only information you do not yet have


  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 18:57
zeroday schreef op donderdag 29 januari 2026 @ 11:17:
[...]

Draait dit nu in een LXC of op een host? Want ik wil eigenlijk niets op mijn host hebben draaien anders dan proxmox zelf.
Van hun github: To install ProxMenux, simply run the following command in your Proxmox server terminal

Lijkt me dus gewoon op de host te draaien, zie bij helper-scripts er ook geen lxc installatie van.

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 18:06

zeroday

There is no alternative!

Theetjuh schreef op donderdag 29 januari 2026 @ 11:21:
[...]

Van hun github: To install ProxMenux, simply run the following command in your Proxmox server terminal
Lijkt me dus gewoon op de host te draaien, zie bij helper-scripts er ook geen lxc installatie van.
Dan laat ik hem links liggen ;)

There are no secrets, only information you do not yet have

Pagina: 1 ... 64 65 Laatste