Het grote Proxmox VE topic

Pagina: 1 ... 60 61 Laatste
Acties:

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:48
meesje schreef op zaterdag 16 augustus 2025 @ 21:03:
@RobertMe Inderdaad LXC. Als ik verkeerde termen gebruik, mijn excuses daarvoor. Maar bovenin het Proxmox scherm staat gewoon het woord container. Iets anders kan ik er niet van maken. :)
Nouja, in de context van Proxmox zal container in 99% van de gevallen LXC zijn (dat ook letterlijk staat voor Linux Container :), dus container is niet eens fout). Maar container zelf is nogal een "vaag" begrip waarbij uit de context moet blijken waar het over gaat (in het Docker topic zal container in 99% van de gevallen een Docker container zijn :P, en in een haven zal een container in 99% van de gevallen over een zeecontainer gaan).

Ik was eigenlijk ook verbaasd dat @Airw0lf er naar vroeg / Docker bij zette. Volgens mij toch ook een regular in dit topic die "zou moeten weten" dat het dan over LXC gaat en niet over Docker.

Acties:
  • 0 Henk 'm!

  • streamnl
  • Registratie: November 2009
  • Niet online
RobertMe schreef op zaterdag 16 augustus 2025 @ 21:10:
[...]

Nouja, in de context van Proxmox zal container in 99% van de gevallen LXC zijn (dat ook letterlijk staat voor Linux Container :), dus container is niet eens fout).
Thanks!
Dat vroeg ik me ook af. Moest het nog opzoeken maar er kwam telkens wat tussen.

Dat is meestal als je begint met “iets op te zoeken”. Je bent een stuk wijzer geworden maar niet met hetgeen wat je wilde weten 😅

Meer dan ik dacht...


Acties:
  • 0 Henk 'm!

  • meesje
  • Registratie: Mei 2005
  • Laatst online: 17:47
RobertMe schreef op zaterdag 16 augustus 2025 @ 21:10:
[...]

Nouja, in de context van Proxmox zal container in 99% van de gevallen LXC zijn (dat ook letterlijk staat voor Linux Container :), dus container is niet eens fout). Maar container zelf is nogal een "vaag" begrip waarbij uit de context moet blijken waar het over gaat (in het Docker topic zal container in 99% van de gevallen een Docker container zijn :P, en in een haven zal een container in 99% van de gevallen over een zeecontainer gaan).

Ik was eigenlijk ook verbaasd dat @Airw0lf er naar vroeg / Docker bij zette. Volgens mij toch ook een regular in dit topic die "zou moeten weten" dat het dan over LXC gaat en niet over Docker.
Ik nam over wat hier stond. :)

Afbeeldingslocatie: https://tweakers.net/i/zX7c82g_Peht33UVW2056t50IE8=/800x/filters:strip_icc():strip_exif()/f/image/9UmZUrcuNfZ1iqvOLy1blOgA.jpg?f=fotoalbum_large

Acties:
  • +1 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:59
Tuurlijk wist ik dat de installatie betrekking heeft op LXC containers... :+
Ook heb ik nergens gesteld dat er iets verkeerds gezegd of gedaan is.

Mijn bijdrage - en met name de kreet Docker - was meer bedoeld als een open vraag.
Met het idee om wat denkwerk op gang te brengen rondom gemaakte afwegingen (if-anything).

Wat ik met "gemaakte afwegingen" bedoel?

Als binnen die twee LXC's alle applicaties in Docker containers draaien waarom dan Proxmox?
Het lijkt me niet echt helpend omdat er dan alsnog iets ingeregeld moet worden rondom het beheer van die Docker containers. Een native Debian install aangevuld met zoiets als Portainer lijkt me dan een net wat makkelijker startpunt om te gaan experimenteren - hoef je die pve-laag niet eens te leren/begrijpen.

Een andere afweging zou in HASS kunnen zitten:
Home Assistant in een LXC heeft als randvoorwaarde dat alles in Docker containers moet draaien.
Wat wil zeggen dat de HASS-plugins handmatig via Docker-CLI of Docker-Compose gestart moeten worden.
En daardoor wat extra config werk met zich meebrengt.

Wil je dat voorkomen dan kan dat eigenlijk alleen met een HASS-VM omdat je de plugins dan kunt installeren vanuit de HASS-GUI. Waardoor je eigenlijk niet om Proxmox heen kunt - zelfs al zou het bij deze ene VM blijven.

Voor de rest mag iedereen er wat van vinden - is prima - maar dit is/was het idee... meer niet... :+

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:59
Ow - een ding nog... net vergeten te noemen... de site van Scrypting stelt het volgende:
The Scrypted container uses 16GB memory and all CPU cores by default. Configure the Resources tab to suit the server specs and workload. Scrypted NVR servers should assign at least 4 cores and 16GB of memory (the more the better). After configuration has been completed, start the container.
Ik weet niet hoe je Scrypted precies gebruikt (of wil gaan gebruiken) - maar gezien de onderliggende hardware misschien wel iets om rekening mee te houden... lijkt me...

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:59
ResuCigam schreef op zaterdag 16 augustus 2025 @ 20:51:
Ik vind het grootste voordeel van een hypervisor boven bare metal dat je makkelijk backups kunt maken van je VM's en containers.
Klopt - maar doet niks af aan een backup van Proxmox zelf... dat blijft een lastige... :+

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:48
Airw0lf schreef op zaterdag 16 augustus 2025 @ 23:00:
Tuurlijk wist ik dat de installatie betrekking heeft op LXC containers... :+
Ook heb ik nergens gesteld dat er iets verkeerds gezegd of gedaan is.

Mijn bijdrage - en met name de kreet Docker - was meer bedoeld als een open vraag.
Met het idee om wat denkwerk op gang te brengen rondom gemaakte afwegingen (if-anything).

Wat ik met "gemaakte afwegingen" bedoel?

Als binnen die twee LXC's alle applicaties in Docker containers draaien waarom dan Proxmox?
Het lijkt me niet echt helpend omdat er dan alsnog iets ingeregeld moet worden rondom het beheer van die Docker containers. Een native Debian install aangevuld met zoiets als Portainer lijkt me dan een net wat makkelijker startpunt om te gaan experimenteren - hoef je die pve-laag niet eens te leren/begrijpen.

Een andere afweging zou in HASS kunnen zitten:
Home Assistant in een LXC heeft als randvoorwaarde dat alles in Docker containers moet draaien.
Wat wil zeggen dat de HASS-plugins handmatig via Docker-CLI of Docker-Compose gestart moeten worden.
En daardoor wat extra config werk met zich meebrengt.

Wil je dat voorkomen dan kan dat eigenlijk alleen met een HASS-VM omdat je de plugins dan kunt installeren vanuit de HASS-GUI. Waardoor je eigenlijk niet om Proxmox heen kunt - zelfs al zou het bij deze ene VM blijven.

Voor de rest mag iedereen er wat van vinden - is prima - maar dit is/was het idee... meer niet... :+
An zich heb je daar 100% gelijk in vind ik persoonlijk. Maar..., in dit topic beginnen zich denk ik ook wel meer en meer 2 (3?) type gebruikers te bevinden. (De die hards met een volledige cluster het liefst op dikke hardware), de Tweaker / hobbyist die er ook echt induikt en alles zelf wilt doen / gebruiken, en de "ik wil het wel want gelezen dat maar kan het zelf niet". En afgaande op (ook andere) posts van @meesje op dit forum denk ik wel dat zij in de laatste categorie valt. Het lukt wel om dit soort dingen aan de praat te krijgen (met bv de helpe scrips) maar het ontbreekt aan meer de wil / zin / kennis om het echt te doorgronden.

Maar daarvoor noem je de oplossing eigenlijk ook al, en dat is dus HAOS gebruiken.

Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 15:40
Airw0lf schreef op zondag 17 augustus 2025 @ 00:09:
[...]


Klopt - maar doet niks af aan een backup van Proxmox zelf... dat blijft een lastige... :+
Die oplossing is redelijk simpel:
Blijf van Proxmox af :9 Ik configureer de storage, configureer SSH toegang via een certificaat en dan is het wel klaar.

Ik heb weleens getwijfeld om dit soort dingen in Ansible in te richten maar die zou ik dan hosten op, jawel, Proxmox. En dan krijg je een kip/ei verhaal..

Acties:
  • 0 Henk 'm!

  • meesje
  • Registratie: Mei 2005
  • Laatst online: 17:47
@RobertMe Wat bedoel je met echt doorgronden? Ik heb zelf gezocht hoe Proxmox op een mini pc te installeren. Het lukt me mbv de helper scripts een container op te zetten. Daarna zelf gevonden waar een vast ip adres in te stellen. Dat mij /24 onbekend is, daar kwam ik met Google ook niet achter. Daarvoor hebben we dan toch ook dit topic? Of moet ik alles maar op reddit en andere forums vragen en me over een paar jaar pas hier melden? Je hebt toch ook starters? Je moet toch ergens beginnen? Ook de tweakers met nu heel veel kennis moesten toch ergens beginnen? Of bedoel je dat ik zelf maar de helper scripts had moeten uitvinden? Ik snap je opmerking over ‘doorgronden’ echt niet. Je moet toch met Proxmox ergens beginnen?

[ Voor 7% gewijzigd door meesje op 17-08-2025 10:27 ]


Acties:
  • 0 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 18:08
meesje schreef op zondag 17 augustus 2025 @ 10:26:
@RobertMe Wat bedoel je met echt doorgronden? Ik heb zelf gezocht hoe Proxmox op een mini pc te installeren. Het lukt me mbv de helper scripts een container op te zetten. Daarna zelf gevonden waar een vast ip adres in te stellen. Dat mij /24 onbekend is, daar kwam ik met Google ook niet achter. Daarvoor hebben dan toch dit topic? Je hebt toch ook starters? Je moet toch ergens beginnen? Ook de tweakers met nu heel veel kennis moesten toch ergens beginnen? Of bedoel je dat ik zelf maar de helper scripts had moeten uitvinden? Ik snap je opmerking over ‘doorgronden’ echt niet. Je moet toch met Proxmox ergens beginnen?
Hij doelt met 'echt doorgronden' inderdaad op het zelf uitzoeken hoe je zon container vanuit niks op moet bouwen dus zonder die 'helper scripts'

kijk je moet altijd ergens beginnen en dan zijn die helper scripts natuurlijk prima maar wat je daarna (vindt ik) moet doen is hetzelfde opbouwen zonder die helper scripts, dan pas ga je echt snappen wat je aan het doen bent en ga je ook andere keuzes maken.

A wise man's life is based around fuck you


Acties:
  • +1 Henk 'm!

  • meesje
  • Registratie: Mei 2005
  • Laatst online: 17:47
Zwelgje schreef op zondag 17 augustus 2025 @ 10:28:
[...]


Hij doelt met 'echt doorgronden' inderdaad op het zelf uitzoeken hoe je zon container vanuit niks op moet bouwen dus zonder die 'helper scripts'

kijk je moet altijd ergens beginnen en dan zijn die helper scripts natuurlijk prima maar wat je daarna (vindt ik) moet doen is hetzelfde opbouwen zonder die helper scripts, dan pas ga je echt snappen wat je aan het doen bent en ga je ook andere keuzes maken.
Maar we hebben het in dit topic toch over Proxmox? Er mogen toch van allerlei niveau’s vragen gesteld worden? Of dit topic alleen voor advanced?
En daarnaast boeit het toch soms helemaal niet hoe sommige zaken geïnstalleerd worden? Ooit homebridge middels diverse terminal commando’s geïnstalleerd. Nu kan dat door gewoon een image te branden. Waarom zou je je dan helemaal verdiepen in wat er gebeurt? Een installatie van Windows is toch ook next, next, next? Dat er onderwater diverse commando’s worden uitgevoerd, boeit dan toch helemaal niet?

Acties:
  • 0 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 18:08
meesje schreef op zondag 17 augustus 2025 @ 10:33:
[...]

Maar we hebben het in dit topic toch over Proxmox? Er mogen toch van allerlei niveau’s vragen gesteld worden? Of dit topic alleen voor advanced?
En daarnaast boeit het toch soms helemaal niet hoe sommige zaken geïnstalleerd worden? Ooit homebridge middels diverse terminal commando’s geïnstalleerd. Nu kan dat door gewoon een image te branden. Waarom zou je je dan helemaal verdiepen in wat er gebeurt? Een installatie van Windows is toch ook next, next, next? Dat er onderwater diverse commando’s worden uitgevoerd, boeit dan toch helemaal niet?
Het boeit wel want we zijn hier 'nerds' (tweakers) en je wilt weten hoe zaken werken aan de achterkant dat is de essentie van een nerd/tweaker zijn (en ook wat ons mens maakt: we willen weten hoe het werkt)

...maar ik begrijp ook wel dat niet iedereen die behoefte heeft en dat is prima

A wise man's life is based around fuck you


Acties:
  • +1 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:59
@meesje - je bent een heel eind gekomen - zeker waar - mijn complimenten! *O*

Het Proxmox invulscherm vroeg om IPv4/CIDR. Als starter zou je dan op zoek moeten naar de betekenis van die gehele afkorting. Als ik die volledige term in Google gooi krijg ik uitleg over CIDR en wat dit moet zijn voor een klasse C adres wat begint met 192.168.1.0. Waarbij ik me dan afvraag wat je precies aan Google gevraagd hebt om dit niet te krijgen? :?

Inzake het doorgronden: ergens komt er een moment dan werkt er iets niet. Het nadeel van die helper-scripts is dat je niet weet wat ze doen. Waardoor het lastig is om de oorzaak van een bepaald probleem op te sporen - laat staan oplossen. Vooruitlopend op dat moment: ga op zoek naar de plaats en namen van logs en maak daar aantekeningen van - die heb je dan echt nodig. En ook al heb je geen problemen - kijk daar regelmatig in - bijvoorbeeld na een update/upgrade. Zodat je enige vaardigheid krijgt in het doorzoeken en interpreteren van dit soort bestanden.

Voor veel dingen is het niet relevant om te weten hoe het onder de motorkap precies werkt. Maar weet dat producten als Proxmox, Home Assistant en Docker zijn gebouwd door en voor techneuten... op enig moment ontkom je er niet aan om een verdiepingsslag te maken. :+

Rest me je veel succes te wensen met het vervolg - en vooral veel plezier met je ontdekkingsreis! oOo

[ Voor 26% gewijzigd door Airw0lf op 17-08-2025 12:12 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:48
meesje schreef op zondag 17 augustus 2025 @ 10:26:
@RobertMe Wat bedoel je met echt doorgronden? Ik heb zelf gezocht hoe Proxmox op een mini pc te installeren. Het lukt me mbv de helper scripts een container op te zetten. Daarna zelf gevonden waar een vast ip adres in te stellen. Dat mij /24 onbekend is, daar kwam ik met Google ook niet achter. Daarvoor hebben we dan toch ook dit topic? Of moet ik alles maar op reddit en andere forums vragen en me over een paar jaar pas hier melden? Je hebt toch ook starters? Je moet toch ergens beginnen? Ook de tweakers met nu heel veel kennis moesten toch ergens beginnen? Of bedoel je dat ik zelf maar de helper scripts had moeten uitvinden? Ik snap je opmerking over ‘doorgronden’ echt niet. Je moet toch met Proxmox ergens beginnen?
Ik geef nergens aan wat je zou "moeten". Ik gaf enkel aan dat er verschillende soorten gebruikers in dit topic zijn. En als voorbeeld heb jij alles opgezet op basis van "Google" / tutorials, de helper scripts, .... Terwijl ik toentertijd gewoon de Proxmox installer heb gepakt, de boel geïnstalleerd, een LXC aangemaakt, Docker er in heb geïnstalleerd,.... Voor jou is Proxmox meer een black box, terwijl ik ook zelf iets soortgelijks zou kunnen doen zonder de Proxmox UI of CLI tools, zonder de helper / community scripts.

Verder uiteraard allemaal prima en niet iedereen is er even veel mee bezig of heeft dezelfde "aanleg" of interesses er voor. Maar vooral in een topic als dit zorgt dit soms voor "incompatibiliteit" zeg maar. Zie dus bv de opmerking van @Airw0lf, wat ook de aanleiding voor mijn reactie was, theoretisch kan iedereen het zelf op zetten zonder helper scripts, maar in de praktijk kan, of wil, dat niet (iedereen). En dan zijn die helper scripts een prima oplossing, mits..., je ze vertrouwd*. En een "maar dat kun je toch ook zelf" is vanuit een "echte" Tweaker gezien een begrijpelijke opmerking. Maar op Tweakers zitten al lang niet meer alleen "echte" Tweakers (wat ik overigens helemaal prima vind).

* de helper scripts voer je als root uit, op de host. En de scripts downloaden (meermaals) andere scripts van het internet. Het commando dat je vandaag uitvoert kan morgen dus iets compleet anders doen. En vandaag is het veilig, en morgen neemt het je compleye systeem over.

Acties:
  • 0 Henk 'm!

  • sOid
  • Registratie: Maart 2004
  • Niet online
Meh. Ik ben van v8 naar v9 aan het upgraden. Uiteraard volgens de instructies in de wiki.

Maar... na het uitvoeren van apt dist-upgrade lijk ik in een soort loop te zijn terechtgekomen. In eerste instantie lijkt alles goed te zijn gedownload, maar nu krijg ik allemaal errors bij exact dezelfde packages?

Zie screenshots. Hoe fix ik dit in hemelsnaam? Zie bijvoorbeeld Ign:2... in beide screenshots (onderaan op de 1e, in het midden op de 2)

Voor de duidelijkheid: het lijkt erop alsof 'ie dezelfde packages wil blijven downloaden, en nu krijg ik een 'temporary failure resolving download.proxmox.com'. Geen idee waarom, want via de machine waarop ik dit bericht tik, kan ik download.proxmox.com gewoon pingen (en nslookup geeft ook logische resultaten).

Afbeeldingslocatie: https://tweakers.net/i/lzdodAANsmuxQN6IYU2HCmKNpXU=/800x/filters:strip_exif()/f/image/fCdLUUA1eL5rJJwvKuylNNqH.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/RND8YI9c0MBwwecrJJ8BQWZgwBo=/800x/filters:strip_exif()/f/image/sGeNPCa16gUElZ874M5Nt98L.png?f=fotoalbum_large

Edit: zo zien de repositories er nu uit. Ik zie die error wel, maar alles lijkt goed geconfigureerd te zijn. Ik kon hier niets over vinden, en nam aan dat 'ie ging bokken omdat ik naar trixie verwijs terwijl de huidige versie (en dus de webinterface) nog bookworm is.

Afbeeldingslocatie: https://tweakers.net/i/YeFlOBETsuHSD9JfzoN5_I13Vug=/800x/filters:strip_exif()/f/image/pDVZbSGGP6jaa9Nh8UjvekzG.png?f=fotoalbum_large

[ Voor 30% gewijzigd door sOid op 17-08-2025 14:51 ]


Acties:
  • 0 Henk 'm!

  • sOid
  • Registratie: Maart 2004
  • Niet online
Pfff. Blijkbaar toch een DNS error. Ik had heel bewust m'n 2 Pihole LXC containers offline gehaald en de DNS-server op router tijdelijk aangepast naar 8.8.8.8. Maar blijkbaar heeft de PVE nog ergens de Pihole-server als DNS staan.

Lijkt allemaal te werken na het weer online brengen van die Pihole LXC. Benieuwd of die lopende container nog voor gedoe gaat zorgen tijdens de upgrade, maar we'll see :+

(Prima voorbeeld van Rubber Ducky debugging dit :X)

Acties:
  • +3 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 15:40
@sOid
It’s not DNS
There’s no way it’s DNS
It was DNS

:9

Acties:
  • 0 Henk 'm!

  • sOid
  • Registratie: Maart 2004
  • Niet online
lolgast schreef op zondag 17 augustus 2025 @ 15:11:
@sOid
It’s not DNS
There’s no way it’s DNS
It was DNS

:9
|:(

Was verdomme een uur aan het wachten en een half uur naar een oplossing aan het zoeken. Terwijl de upgrade, eenmaal normaal aan het lopen, in 10min was gedaan. Facepalm.

[ Voor 31% gewijzigd door sOid op 17-08-2025 15:14 ]


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:59
Een melding die begint met ign(ore?) is bijna altijd een DNS probleem - tis te zeggen... ik ben nog niet anders tegen gekomen.

[ Voor 13% gewijzigd door Airw0lf op 17-08-2025 21:47 ]

makes it run like clockwork


Acties:
  • +8 Henk 'm!

  • meesje
  • Registratie: Mei 2005
  • Laatst online: 17:47
Zwelgje schreef op zondag 17 augustus 2025 @ 10:36:
[...]


Het boeit wel want we zijn hier 'nerds' (tweakers) en je wilt weten hoe zaken werken aan de achterkant dat is de essentie van een nerd/tweaker zijn (en ook wat ons mens maakt: we willen weten hoe het werkt)
Ik vind dit zo’n foute, generaliserende, beledigende en onbeschofte opmerking.
Daarnaast vind ik deze ‘discussie’ absurd. Ik gebruik een term welke gewoon in de GUI van Proxmox wordt getoond (container) en er ontstaat een hele discussie over. Het komt er bijna op neer dat ik Proxmox niet mag gebruiken zo lang ik me niet verdiept hebt in hoe alle scripts, commando’s, etc. werken. Je moet toch ergens beginnen? Je kunt toch niet gelijk alles weten?
Ik heb tig topics in mijn bookmarks staan om met interesse te volgen. Proxmox stond er even tussen met het oog het wellicht ooit te gebruiken. Je voelt je echt lekker welkom in dit topic.

[ Voor 44% gewijzigd door meesje op 17-08-2025 23:07 ]


Acties:
  • +2 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 09-09 22:16
RobertMe schreef op zondag 17 augustus 2025 @ 00:11:
[...]

An zich heb je daar 100% gelijk in vind ik persoonlijk. Maar..., in dit topic beginnen zich denk ik ook wel meer en meer 2 (3?) type gebruikers te bevinden. (De die hards met een volledige cluster het liefst op dikke hardware), de Tweaker / hobbyist die er ook echt induikt en alles zelf wilt doen / gebruiken, en de "ik wil het wel want gelezen dat maar kan het zelf niet". En afgaande op (ook andere) posts van @meesje op dit forum denk ik wel dat zij in de laatste categorie valt. Het lukt wel om dit soort dingen aan de praat te krijgen (met bv de helpe scrips) maar het ontbreekt aan meer de wil / zin / kennis om het echt te doorgronden.

Maar daarvoor noem je de oplossing eigenlijk ook al, en dat is dus HAOS gebruiken.
Hmm, niet mee eens in een proxmox topic. Men vraagt een beginners vraag mbt proxmox, niets verkeerds mee zou ik zeggen: she/he has done here due diligence voor een leek, anders krijg je proxmox niet aan de praat. En proxmox gebruiken om docker containers te draaien heeft gewoon voordelen (snapshots bv), naast de mogelijkheid om andere os-en uit te proberen, dus dat is gewoon een keuze, niet een mate van ervaring/kennis.

Acties:
  • +3 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 16:13

Quad

Doof

Even inhaken op eerdere berichten, Tweakers is een community waar elk niveau van kennis welkom op is. Of je veel of weinig op hebt van de onderwerpen, dat moet geen probleem voor elkaar vormen.

@meesje heeft een probleem, daar kan een wmb een antwoord op komen om hij/zij weer op weg te helpen. Iedereen begint ergens en al doende leert men, ook met het gebruik van scripts.

De enige vereiste is zo'n beetje dat je als vraagsteller al iets hebt uitgezocht mbt je probleem. Of tenminste omschrijft waar je tegenaan loopt en wat je al gedaan hebt.

Dus @meesje hopelijk weerhoudt je hier niet van om te blijven posten, ooit zal je een ander opweg helpen met diegene z'n problemen.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • +2 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:48
rachez schreef op zondag 17 augustus 2025 @ 22:22:
[...]

Hmm, niet mee eens in een proxmox topic. Men vraagt een beginners vraag mbt proxmox, niets verkeerds mee zou ik zeggen: she/he has done here due diligence voor een leek, anders krijg je proxmox niet aan de praat. En proxmox gebruiken om docker containers te draaien heeft gewoon voordelen (snapshots bv), naast de mogelijkheid om andere os-en uit te proberen, dus dat is gewoon een keuze, niet een mate van ervaring/kennis.
To be clear: het ging me er meer om om te wijzen op dat er in dit topic steeds meer 2 / 3 groepen gebruikers ontstaan, dan om een vorm van gatekeeping te hanteren. En @meesje, er was ook helemaal niks mis met je vraag, en ook niet met de opmerking "container". Zoals ik in een eerdere post al aangaf klopt het dat Proxmox letterlijk de term "container" gebruikt. En uit de context "Proxmox" (wat in dit topic nog al duidelijk is :P) zou dan ook duidelijk moeten/kunnen zijn dat het over LXC gaat. En niet over Docker containers, zee-containers, of een ander soort container.

Het wel of niet gebruiken van de helper / community scripts is vervolgens een keuze. Het is niet mijn keuze, maar prima te begrijpen dat anderen het wel gebruiken. Gebaseerd op kennis / affiniteit / interesse / ... (waarmee ik weer terug kom bij "3 soorten gebruikers in dit topic").

Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 13:05
Dit weekend een teleurstelling gehad met proxmox icm PBS. Ik maak een paar keer per week backups, dit gaat altijd goed. Nu wilde ik mijn immich server upgraden die in een LXC met docker zit. Vergeten de breaking changes te lezen en dit leidde tot een niet werkende immich server. Ik dacht snel de backup te restoren van een paar dagen eerder maar dat leidde tot een error met een acl. Zelfde als deze error: https://forum.proxmox.com...store-acl-invalid.156814/
En geen duidelijke fix dus.

Het vervelende was dat de primaire LXC container ook al helemaal gedelete was.
Nu dus het weekend bezig geweest om met file restore dingen over te zetten. Ditmaal maar naar een VM met docker omdat meningen over LXC docker verdeeld zijn...

Het vertrouwen in PBS dus wel wat kwijt geraakt. Misschien moet ik vaker een backup maar testen..?

Acties:
  • +1 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 16:06

Harmen

⭐⭐⭐⭐⭐⭐

@tomdh76 Ik maak meestal een snapshot voordat ik Immich update, een snapshot kan je makkelijk weer terug zetten. :)

Kwa updates mbt tot PVE wacht ik vaak wel eventjes, uptime van m'n host is nu alweer 2 maanden. :)

Whatever.


Acties:
  • +1 Henk 'm!

  • nassau
  • Registratie: December 2000
  • Nu online
tomdh76 schreef op maandag 18 augustus 2025 @ 12:05:
Dit weekend een teleurstelling gehad met proxmox icm PBS. Ik maak een paar keer per week backups, dit gaat altijd goed. Nu wilde ik mijn immich server upgraden die in een LXC met docker zit. Vergeten de breaking changes te lezen en dit leidde tot een niet werkende immich server. Ik dacht snel de backup te restoren van een paar dagen eerder maar dat leidde tot een error met een acl. Zelfde als deze error: https://forum.proxmox.com...store-acl-invalid.156814/
En geen duidelijke fix dus.

Het vervelende was dat de primaire LXC container ook al helemaal gedelete was.
Nu dus het weekend bezig geweest om met file restore dingen over te zetten. Ditmaal maar naar een VM met docker omdat meningen over LXC docker verdeeld zijn...

Het vertrouwen in PBS dus wel wat kwijt geraakt. Misschien moet ik vaker een backup maar testen..?
Als ik het goed begrijp zijn er dus geen files verloren? Alleen van die paar dagen dat je geen backup hebt gemaakt dus.

Een backup heeft pas waarde als ie getest word maar daar heb je nu weinig aan.

Heb je ook geen eerdere backup van die LXC die wel werkt? Kun je daar de laatste state weer in restoren met proxmox-backup-client. Zou allicht sneller zijn (geweest)?

Waarom heb je de originele LXC verwijderd? Je had ook eerst kunnen restoren naar een nieuwe container voordat je de boel ging wissen. Maar goed dat is allemaal gel*l achteraf uiteraard. :'(

Acties:
  • +2 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 13:05
nassau schreef op maandag 18 augustus 2025 @ 13:20:
[...]


Als ik het goed begrijp zijn er dus geen files verloren? Alleen van die paar dagen dat je geen backup hebt gemaakt dus.

Een backup heeft pas waarde als ie getest word maar daar heb je nu weinig aan.

Heb je ook geen eerdere backup van die LXC die wel werkt? Kun je daar de laatste state weer in restoren met proxmox-backup-client. Zou allicht sneller zijn (geweest)?

Waarom heb je de originele LXC verwijderd? Je had ook eerst kunnen restoren naar een nieuwe container voordat je de boel ging wissen. Maar goed dat is allemaal gel*l achteraf uiteraard. :'(
klopt geen files verloren enkel wat database gegevens. Via een file restore van een docker compose file kon ik alles redelijk snel aan de praat krijgen. En de databases overzetten. Ik wist niet dat de oiginele LXC gelijk verwijderd zou worden. Ik dacht dat pas zou gebeuren als de restore gelukt was. In het vervolg zal ik hier zeker op letten :-)

Acties:
  • +2 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 16:13

Quad

Doof

Als je vanuit de container of VM tab de restore start, wordt inderdaad de originele LXC of VM verwijderd.

Ga je vanuit de PBS volume de restore starten, kan je naar een nieuw LXC ID restoren.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • +1 Henk 'm!

  • Niekniek89
  • Registratie: April 2015
  • Laatst online: 15:51
Inmiddels Proxmox al een aantal maanden naar volle tevredenheid draaien.
Alles netjes kunnen migreren vanaf mijn vorige ESXI host!

Ik maak van alle VM's / LXC container netjes iedere avond een back-up naar mijn Synology over SMB.
Echter zocht ik een optie om een back-up van Proxmox zelf (config/fstab mappings) etc. te maken.
Alleen zit deze optie er blijkbaar niet in?

Iemand een handige tip, waarbij ik dus van alles een back-up kan maken (voor het geval mijn huidige host crashed o.i.d.)?

Acties:
  • +1 Henk 'm!

  • witchdoc
  • Registratie: Juni 2000
  • Laatst online: 02-09 15:54
Niekniek89 schreef op dinsdag 19 augustus 2025 @ 14:05:
Inmiddels Proxmox al een aantal maanden naar volle tevredenheid draaien.
Alles netjes kunnen migreren vanaf mijn vorige ESXI host!

Ik maak van alle VM's / LXC container netjes iedere avond een back-up naar mijn Synology over SMB.
Echter zocht ik een optie om een back-up van Proxmox zelf (config/fstab mappings) etc. te maken.
Alleen zit deze optie er blijkbaar niet in?

Iemand een handige tip, waarbij ik dus van alles een back-up kan maken (voor het geval mijn huidige host crashed o.i.d.)?
https://community-scripts...VE/scripts?id=host-backup is dan wel nuttig denk ik.
Moet je wel zelf weten wat je precies wil backuppen.

Acties:
  • +1 Henk 'm!

  • YAR
  • Registratie: Oktober 2009
  • Laatst online: 16:52

YAR

Je kan ook de proxmox-backup-client gebruiken op je host

Zie ook
https://www.croit.io/blog/backing-up-a-proxmox-node

Geen ervaring mee, ik moet het nog instellen, maar dit is wel het plan.

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:59
De defaults van het helper-script zoals genoemd door @witchdoc is soort-van beschreven in de blog van @YAR.

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • nassau
  • Registratie: December 2000
  • Nu online
Niekniek89 schreef op dinsdag 19 augustus 2025 @ 14:05:
Inmiddels Proxmox al een aantal maanden naar volle tevredenheid draaien.
Alles netjes kunnen migreren vanaf mijn vorige ESXI host!

Ik maak van alle VM's / LXC container netjes iedere avond een back-up naar mijn Synology over SMB.
Echter zocht ik een optie om een back-up van Proxmox zelf (config/fstab mappings) etc. te maken.
Alleen zit deze optie er blijkbaar niet in?

Iemand een handige tip, waarbij ik dus van alles een back-up kan maken (voor het geval mijn huidige host crashed o.i.d.)?
Dit is wat ik doe op mijn proxmox nodes (in crontab)

code:
1
1 1 * * * source /root/.bashrc && PBS_LOG=error proxmox-backup-client backup var.pxar:/var/lib/pve-cluster etc.pxar:/etc --include-dev /etc/pve --change-detection-mode=metadata


Oftewel de PBS backup client gebruiken om dagelijks een snapshot te maken van de belangrijkste directories van de config. PBS draait als VM op mijn NAS, dus buiten proxmox.

  • RailHenk87
  • Registratie: September 2018
  • Laatst online: 10-09 22:27
Een week geleden heb ik mijn thuisserver een upgrade gegeven naar v9. Toen ook even alle containers nagekeken en ook daar debian bijgewerkt, alsook Ubuntu LTS van mijn Emby LXC (20.04 naar 24.04).

Sindsdien heb ik last van afspeelproblemen tijdens het streamen van media naar mijn TV. Op bepaalde intervallen loopt de stream vast en moet ik terug naar het hoofdmenu om het afspelen opnieuw te hervatten, speelt vervolgens vlotjes verder. Even later weer een probleem. Er zit geen vast interval op, media speelt via Direct Play (geen transcoding).

Als ik naar de grafiekjes van mijn server en de LXC in kwestie ga kijken zie ik wel dat er op die momenten netwerkverkeer is, alsook IO pressure stall en CPU pressure stall. Beiden nieuwe grafieken sinds v9.

Iemand die hier ook last van heeft? Mijn volgende stap is even een backup van de LXC met Ubuntu LTS 20.04 terugzetten en zien of dit het probleem oplost. Kan ik al bepalen of het aan de proxmox upgrade of de ubuntu upgrade ligt.

Screenshot van de stats van de container in kwestie (day maximum):

Afbeeldingslocatie: https://tweakers.net/i/rotW4hKWulRQOg_wwHGemdwc8XA=/800x/filters:strip_exif()/f/image/6hjZAnko3oSHPcuZANklTEDn.png?f=fotoalbum_large

Acties:
  • +1 Henk 'm!

  • stormfly
  • Registratie: Juli 2001
  • Laatst online: 17:53
Niekniek89 schreef op dinsdag 19 augustus 2025 @ 14:05:
Inmiddels Proxmox al een aantal maanden naar volle tevredenheid draaien.
Alles netjes kunnen migreren vanaf mijn vorige ESXI host!

Ik maak van alle VM's / LXC container netjes iedere avond een back-up naar mijn Synology over SMB.
Echter zocht ik een optie om een back-up van Proxmox zelf (config/fstab mappings) etc. te maken.
Alleen zit deze optie er blijkbaar niet in?

Iemand een handige tip, waarbij ik dus van alles een back-up kan maken (voor het geval mijn huidige host crashed o.i.d.)?
https://github.com/DerDanilo/proxmox-stuff/tree/master

Ik heb deze op de achtergrond draaien.

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 18:33
Ik moet zeggen heb al eens een full herinstallatie van een host gehad, maar de individuele instellingen viel me voor mij nog mee.

  • RailHenk87
  • Registratie: September 2018
  • Laatst online: 10-09 22:27
RailHenk87 schreef op donderdag 21 augustus 2025 @ 13:58:
Een week geleden heb ik mijn thuisserver een upgrade gegeven naar v9. Toen ook even alle containers nagekeken en ook daar debian bijgewerkt, alsook Ubuntu LTS van mijn Emby LXC (20.04 naar 24.04).

Sindsdien heb ik last van afspeelproblemen tijdens het streamen van media naar mijn TV. Op bepaalde intervallen loopt de stream vast en moet ik terug naar het hoofdmenu om het afspelen opnieuw te hervatten, speelt vervolgens vlotjes verder. Even later weer een probleem. Er zit geen vast interval op, media speelt via Direct Play (geen transcoding).
...
Backup van Ubuntu LTS 20.04 teruggezet maar helaas nog steeds het probleem. Is dus verbonden aan de v9 upgrade...

Iemand suggesties hoe ik verder kan diagnosticeren? In de Emby logs is niets te zien...

Acties:
  • 0 Henk 'm!

  • Leaplasher
  • Registratie: Maart 2025
  • Niet online
Ik loop ff vast. Wie ziet de oplossing?

Heb in mijn Unifi omgeving een nieuw VLAN aangemaakt #20 (192.168.20.0/24)
Dit VLAN toegevoegd aan de poort van mijn Proxmox Host in Unifi. (had er al 2 staan, nu dus een 3e erbij).
In Proxmox bij networking vmbr0.20 aangemaakt, met de ip-range 192.168.20.0/24

Vervolgens Debian VM aangemaakt en de NIC in dit VLAN gehangen. (vmbr0, vlan 20).
De VM krijgt vervolgens geen IP. "Network is unreachable".
1e IP in de DHCP range (in Unifii) is 192.168.20.10, de VM krijgt niet dit IP, echter ook geen ander.
Interface is wel up.

De gateway van 't VLAN is prima ping-baar vanaf andere devices in mijn netwerk, ook vanuit een ander VLAN. Vanuit de VM echter niet.

VM al een reboot gegeven, host een reboot gegeven.
NIC in de VM opnieuw aangemaakt.
Resultaat blijft 't zelfde.
"Network is unreachable" vanuit de VM en geen IP.

Een ander VLAN #10, heeft geen issues. Ergens mis ik een stap vermoed ik.
Wie oh wie zie em?

Acties:
  • +1 Henk 'm!

  • sailor_dg
  • Registratie: Januari 2019
  • Laatst online: 13:07
VLAN aware aanstaan? Heeft mij ook wel eens een paar uurtjes gekost

All-electric | Deye 12KSG04LP3 met 2x Yixiang V2, 32x MB31 314 Ah | Panasonic Aquarea J 5kW | Tesla MY, SmartEVSE | 5.2 kWp PV | Proxmox met HomeAssistant, Docker host, PfSense, TrueNas & Mailcow


Acties:
  • +1 Henk 'm!

  • nassau
  • Registratie: December 2000
  • Nu online
Leaplasher schreef op vrijdag 22 augustus 2025 @ 13:36:
Ik loop ff vast. Wie ziet de oplossing?

Heb in mijn Unifi omgeving een nieuw VLAN aangemaakt #20 (192.168.20.0/24)
Dit VLAN toegevoegd aan de poort van mijn Proxmox Host in Unifi. (had er al 2 staan, nu dus een 3e erbij).
In Proxmox bij networking vmbr0.20 aangemaakt, met de ip-range 192.168.20.0/24

Vervolgens Debian VM aangemaakt en de NIC in dit VLAN gehangen. (vmbr0, vlan 20).
De VM krijgt vervolgens geen IP. "Network is unreachable".
1e IP in de DHCP range (in Unifii) is 192.168.20.10, de VM krijgt niet dit IP, echter ook geen ander.
Interface is wel up.

De gateway van 't VLAN is prima ping-baar vanaf andere devices in mijn netwerk, ook vanuit een ander VLAN. Vanuit de VM echter niet.

VM al een reboot gegeven, host een reboot gegeven.
NIC in de VM opnieuw aangemaakt.
Resultaat blijft 't zelfde.
"Network is unreachable" vanuit de VM en geen IP.

Een ander VLAN #10, heeft geen issues. Ergens mis ik een stap vermoed ik.
Wie oh wie zie em?
Ik gebruik ook VLANs, maar het is niet nodig om in proxmox een extra interface te maken. Gewoon op de normale bridge vlan aware aanzetten. In je VM de juiste bridge selecteren en de vlan tag. Zo werkt het bij mij?

Acties:
  • 0 Henk 'm!

  • Leaplasher
  • Registratie: Maart 2025
  • Niet online
Juist, die Linux Bridge dus en daar de VLAN ID's, 99 moest daar idd bij.
Dank! :)

Nu werkt het.

Reden voor die extra interfaces is dat ik ook 1 VM in meerdere VLANs kan hangen.
Zodat WOL werkt, dat gaat niet vanaf 1 NIC in VLAN1 naar VLAN2.

[ Voor 42% gewijzigd door Leaplasher op 22-08-2025 14:01 ]


Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Nu online
Ergens met de installatie van mijn proxmox server heb ik een typfout gemaakt in de lokale domeinnaam.
.cl ipv .nl gedaan |:(
Ik gebruik deze niet typ altijd het ip adres maar het stoort wel want als ik een mail krijg van een mislukte of succesvolle backup zie ik dat staan.
Kan ik dit zonder problemen ergens wijzigen en zo ja waar?

code:
1
2
3
4
5
6
7
8
9
10
11
127.0.0.1 localhost.localdomain localhost
192.168.178.156 pvenuc.domeinnaam.cl pvenuc

# The following lines are desirable for IPv6 capable hosts

::1     ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
ff02::3 ip6-allhosts

Acties:
  • +1 Henk 'm!

  • Polderviking
  • Registratie: Augustus 2020
  • Laatst online: 16:39
ComTech schreef op zaterdag 23 augustus 2025 @ 11:57:
Ergens met de installatie van mijn proxmox server heb ik een typfout gemaakt in de lokale domeinnaam.
.cl ipv .nl gedaan |:(
Ik gebruik deze niet typ altijd het ip adres maar het stoort wel want als ik een mail krijg van een mislukte of succesvolle backup zie ik dat staan.
Kan ik dit zonder problemen ergens wijzigen en zo ja waar?

code:
1
2
3
4
5
6
7
8
9
10
11
127.0.0.1 localhost.localdomain localhost
192.168.178.156 pvenuc.domeinnaam.cl pvenuc

# The following lines are desirable for IPv6 capable hosts

::1     ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
ff02::3 ip6-allhosts
https://pve.proxmox.com/wiki/Renaming_a_PVE_node ;)

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:53

zeroday

There is no alternative!

Vandaag mijn 4 node cluster bijgewerkt van 8.4 naar 9.06
omdat ik nog een paar NUCjes krijg wil ik straks gewoon die met 9 kunnen installeren
had eigenlijk wat langer willen wachten maar durfde de gok te wagen

De pve8to9 --full had ik al een paar keer gedraaid. het verhaal van systemd al opgelost .. mooi ..

Migratie ging redelijk soepel al moet je niet ineens je console sluiten vanuit de UI .. dat is een domme zet want dan gaat APT wel door maar tsja. invoer en whatelse doet het niet meer.. Ik had beter even screen kunnen gebruiken.. Maar goed.. Dat was dan een user error ..

Voor de rest .. easy peacy .. 1 nuc gaat niet automatisch rebooten, dus die staat op de nominatie om nagekeken te worden straks ;) .. Maar alle LXC's en VM's draaien weer na een reboot per machine..

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Nu online
zeroday schreef op vrijdag 29 augustus 2025 @ 15:22:

Migratie ging redelijk soepel al moet je niet ineens je console sluiten vanuit de UI .. dat is een domme zet want dan gaat APT wel door maar tsja. invoer en whatelse doet het niet meer.. Ik had beter even screen kunnen gebruiken.. Maar goed.. Dat was dan een user error ..
Je kan hiervoor een terminal multiplexer gebruiken (tmux of byubo) ;). Mocht de sessie verbroken worden kun je die toch weer openen.

Acties:
  • +2 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

powerboat schreef op zaterdag 30 augustus 2025 @ 08:26:
[...]


Je kan hiervoor een terminal multiplexer gebruiken (tmux of byubo) ;). Mocht de sessie verbroken worden kun je die toch weer openen.
Vandaar ook dat screen genoemd werd, die kan dat ook ;)

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Nu online
dcm360 schreef op zaterdag 30 augustus 2025 @ 08:32:
[...]

Vandaar ook dat screen genoemd werd, die kan dat ook ;)
Och ja .. was nog niet helemaal wakker :z maar dat kan ook. Ik las screen in zin van het woord een beeldscherm eraan vast hangen :+

Acties:
  • 0 Henk 'm!

  • Hulliee
  • Registratie: November 2008
  • Niet online
Hier ook zonder problemen mijn pve overgezet naar 9.06.
LXC's overgezet naar Ubuntu 24.04 behalve Jellyfin, die draait nog niet zonder wat meer te moeten aanpassen op 24.04. Komt dan later wel.

Acties:
  • 0 Henk 'm!

  • stormfly
  • Registratie: Juli 2001
  • Laatst online: 17:53
Hulliee schreef op zaterdag 30 augustus 2025 @ 10:57:
Hier ook zonder problemen mijn pve overgezet naar 9.06.
LXC's overgezet naar Ubuntu 24.04 behalve Jellyfin, die draait nog niet zonder wat meer te moeten aanpassen op 24.04. Komt dan later wel.
Wat is je overweging geweest voor Ubuntu 24.04 voor de LXC tov Debian 13 Trixie?

Acties:
  • +1 Henk 'm!

  • Hulliee
  • Registratie: November 2008
  • Niet online
stormfly schreef op zaterdag 30 augustus 2025 @ 11:28:
[...]

Wat is je overweging geweest voor Ubuntu 24.04 voor de LXC tov Debian 13 Trixie?
Bij het opzetten van proxmox 8 en het aanmaken van lxc containers voor docker en Jellyfin, heb een Ubuntu (22...) lxc gepakt. Toen niet over nagedacht. Nu draaien ze dus Ubuntu. ;) Waarschijnlijk met wat meer overhead.

Acties:
  • 0 Henk 'm!

  • Cardinal
  • Registratie: Maart 2002
  • Laatst online: 10-09 00:26
Ik heb problemen met proxmox9 vooral met CP om bestanden te kopieren.
cp: error writing '/mnt/folder/folder/filename.txt': Bad address
Wat doet het
  • Hij kopieerd wel, maar breekt af, elke bestand komt er voor 50%-ish op te staan.
  • elke file geeft hij dezelfde melding.
Wat ik heb geprobeerd.
  • systemctl restart op de mount.
  • Proxmox restart.
  • LXC opnieuw geinstalleerd. ubuntu 22.04 naar 24.0x
  • Proxmox op andere router
  • sftp werkt gewoon
Als ik zoek op de foutmelding krijg ik nogal obscure suggesties van 5-10 jaar geleden.

[ Voor 68% gewijzigd door Cardinal op 30-08-2025 19:14 ]


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:53

zeroday

There is no alternative!

powerboat schreef op zaterdag 30 augustus 2025 @ 08:26:
[...]


Je kan hiervoor een terminal multiplexer gebruiken (tmux of byubo) ;). Mocht de sessie verbroken worden kun je die toch weer openen.
zeker, daarvoor gebruik ik screen, maar dan moet je hem wel gebruiken en niet vergeten ;)
Maar net zoals 'goed lezen in mijn bericht' waar ik dat al schreef, is dat stukje commando voordat je enthousiast begint heel snel vergeten .. ;)

[ Voor 17% gewijzigd door zeroday op 31-08-2025 09:53 ]

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:48
zeroday schreef op zondag 31 augustus 2025 @ 09:52:
[...]


zeker, daarvoor gebruik ik screen, maar dan moet je hem wel gebruiken en niet vergeten ;)
Maar net zoals 'goed lezen in mijn bericht' waar ik dat al schreef, is dat stukje commando voordat je enthousiast begint heel snel vergeten .. ;)
Daarom moet je nooit enthousiast beginnen :p Gewoon RTFM dus. En bij Debian staat in de upgrade guide ook om screen of dergelijke te gebruiken.

De FM bij Proxmox is dan wel weer veel beknopter en staat het meen ik niet in? Maar in Proxmox' upgrade guide ontbreekt denk ik wel meer. In de guide van Debian staat bv ook dat je een heel recente SSH versie nodig hebt, omdat anders de verbinding er uit klapt tijdens de update. Dat hebben ze pas gefixt na de 12.9 uitgave. En datzelfde issue zal Proxmox dus vast ook hebben als je niet helemaal up-to-date bent.

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:53

zeroday

There is no alternative!

RobertMe schreef op zondag 31 augustus 2025 @ 10:01:
[...]

Daarom moet je nooit enthousiast beginnen :p Gewoon RTFM dus. En bij Debian staat in de upgrade guide ook om screen of dergelijke te gebruiken.

De FM bij Proxmox is dan wel weer veel beknopter en staat het meen ik niet in? Maar in Proxmox' upgrade guide ontbreekt denk ik wel meer. In de guide van Debian staat bv ook dat je een heel recente SSH versie nodig hebt, omdat anders de verbinding er uit klapt tijdens de update. Dat hebben ze pas gefixt na de 12.9 uitgave. En datzelfde issue zal Proxmox dus vast ook hebben als je niet helemaal up-to-date bent.
Tsja.. warnings vond ik wel best bij de upgrade, de rode regels opgelost. Machines bleven gewoon draaien, update ging smooth, bij die ene waar ik de fout maakte heb ik de taak gekilled en opnieuw gestart. Je krijgt dan vanzelf de regel te lezen wat je moet intikken op dkpg weer te laten draaien ;)

daarna even schrikken omdat tijdens de update in proxmox ineens een rood stopbordje bij de node stond ,maar de CLI shell bleef gewoon werken .. Rebooten en machine weer online..

Al met al, als je geen uitzonderlijke dingen hebt, enige wat ik heb is een UPS USB adapter doorgelust, is de update niet zo spannend.

There are no secrets, only information you do not yet have


Acties:
  • +4 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:53

zeroday

There is no alternative!

Message to self and the rest:

het kan voorkomen dat als je Proxmox met UEFI/Secure boot probeert te installeren dat er dan aan het einde van de proxmox installatie een GRUB error komt en dat deze dan niet weggeschreven kan worden.

Reset dan je NVRAM voor UEFI.
Na veel dingen proberen en zoeken bleek dit de enige manier om Proxmox 9 te installeren vanaf de ISO
BIOS resetten helpt niet want die reset (in ieder geval niet op mijn INTEL NUC) het NVRAM voor de UEFI boot.

Gewoon een tip ..

Nu gaan spelen met CEPH, iemand dit opgezet? (ik heb 3 NUC's die ik ga opnemen in mijn 4 node cluster) waarna ik die 3 nodes met CEPH ga uitrusten, dan wat machines moves naar dat gedeelte zodat die andere nodes dan ook met CEPH uiterust kunnen worden (is het idee)..

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 16:21

orvintax

www.fab1an.dev

zeroday schreef op dinsdag 2 september 2025 @ 07:41:
Nu gaan spelen met CEPH, iemand dit opgezet? (ik heb 3 NUC's die ik ga opnemen in mijn 4 node cluster) waarna ik die 3 nodes met CEPH ga uitrusten, dan wat machines moves naar dat gedeelte zodat die andere nodes dan ook met CEPH uiterust kunnen worden (is het idee)..
Enige specifieke vragen? :) Heb dit zelf wel eens opgezet. Zorg in ieder geval even dat je de Proxmox en deze pagina doorleest.

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:53

zeroday

There is no alternative!

orvintax schreef op dinsdag 2 september 2025 @ 10:25:
[...]

Enige specifieke vragen? :) Heb dit zelf wel eens opgezet. Zorg in ieder geval even dat je de Proxmox en deze pagina doorleest.
Eigenlijk wat de ervaringen zijn op een gewoon lab/test/thuis netwerk met 1GB netwerk
tuurlijk weet ik dat 10GB/s overal wordt aangeraden .. maar het gaat mij er even om of het de moeite is om dit op te zetten of niet ;)

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Nu online
@zeroday Houd er wel rekening mee dat CEPH nogal wat geheugen lust. 4GB per OSD is heel normaal.

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Nu online
@zeroday , Ceph is leuk maar ik ben ermee gestopt. Je hebt een oneven aantal hypervisors nodig 3 is minimaal maar eigenlijk moet je er meer hebben. Performance kakt bij 3 in als een node offline is.

Acties:
  • 0 Henk 'm!

  • Cave_Boy
  • Registratie: Augustus 2005
  • Laatst online: 17:26
Ik heb mijn Homeasistent heerlijk werken in Proxmox.
Ik heb een N355 met 48GB RAM.
Homeasistant mag max 6GB RAM gebruiken. Als Homeasistent is opgestart gebruikt het na enkel uren ongeveer 500MB RAM. Alleen dit groeit en groeit en groeit. Ik zie niet een log bestand dat groeit. Ik zie eigenlijk nergens waar het geheugen heen gaat. Na een herstart is het ook weer weg.

Iemand een idee?
Moet zeggen dat ik Proxmox heerlijk vind werken en ook de snelheid erg goed is. Alleen dat vollopen van het RAM snap ik niet. Andere VM's draaien ook heerlijk snel.

Acties:
  • +3 Henk 'm!

  • Cardinal
  • Registratie: Maart 2002
  • Laatst online: 10-09 00:26
@Cave_Boy het meeste van het geheugen wordt gereserveerd en beheerd door het systeem, zelfs met mijn bloated installatie is dat nog nooit een probleem geweest. Je ziet ook een verschil tussen wat Proxmox en HA aangeeft. Proxmox zegt in mijn geval 4gb en HA 1.6gb, maar het nog nooit een probleem geweest of “vol”.

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:53

zeroday

There is no alternative!

_JGC_ schreef op dinsdag 2 september 2025 @ 15:54:
@zeroday Houd er wel rekening mee dat CEPH nogal wat geheugen lust. 4GB per OSD is heel normaal.
Geheugen is op zich geen probleem. ;) Maar goed om te weten ..

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:53

zeroday

There is no alternative!

powerboat schreef op dinsdag 2 september 2025 @ 18:00:
@zeroday , Ceph is leuk maar ik ben ermee gestopt. Je hebt een oneven aantal hypervisors nodig 3 is minimaal maar eigenlijk moet je er meer hebben. Performance kakt bij 3 in als een node offline is.
ik heb nu een 4 node cluster zonder CEPH, er komen 3 systemen bij met CEPH om daarna uit te breiden .. maar alleen als het 'werkt' ;)

Ik ben benieuwd of ik inderdaad merk dat dingen 'langzamer' aanvoelen..

In principe kan ik ook replicatie uitvoeren binnen mijn proxmox nodes want dan ze heten allemaal hetzelfde, maar sommige nodes staan best wel vol (ja onzinnig maar goed) ..
en dan wil ik zie niet 1-2-3 op een andere node hebben ..

Dus huidige setup is ok, maar offline is offline. Snel migreren is er niet bij .. dus keuzes keuzes ..

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Nu online
@zeroday Als je data je lief is en je op VM niveau geen writeback cache instelt betekent Ceph met 1Gbit gewoon dat writes pas klaar zijn als het minimaal 2x over een Gbit lijn gerepliceerd is. Verder doet Ceph elke week een scrub waarbij de hele disk wordt vergeleken met de andere beide kopietjes, dat mag ook over je Gbit netwerk.

Ik heb het draaien over 25Gbit met DACs tussen de servers. Wel dure kaartjes die Intel E810 dingen. Met 3 of 4 servers is full mesh nog wel te doen, daarna moet je gaan kijken naar een switch (alhoewel mijn servers 4x25 hebben en er dus 5 stuks geplaatst kunnen worden, maar dan heb je een enorme kabelbende)

Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:53

zeroday

There is no alternative!

_JGC_ schreef op dinsdag 2 september 2025 @ 20:57:
@zeroday Als je data je lief is en je op VM niveau geen writeback cache instelt betekent Ceph met 1Gbit gewoon dat writes pas klaar zijn als het minimaal 2x over een Gbit lijn gerepliceerd is. Verder doet Ceph elke week een scrub waarbij de hele disk wordt vergeleken met de andere beide kopietjes, dat mag ook over je Gbit netwerk.

Ik heb het draaien over 25Gbit met DACs tussen de servers. Wel dure kaartjes die Intel E810 dingen. Met 3 of 4 servers is full mesh nog wel te doen, daarna moet je gaan kijken naar een switch (alhoewel mijn servers 4x25 hebben en er dus 5 stuks geplaatst kunnen worden, maar dan heb je een enorme kabelbende)
Je maakt de keuze voor me makkelijk ;)
ik zeg >dev/null/ceph
en moet er maar aan gaan denken als ik andere gebakjes ga gebruiken (ooit) ;) Top .. dank !

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Nu online
@zeroday In jouw geval zou ik eerder ZFS replication gebruiken. Als je dan een migratie doet naar een andere host wordt de replicatie vervolgens gewoon omgedraaid.

Ja bij een crash ben je dan de laatste data die nog niet gerepliceerd was kwijt, maar qua performance wint ZFS het gewoon van Ceph en qua complexiteit is het een stuk simpeler met minder eisen aan disks, geheugen en netwerk.

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:53

zeroday

There is no alternative!

_JGC_ schreef op dinsdag 2 september 2025 @ 21:54:
@zeroday In jouw geval zou ik eerder ZFS replication gebruiken. Als je dan een migratie doet naar een andere host wordt de replicatie vervolgens gewoon omgedraaid.

Ja bij een crash ben je dan de laatste data die nog niet gerepliceerd was kwijt, maar qua performance wint ZFS het gewoon van Ceph en qua complexiteit is het een stuk simpeler met minder eisen aan disks, geheugen en netwerk.
Ook een van mijn fouten in mijn huidige cluster de ssd disk niet in ZFS gezet.. Maar met 3 nieuwe nodes
kan dat straks rustig door alles over te migreren en dan de oude gebakjes even te wipen en te herconfigureren.

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 16:41
Cave_Boy schreef op dinsdag 2 september 2025 @ 18:40:
Ik heb mijn Homeasistent heerlijk werken in Proxmox.
Ik heb een N355 met 48GB RAM.
Homeasistant mag max 6GB RAM gebruiken. Als Homeasistent is opgestart gebruikt het na enkel uren ongeveer 500MB RAM. Alleen dit groeit en groeit en groeit. Ik zie niet een log bestand dat groeit. Ik zie eigenlijk nergens waar het geheugen heen gaat. Na een herstart is het ook weer weg.

Iemand een idee?
Moet zeggen dat ik Proxmox heerlijk vind werken en ook de snelheid erg goed is. Alleen dat vollopen van het RAM snap ik niet. Andere VM's draaien ook heerlijk snel.
Opnsense heeft hier ook een handje van. Geef je hem 4gb “verbruikt” hij er 3.5. Geef je hem 8 dan “verbruikt” die 7.5. Maar zoals een andere reactie al zei is het vooral reserveren.

Acties:
  • 0 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 18:08
Mich schreef op woensdag 3 september 2025 @ 09:38:
[...]


Opnsense heeft hier ook een handje van. Geef je hem 4gb “verbruikt” hij er 3.5. Geef je hem 8 dan “verbruikt” die 7.5. Maar zoals een andere reactie al zei is het vooral reserveren.
ehm nee, dat is wat proxmox weergeeft. in de VM is het maar 500/600mb

dat is een foutje in de nieuwe proxmox dat sommige qemu-based vm's het geheugengebruik verkeerd weergeven.

https://pve.proxmox.com/w...nsumption_Shown_is_Higher

(heb dat zelf ook, in de GUI van promox pakt ie 95% van het geheugen. in de opnsense interface of top is het vele malen minder)

A wise man's life is based around fuck you


Acties:
  • +1 Henk 'm!

  • ViPER_DMRT
  • Registratie: Juni 2004
  • Laatst online: 10-09 14:42

ViPER_DMRT

Kung-Foo !

powerboat schreef op dinsdag 2 september 2025 @ 18:00:
@zeroday , Ceph is leuk maar ik ben ermee gestopt. Je hebt een oneven aantal hypervisors nodig 3 is minimaal maar eigenlijk moet je er meer hebben. Performance kakt bij 3 in als een node offline is.
Omdat een 'ekte' cluster nu ook uit minimaal 3 nodes moet bestaan een betrouwbaar quorum te kunnen garanderen. 10Gb is well bare minimum om er van te kunnen genieten, zeker wanneer er een node uit kakt :)

How many of you believe in telekinesis? Raise my hand.


Acties:
  • +3 Henk 'm!

  • nassau
  • Registratie: December 2000
  • Nu online
Zwelgje schreef op woensdag 3 september 2025 @ 09:42:
[...]


ehm nee, dat is wat proxmox weergeeft. in de VM is het maar 500/600mb

dat is een foutje in de nieuwe proxmox dat sommige qemu-based vm's het geheugengebruik verkeerd weergeven.

https://pve.proxmox.com/w...nsumption_Shown_is_Higher

(heb dat zelf ook, in de GUI van promox pakt ie 95% van het geheugen. in de opnsense interface of top is het vele malen minder)
In Home Assistant is dat voornamelijk file cache. Ik monitor HA met prometheus-node-exporter. De grafiek in Grafana laat het mooi zien - VM staat op 3 GB config. File cache neemt meer dan de helft en er is "slechts" 84 MB vrij.

Als er RAM beschikbaar is zal het gebruikt worden voor de caches, maar kan ook elk moment weer worden vrijgegeven.

Afbeeldingslocatie: https://tweakers.net/i/CHc45HfEcs8lstGst1o2ULjr9-4=/800x/filters:strip_exif()/f/image/EGTznw92rsHFez2Pu01qhTSb.png?f=fotoalbum_large

Acties:
  • +4 Henk 'm!

  • Neus
  • Registratie: Maart 2001
  • Laatst online: 11:09

Neus

www.zenaconsult.com

Vorige week Pulse op een LXC gezet in mijn 3-node cluster (en 3 backup servers):
https://github.com/rcourtman/Pulse

Review:
https://www.xda-developers.com/pulse-guide/

Erg handig!

Very funny, Scotty... Now beam down my clothes !


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:53

zeroday

There is no alternative!

Neus schreef op woensdag 3 september 2025 @ 11:29:
Vorige week Pulse op een LXC gezet in mijn 3-node cluster (en 3 backup servers):
https://github.com/rcourtman/Pulse

Review:
https://www.xda-developers.com/pulse-guide/

Erg handig!
Interessant, maar waarom 3 backup servers? ivm storage per PBS ?

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • Neus
  • Registratie: Maart 2001
  • Laatst online: 11:09

Neus

www.zenaconsult.com

zeroday schreef op woensdag 3 september 2025 @ 11:43:
Interessant, maar waarom 3 backup servers? ivm storage per PBS ?
Ja, ik heb 1x PBS server met backup om het uur, 1x PBS die daar een sync van draait met een langere retentie. Daarnaast een goedkope 1x 8TB PBS server bij Servarica die de volledige backups draaien met een retentie van 1 jaar.

Very funny, Scotty... Now beam down my clothes !


Acties:
  • 0 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 18:33
Net de upgrade gedaan met m’n cluster van 8 naar 9, zonder issues.

Acties:
  • 0 Henk 'm!

  • Neus
  • Registratie: Maart 2001
  • Laatst online: 11:09

Neus

www.zenaconsult.com

Theetjuh schreef op woensdag 3 september 2025 @ 12:40:
Net de upgrade gedaan met m’n cluster van 8 naar 9, zonder issues.
Hier ook, 1 node welliswaar om te testen maar werkt nog prima in de cluster:

Afbeeldingslocatie: https://tweakers.net/i/a0Hawk01aLhZQhpbeOJ1B4dfaIE=/800x/filters:strip_exif()/f/image/JrxPf9FZtmPSwcj5SjS18fbk.png?f=fotoalbum_large

Very funny, Scotty... Now beam down my clothes !


Acties:
  • 0 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 18:33
Neus schreef op woensdag 3 september 2025 @ 13:30:
[...]


Hier ook, 1 node welliswaar om te testen maar werkt nog prima in de cluster:

[Afbeelding]
Hier gisteren de eerste, maar vond het vanmorgen wel prima toen ik merkte dat alles het nog prima doet.

Ik moet zeggen dat ik bij de eerste keer de documentatie doornemen het nog veel vond, maar eigenlijk viel het allemaal wel mee.

Acties:
  • +3 Henk 'm!

  • UTMachine
  • Registratie: Juli 2000
  • Laatst online: 10-09 19:22
zeroday schreef op dinsdag 2 september 2025 @ 20:28:
[...]


ik heb nu een 4 node cluster zonder CEPH, er komen 3 systemen bij met CEPH om daarna uit te breiden .. maar alleen als het 'werkt' ;)

Ik ben benieuwd of ik inderdaad merk dat dingen 'langzamer' aanvoelen..

In principe kan ik ook replicatie uitvoeren binnen mijn proxmox nodes want dan ze heten allemaal hetzelfde, maar sommige nodes staan best wel vol (ja onzinnig maar goed) ..
en dan wil ik zie niet 1-2-3 op een andere node hebben ..

Dus huidige setup is ok, maar offline is offline. Snel migreren is er niet bij .. dus keuzes keuzes ..
Kende je deze al?
https://gist.github.com/s...2927a89d977ea989da157e9dc

Hier gebruiken ze de TB4 poorten voor 25+ Gbit/sec links voor Ceph.

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:53

zeroday

There is no alternative!

UTMachine schreef op woensdag 3 september 2025 @ 19:48:
[...]


Kende je deze al?
https://gist.github.com/s...2927a89d977ea989da157e9dc

Hier gebruiken ze de TB4 poorten voor 25+ Gbit/sec links voor Ceph.
Daar had ik nog helemaal niet over nagedacht .. ;) Dat zou een toekomstig idee zijn ..
nu even genoeg uitgegeven. Daarbij .. Hoe is de kwaliteit van die thunderbolt netwerk adapters?
Ik ben bijv. geen fan van Realtek .. maar dat kan na zoveel jaar wel vele malen verbeterd zijn ..

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 16:13

Quad

Doof

UTMachine schreef op woensdag 3 september 2025 @ 19:48:
[...]


Kende je deze al?
https://gist.github.com/s...2927a89d977ea989da157e9dc

Hier gebruiken ze de TB4 poorten voor 25+ Gbit/sec links voor Ceph.
Ow dit is wel heel episch. Ik moest even nadenken hoe ik het moest interpreteren, maar een ring netwerk onderling over TB4 kabels voor dergelijke snelheden is wel goed bedacht.
zeroday schreef op woensdag 3 september 2025 @ 22:45:
[...]


Daar had ik nog helemaal niet over nagedacht .. ;) Dat zou een toekomstig idee zijn ..
nu even genoeg uitgegeven. Daarbij .. Hoe is de kwaliteit van die thunderbolt netwerk adapters?
Ik ben bijv. geen fan van Realtek .. maar dat kan na zoveel jaar wel vele malen verbeterd zijn ..
Volgens mij worden er geen echte netwerkadapters gebruikt, maar wordt door een truc de TB4 poorten omgecat naar netwerk. En door de fysieke laag van TB4 aan te spreken heb je een hele hoge snelheid.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • +1 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Nu online
Quad schreef op woensdag 3 september 2025 @ 23:03:
[...]

Ow dit is wel heel episch. Ik moest even nadenken hoe ik het moest interpreteren, maar een ring netwerk onderling over TB4 kabels voor dergelijke snelheden is wel goed bedacht.

[...]

Volgens mij worden er geen echte netwerkadapters gebruikt, maar wordt door een truc de TB4 poorten omgecat naar netwerk. En door de fysieke laag van TB4 aan te spreken heb je een hele hoge snelheid.
Klopt, wat ik doe met die E810 kaarten en DACs onderling kan je ook met Thunderbolt4 USB-C kabels doen. Aan de ene kant laad je thunderbolt-net in en de NUC aan de andere kant herkent het en doet automatisch hetzelfde. Vervolgens heb je een netwerk interface die je gewoon kunt configureren.
Komt geen Realtek aan te pas dus ;)

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 09:53

zeroday

There is no alternative!

Quad schreef op woensdag 3 september 2025 @ 23:03:
[...]

Ow dit is wel heel episch. Ik moest even nadenken hoe ik het moest interpreteren, maar een ring netwerk onderling over TB4 kabels voor dergelijke snelheden is wel goed bedacht.

[
Het enige jammere is dat hij (in de gist) niet verteld dat je (volgens mij) daar minimaal Intel NUC11 of hoger voor moet hebben.. Mijn NUCs zijn NUC8 of NUC10. Hebben wel Thunderbolt/USB-C maar uhh... geen 2 aansluitingen.
En dat is nodig voor de ring natuurlijk ;) Da's jammer, moet ik er nog meer kopen .. (effe nie)

There are no secrets, only information you do not yet have


  • powerboat
  • Registratie: December 2003
  • Nu online
ViPER_DMRT schreef op woensdag 3 september 2025 @ 09:52:
[...]


Omdat een 'ekte' cluster nu ook uit minimaal 3 nodes moet bestaan een betrouwbaar quorum te kunnen garanderen. 10Gb is well bare minimum om er van te kunnen genieten, zeker wanneer er een node uit kakt :)
Ik had 3x HP 385G10 met een storage network op 10Gbit/s, ik wel iets van perfomance degration verwacht maar niet zoveel.

Acties:
  • 0 Henk 'm!

  • MakhouT
  • Registratie: September 2016
  • Laatst online: 09-09 20:26
Hallo allemaal,

Sinds mijn upgrade van Proxmox VE 7.x naar 8.x ervaar ik netwerkproblemen op mijn Intel NUC8i7BEH2 (i7-8559U, Intel I219-V NIC).

Systeemgegevens
• Hardware: Intel NUC8i7BEH2 (NUC8i7BEH2, CPU i7-8559U, onboard Intel I219-V Gigabit NIC)
• Proxmox versie: 8.x
• Kernel: 6.8.12-12-pve (standaard Proxmox 8 kernel)
• NIC-driver: e1000e

Probleem
Na een aantal uur gebruik valt de netwerkverbinding van de NUC weg.
• De host is niet meer bereikbaar via IP (ping/https)
• In de logs zie ik herhaaldelijk:

code:
1
 eno1: Detected Hardware Unit Hang


Pingen naar de gateway (192.168.1.1) werkt nog steeds
• Pingen naar het eigen IP (192.168.1.37) faalt met Destination Host Unreachable

Het lijkt erop dat uitgaand verkeer werkt, maar inkomend verkeer geblokkeerd wordt zodra de NIC in een “hang”-state terecht komt.

Wat ik al geprobeerd heb
• pcie_aspm=off toegevoegd aan GRUB → tijdelijk leek dit te helpen, maar probleem komt alsnog terug
• Driver herladen met:
code:
1
2
3
 modprobe -r e1000e
modprobe e1000e
systemctl restart networking


Dit herstelt de verbinding, maar slechts tijdelijk (enkele uren)

• Volledige reboot → netwerk komt altijd weer terug

Wat niet geholpen heeft
• Firewall uitzetten
• Controleren van bridge-configuratie (vmbr0 correct ingesteld met eno1)
• Controleren van link-status (ethtool eno1 geeft Link detected: yes)

Zijn er meer mensen met een NUC8 (of vergelijkbare Intel NIC) die dit probleem ervaren sinds kernel 6.8 in Proxmox 8?
En is de aanbevolen oplossing om terug te gaan naar de 5.15 LTS kernel (zoals gebruikt in Proxmox 7), of zijn er andere workarounds?

Alvast bedankt voor het meedenken!

Acties:
  • +2 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 16:13

Quad

Doof

@MakhouT @ThinkPad had dit beschreven en de oplossing gedeeld: ThinkPad in "Het grote Proxmox VE topic"

En upgrade gelijk even door naar v9. :)

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • MakhouT
  • Registratie: September 2016
  • Laatst online: 09-09 20:26
Quad schreef op zaterdag 6 september 2025 @ 23:34:
@MakhouT @ThinkPad had dit beschreven en de oplossing gedeeld: ThinkPad in "Het grote Proxmox VE topic"

En upgrade gelijk even door naar v9. :)
Aha niet goed gezocht dan! Ik probeer het uit en rapporteer terug!
Zal inderdaad ineens naar v9 upgraden

Thanks!

[ Voor 5% gewijzigd door MakhouT op 06-09-2025 23:41 ]


Acties:
  • +1 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 16:13

Quad

Doof

MakhouT schreef op zaterdag 6 september 2025 @ 23:41:
[...]


Aha niet goed gezocht dan! Ik probeer het uit en rapporteer terug!
Zal inderdaad ineens naar v9 upgraden

Thanks!
Wil je weten of je exact hetzelfde issue hebt, als de netwerk blijft hangen, haal de netwerkkabel er even uit en plug 'm dan weer terug, de verbinding herstelt zich dan.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:59
@MakhouT - proxmox forum al eens bezocht?
Daar rapporteren mensen dat het probleem in de driver zit. En dat bepaalde offload functies uit zetten zou helpen - misschien ook voor jouw situatie.
code:
1
2
3
iface eno1 inet manual
        offload-tso off
        offload-gso off

Een forumlink (er zijn meerdere posts rondom dit topic):
https://forum.proxmox.com...-driver-hang.58284/page-9

[ Voor 5% gewijzigd door Airw0lf op 07-09-2025 08:28 ]

makes it run like clockwork


Acties:
  • +2 Henk 'm!

  • nassau
  • Registratie: December 2000
  • Nu online
@MakhouT jij ervaart waarschijnlijk issues met de intel netwerk driver. Heb ik zelf ook gehad met mijn nuc8

Daar zijn oplossingen voor onder andere https://community-scripts.github.io/ProxmoxVE/ heeft een intel e1000 offloading fix

Acties:
  • 0 Henk 'm!

  • Nomi
  • Registratie: Oktober 2005
  • Laatst online: 17:10
Welke SATA-controller werkt wel goed in combi met Proxmox?

Mijn moerderbord heeft slechts 4 SATA-poorten en ik zou er graag nog een paar bij willen hebben. Ik heb verschillende controllers getest, maar ik krijg het niet goed aan de praat met Proxmox.

Moederbord: Kontron K3842-Q2

Wat heb ik al geprobeerd:

Startech 4 port SATA PCIe kaart met ASMedia ASM1164 chipset
Delock 4 port SATA PCI Express x1 Card met ASM1064 chipset
Beide kaarten met ASM chipset worden niet goed herkend en werken niet. Als ik het goed begrijp heeft dat met de kernel van Proxmox te maken. Helemaal snappen doe ik het niet en een oplossing hebben ik niet kunnen vinden. Ja, zelf een kernel compileren, maar daar voel ik mij niet zeker bij.

Delock 4 port SATA PCI Express Card met Marvell 88SE9215 chipset
Deze kaart werkt op zich. De boel blijft echter hangen in hoge C-states, waardoor het verbruik enorm toeneemt met ongeveer 10 Watt - dat vind ik te veel. Dit wat oudere kaartje lijkt lagere C-states niet goed te ondersteunen en ook hiervoor heb ik geen goede oplossing kunnen vinden.

Iemand hier die mij op het goede spoor kan zetten?

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:59
@Nomi - hoe ziet je build er precies uit - met name het video gedeelte?

Ik heb hetzelfde Delock kaartje gebruikt - en ook de raid-0/1 equivalent.
Werkte prima - alleen leek het erop dat ik tegen de x1-limiet van het (AMD) systemboard aan liep.

Er zit nu een x8 LSI kaartje in - dit draait nu een aantal maanden zonder problemen.
Maar inderdaad - wel een aanzienlijk hoger verbruik (wat ik voor nu even voor lief neem).

Mijn inschatting is dat je minimaal een x4 uitvoering nodig hebt en ondersteuning voor pci-e 3.
Bijvoorbeeld zoiets als dit: https://www.delock.com/produkt/90498/merkmale.html

Dit kaartje heeft een chipset met iets dat heet DevSleep mode.
Wat ik er van begrijp is dat de aangesloten disken hiermee in slaapstand gezet kunnen worden.
Bron: Wikipedia: DevSlp

Wellicht dat je wel het bios van je systemboard moet kunnen instellen dat ie een boot van dit soort kaartjes moet negeren. Zie het als een voorzorgsmaatregel om te voorkomen dat het ergens bijt met de normale opstart disk.

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Nomi
  • Registratie: Oktober 2005
  • Laatst online: 17:10
Airw0lf schreef op zondag 7 september 2025 @ 11:19:
@Nomi - hoe ziet je build er precies uit - met name het video gedeelte?
Er zit een i5-13500 CPU in en geen losse videokaart. Niets bijzonders dus. Waarom stel je die vraag? Waar denk je aan?

Het kaartje dat jij aanraadt heeft een JMicron JMB585 chipset. Weer een andere chipset dus, dat zou ik nog kunnen proberen.

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:59
@Nomi - geen losse videokaart wil zeggen genoeg ruimte om twee x4 (of snellere) kaarten te plaatsen.

Je zou dan zelfs kunnen overwegen om er een 6 of 8 poorts SATA kaartje bij te prikken (wat doorgaans een x8 kaartje is). Waardoor je meer dan genoeg SATA aansluitingen kwijt kan - ik geloof tot 8 per kaart.

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • MakhouT
  • Registratie: September 2016
  • Laatst online: 09-09 20:26
Quad schreef op zaterdag 6 september 2025 @ 23:49:
[...]

Wil je weten of je exact hetzelfde issue hebt, als de netwerk blijft hangen, haal de netwerkkabel er even uit en plug 'm dan weer terug, de verbinding herstelt zich dan.
Ik heb dit gedaan, maar verbinding herstelt zich dus niet. Ik zal die script van hieronder eens proberen

Acties:
  • 0 Henk 'm!

  • HowsMyApple
  • Registratie: November 2010
  • Laatst online: 18:22
Onlangs unattended upgrades geconfigureerd en wilde eens checken of het daadwerkelijk wat doet. Gescheduled voor elke dag om 03:00 met een random delay window.
Op 2025-09-07 zag ik dat er zowaar wat (security gerelateerde) packages waren geupgraded. Dat werkt dus prima. Maar nu viel het me ook op dat er naast mijn geschedulede task op een ander moment nog eens voor security upgrades wordt gecheckt. Zie log van vannacht:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
2025-09-08 03:01:45,798 INFO Checking if system is running on battery is skipped. Please install 
powermgmt-base package to check power status and skip installing updates when the system is runni
ng on battery.
2025-09-08 03:01:45,803 INFO Starting unattended upgrades script
2025-09-08 03:01:45,804 INFO Allowed origins are: origin=Debian,codename=bookworm,label=Debian, o
rigin=Debian,codename=bookworm,label=Debian-Security, origin=Debian,codename=bookworm-security,la
bel=Debian-Security, origin=Debian,codename=bookworm,label=Debian, origin=Debian,codename=bookwor
m,label=Debian-Security, origin=Debian,codename=bookworm-security,label=Debian-Security
2025-09-08 03:01:45,804 INFO Initial blacklist: 
2025-09-08 03:01:45,804 INFO Initial whitelist (not strict): 
2025-09-08 03:01:46,734 INFO No packages found that can be upgraded unattended and no pending aut
o-removals
2025-09-08 04:47:46,878 INFO Checking if system is running on battery is skipped. Please install 
powermgmt-base package to check power status and skip installing updates when the system is runni
ng on battery.
2025-09-08 04:47:46,883 INFO Starting unattended upgrades script
2025-09-08 04:47:46,883 INFO Allowed origins are: origin=Debian,codename=bookworm,label=Debian, o
rigin=Debian,codename=bookworm,label=Debian-Security, origin=Debian,codename=bookworm-security,la
bel=Debian-Security, origin=Debian,codename=bookworm,label=Debian, origin=Debian,codename=bookwor
m,label=Debian-Security, origin=Debian,codename=bookworm-security,label=Debian-Security
2025-09-08 04:47:46,883 INFO Initial blacklist: 
2025-09-08 04:47:46,883 INFO Initial whitelist (not strict): 
(END)


Wanneer ik zoek naar m'n timers, lijk ik er ineens nog een te hebben? (apt-daily-upgrade.timer is degene die ik onlangs zelf, bewust, heb geconfigureerd)
Weet iemand of je die apt-daily-timer er automagisch bij krijgt of dat ik er geen actieve herinnering meer aan heb dat ik dat zelf ooit heb gedaan?
code:
1
2
3
4
5
systemctl list-timers apt-daily*

NEXT                         LEFT          LAST                         PASSED  UNIT            >
Tue 2025-09-09 00:04:26 CEST 3h 32min left Mon 2025-09-08 11:56:55 CEST 8h ago  apt-daily.timer >
Tue 2025-09-09 03:08:52 CEST 6h left       Mon 2025-09-08 03:01:45 CEST 17h ago apt-daily-upgrad>


Overigens is het rare dus dat wanneer ik die timer inspecteer:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
sudo systemctl edit apt-daily.timer

### Editing /etc/systemd/system/apt-daily.timer.d/override.conf
### Anything between here and the comment below will become the new contents of the file



### Lines below this comment will be discarded

### /lib/systemd/system/apt-daily.timer
# [Unit]
# Description=Daily apt download activities
# 
# [Timer]
# OnCalendar=*-*-* 6,18:00
# RandomizedDelaySec=12h
# Persistent=true
# 
# [Install]
# WantedBy=timers.target

alles nog gewoon als comments staat. Dus in theorie zou deze timer helemaal niet moeten werken.
Iemand hier toevallig een verklaring voor?

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:48
HowsMyApple schreef op maandag 8 september 2025 @ 20:42:
Overigens is het rare dus dat wanneer ik die timer inspecteer:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
sudo systemctl edit apt-daily.timer

### Editing /etc/systemd/system/apt-daily.timer.d/override.conf
### Anything between here and the comment below will become the new contents of the file



### Lines below this comment will be discarded

### /lib/systemd/system/apt-daily.timer
# [Unit]
# Description=Daily apt download activities
# 
# [Timer]
# OnCalendar=*-*-* 6,18:00
# RandomizedDelaySec=12h
# Persistent=true
# 
# [Install]
# WantedBy=timers.target

alles nog gewoon als comments staat. Dus in theorie zou deze timer helemaal niet moeten werken.
Iemand hier toevallig een verklaring voor?
Dat het als comment staat is gewoon omdat het de inhoud van de "originele" file is, niet omdat het in de originele file als comment staat. Je kunt natuurlijk de file zelf open trekken, en zeer kleine kans dat daarin ook de comments staan (als in: mijn Debian install staan die regels er "gewoon", en niet als comment).

In ieder geval staat die op mijn Debian systeem (dus niet Proxmox) ook aan (systemctl is-enabled apt-daily.timer), en 100% zeker dat ik die nooit enabled heb.

Acties:
  • +1 Henk 'm!

  • ninjazx9r98
  • Registratie: Juli 2002
  • Laatst online: 18:40
@HowsMyApple Een systemctl edit doet niet wat je denkt dat het doet namelijk het direct editen van de servicie file. Wat het wel doet is een zogenaamde override file aanmaken zoals je ook kunt zien in één van de commentregels.
code:
1
### Editing /etc/systemd/system/apt-daily.timer.d/override.conf

Hiermee laat je de originele file in stand en maakt een override 'op' die file voor de zaken die je anders wilt.

Dit doe je door eerst datgene wat je anders wilt te resetten en daarna datgene neer te zetten wat je wilt bereiken. Bijv:
code:
1
2
3
4
5
6
7
8
### Editing /etc/systemd/system/apt-daily.timer.d/override.conf
### Anything between here and the comment below will become the new contents of the file

[Timer]
OnCalendar=
OnCalendar=*-*-* 8,22:00

### Lines below this comment will be discarded


Wil le de daadwerkelijke service file editten dan kun je dat bijv doen met
code:
1
systemctl --full edit apt-daily.timer

Daarna nog even onderstaande om het netjes af te ronden
code:
1
systemctl daemon-reload

Acties:
  • 0 Henk 'm!

  • badkuip
  • Registratie: December 2002
  • Laatst online: 16:17
Mag ik even om jullie hulp vragen met de setup van een Coral TPU op Proxmox VE 9.0.5?
Ik heb een Coral TPU in het M2 slot van mijn machine gedaan. Ik wil deze gebruiken in mijn Proxmox Home assistant VM.
De genomen stappen tot nu toe:
  1. Hardware geinstalleerd
  2. Het PCI device toegevoegd aan de haos guest VM.
Het resultaat is dat de Coral TPU niet gezien of niet gevonden wordt door de Home assistant VM.

Op het web hebben ze het over installeren van drivers in de proxmox host. Zogenaamde gasket drivers die je zelf moet compileren. Chat GPT heeft het over het configureren van IOMMU.
En bij deze stappen zit mijn onbegrip. Moeten deze drivers echt op de host geinstalleerd worden? Hoezo? Het enige wat Proxmox VE moet doen is het device plain doorsturen naar de VM? De Home assistant VM heeft de drivers dus die pikt het wel op wanneer ie de TPU aangeboden krijgt. Kan iemand mij helpen dit te begrijpen?

Iemand dit dit toe kan lichten? Ben aardig weg in linux maar nog niet zo lang ervaring met virtuele omgevingen. En nog een tip voor een goede tutorial? Met die gasket drivers heb ik het geprobeerd maar ik kreeg de pgp sleutel van google niet goed geinstalleerd (apt-key niet bekend in Proxmox VE). Daarnaast het ik gehoord dat de hele boel onderuit gaat wanneer de Proxmox kernel geupdate wordt..

Heeft iemand tips of pointers?

Acties:
  • 0 Henk 'm!

  • tjanssen
  • Registratie: Augustus 2012
  • Niet online
badkuip schreef op dinsdag 9 september 2025 @ 20:12:
Mag ik even om jullie hulp vragen met de setup van een Coral TPU op Proxmox VE 9.0.5?
Ik heb een Coral TPU in het M2 slot van mijn machine gedaan. Ik wil deze gebruiken in mijn Proxmox Home assistant VM.
De genomen stappen tot nu toe:
  1. Hardware geinstalleerd
  2. Het PCI device toegevoegd aan de haos guest VM.
Het resultaat is dat de Coral TPU niet gezien of niet gevonden wordt door de Home assistant VM.

Op het web hebben ze het over installeren van drivers in de proxmox host. Zogenaamde gasket drivers die je zelf moet compileren. Chat GPT heeft het over het configureren van IOMMU.
En bij deze stappen zit mijn onbegrip. Moeten deze drivers echt op de host geinstalleerd worden? Hoezo? Het enige wat Proxmox VE moet doen is het device plain doorsturen naar de VM? De Home assistant VM heeft de drivers dus die pikt het wel op wanneer ie de TPU aangeboden krijgt. Kan iemand mij helpen dit te begrijpen?

Iemand dit dit toe kan lichten? Ben aardig weg in linux maar nog niet zo lang ervaring met virtuele omgevingen. En nog een tip voor een goede tutorial? Met die gasket drivers heb ik het geprobeerd maar ik kreeg de pgp sleutel van google niet goed geinstalleerd (apt-key niet bekend in Proxmox VE). Daarnaast het ik gehoord dat de hele boel onderuit gaat wanneer de Proxmox kernel geupdate wordt..

Heeft iemand tips of pointers?
Deze gasket drivers moet je dan in HA OS installeren, geen idee of dit kan. Ik ga er vanuit dat je Frigate wil gaan gebruiken? If so, dan is een andere optie een separate VM maken voor Frigate waarin je een passthrough doet van je Coral, en hierop alles installeert. In HA installeer je dan de Frigate Proxy.

Voordeel van deze aanpak is dat je niet iedere kernel update van Proxmox je gasket drivers opnieuw hoeft te compileren.

  • Slonzo
  • Registratie: Mei 2007
  • Niet online

Slonzo

Taarsidath-an Halsaam

Hier staat een werkende config voor een Proxmox VM, misschien ben je daar iets mee?
edit:
Oh, ik had even gemist dat hij bij jou niet over USB loopt. Maar misschien ben je er alsnog iets mee...

[ Voor 15% gewijzigd door Slonzo op 10-09-2025 09:04 ]

Pagina: 1 ... 60 61 Laatste