"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
Niets, behalve dat Eaton goed wordt ondersteund bij Linux en dat de accu's bij APC gemiddeld om de 3 a 4 jaar vervangen moeten worden 😉Jerie schreef op maandag 23 februari 2026 @ 21:27:
Wat is er zo bijzonder aan dat UPS? APC gebruikt toch proprietary kabel om data uit te lezen? Ook lijkt mij de batterij niet makkelijk te vervangen, en meestal looizuur. Het is wel vrij compact vanwege formaat, maar ach.
Maar hé, ik heb zelf thuis een mix van APC en Eaton in gebruik. Originele accu voor een 750VA APC is zeker niet goedkoop. Voor een Eaton 650VA is minder als de helft. Beide origineel.
[ Voor 16% gewijzigd door edwin2021 op 23-02-2026 21:35 ]
Met NUT is de USB uit te lezen en kan je met die info ook wel acties laten ondernemen.
Alles went behalve een Twent.
nggyu nglyd
Ik over 2x smc750i, die stabiliseert ook de spanning. Een be850 volgens mij niet. Ik denk ook dat het stabiliseren van de spannings deels de reden is van de korte levensduur. Blijft wel dat de Eaton ook de spanning stabiliseert maar met een betere houdbaarheid van de accu.Quad schreef op maandag 23 februari 2026 @ 21:33:
De APC BE850 G2 die hier staat heeft bij gemiddelde belasting van 65W een runtime van ruim een uur. En heeft een eenvoudig vervangbare en gangbare batterij.
Met NUT is de USB uit te lezen en kan je met die info ook wel acties laten ondernemen.
O ja, apc software is echt super uitgebreid. Eaton stuk minder.
* Ja, een stabiele spanning. Maar in Nederland is het meest voorkomende nog steeds volledige uitval, en dat is best wel heel erg zeldzaam over het algemeen. Rare / onstabiele spanningen (dus zeg minder dan 200V of goed over de 250V) zijn nog veel zeldzamer. En in omringende landen mag de spanning hoger zijn, in NL moeten omvormers uitvallen bij 230V + 10% oftewel 253V, in BE ligt die grens hoger, dus gangbare hardware zal vast geen problemen hebben met een langdurige hogere spanning van 240 of 250 V.
Is dat een nieuw, milieuvriendelijk type accu?Jerie schreef op maandag 23 februari 2026 @ 21:27:
Wat is er zo bijzonder aan dat UPS? APC gebruikt toch proprietary kabel om data uit te lezen? Ook lijkt mij de batterij niet makkelijk te vervangen, en meestal looizuur. Het is wel vrij compact vanwege formaat, maar ach.
(...)
Ja, die uit het anarchist cookbookWild Chocolate schreef op maandag 23 februari 2026 @ 23:44:
[...]
Is dat een nieuw, milieuvriendelijk type accu?
Loodzuur / lead-acid. Rommel is dat.
LiFePO4 gaat langer meer. Wat zwaarder dan Li-Ion, maar dat maakt voor een UPS niet uit. Nog steeds lichter dan lead-acid, minder gevaarlijk bij brand (qua gas bijvoorbeeld), en gaat veel langer mee (10+ jaar). Ze zijn helaas ook een stuk duurder.
In de PW staan ze trouwens niet. Zul je naar een zogeheten thuisbatterij moeten zoeken. Er staat wel wat Li-Ion in de PW, maar die zijn peperduur. 2,4k EUR, voor die prijzen heb je zo 2+ thuisbatterijen, haha.
[ Voor 8% gewijzigd door Jerie op 24-02-2026 00:58 ]
"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
Ik vind het zonde van de W in vergelijking met een enterprise NVMe met PLP die nauwelijks meer W kost dan een consumer NVMe. Al geef ik toe dat ik niet naar de huidige prijzen heb gekeken. Je kunt ze ook tweedehands of met minder TB aanschaffen. Op zich valt ook wel wat te zeggen wanneer je stelt: ik wil graag het glasvezelmodem, ONT, plus de WAP aangesloten hebben op een UPS. In geval van stroomuitval kun je dan immers verder. Ik heb zelf niet eens een glasvezelmodem en ONT, wel losse SFP+ en losse WAP. Maar ik hoef er geen met loodzuur in mijn meterkast, en ik heb ook geen zin om elke 3 jaar de batterij of UPS te vervangen.RobertMe schreef op maandag 23 februari 2026 @ 22:42:
Het grote nadeel van een UPC die de spanning "stabiliseert" is dat ze een enorm stroomverbruik hebben, en wat je er vervolgens voor terug krijgt...* Ik had een APC, volgens mij line-interactive (de middelste variant zeg maar), die 40W uit het stopcontact trok met mijn mini PCtje / serverjte aangesloten. Vervolgens vervangen door een offline standby (?, de "laagste" variant dan) model en nu trekt die 8W uit het stopcontact. Oftewel een 280kWh besparing op jaarbasis.
* Ja, een stabiele spanning. Maar in Nederland is het meest voorkomende nog steeds volledige uitval, en dat is best wel heel erg zeldzaam over het algemeen. Rare / onstabiele spanningen (dus zeg minder dan 200V of goed over de 250V) zijn nog veel zeldzamer. En in omringende landen mag de spanning hoger zijn, in NL moeten omvormers uitvallen bij 230V + 10% oftewel 253V, in BE ligt die grens hoger, dus gangbare hardware zal vast geen problemen hebben met een langdurige hogere spanning van 240 of 250 V.
Bij een succesvolle cyberaanval zou wel schade kunnen ontstaan, maar op zich werkt dat systeem dusdanig dat pieken ergens in Europa zorgen voor dalen elders in Europa omdat alles op elkaar is aangesloten. Er wordt direct op- of afgeschaald, we kunnen een klap van 2 gigawatt incasseren. Aldus Ot van Daalen in zijn boek Voorbereid. Ook kan mjn verdeeldoos een flinke klap hebben.
"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
Verbruik, daar zeg je zoiets. Nooit aan gedacht en ga ik eens meten.RobertMe schreef op maandag 23 februari 2026 @ 22:42:
Het grote nadeel van een UPC die de spanning "stabiliseert" is dat ze een enorm stroomverbruik hebben, en wat je er vervolgens voor terug krijgt...* Ik had een APC, volgens mij line-interactive (de middelste variant zeg maar), die 40W uit het stopcontact trok met mijn mini PCtje / serverjte aangesloten. Vervolgens vervangen door een offline standby (?, de "laagste" variant dan) model en nu trekt die 8W uit het stopcontact. Oftewel een 280kWh besparing op jaarbasis.
* Ja, een stabiele spanning. Maar in Nederland is het meest voorkomende nog steeds volledige uitval, en dat is best wel heel erg zeldzaam over het algemeen. Rare / onstabiele spanningen (dus zeg minder dan 200V of goed over de 250V) zijn nog veel zeldzamer. En in omringende landen mag de spanning hoger zijn, in NL moeten omvormers uitvallen bij 230V + 10% oftewel 253V, in BE ligt die grens hoger, dus gangbare hardware zal vast geen problemen hebben met een langdurige hogere spanning van 240 of 250 V.
Tja waarom 4 ups'en in huis. Ik woon ik buiten gebied met een groot productie bedrijf op ca 400 Meter en toen ik hier ging wonen ging de netspanning echt alle kanten op, halogeen verlichting stond continu te knipperen en minimaal 1x per maand de spanning eraf. Wellicht het moment om eens te kijken of ik kan minderen in de ups'en of een simpelere uitvoering want nog een nadeel van de spanning regulering is dat met de huidige zonnepanelen hij in de zomer zeer regelmatig de spanning naar beneden aan het regelen is omdat de bandbreedte van het regel gebied niet op 253V kan worden gezet.
Ben niet thuis, dus kan niet gluren wat er mis is.
Nu is het niet een van de main nodes, dus het kan ff, maar zie me vanavond alweer lang doende zijn met repareren.
Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)
Ik heb gisteravond op de upgrade knop gedruk en bij mij was het pijnloos. Inclusief een nieuwe kernel versie. Hoop dat je niet te lang bezig bentElCondor schreef op dinsdag 17 maart 2026 @ 12:17:
Ugh, vandaag een van mijn nodes geupdate met de laatste packages, en nu komt hij niet meer op.
Ben niet thuis, dus kan niet gluren wat er mis is.![]()
Nu is het niet een van de main nodes, dus het kan ff, maar zie me vanavond alweer lang doende zijn met repareren.
Misschien uiteindelijk toch gaan kijken voor JetKVM's voor die nodes. Nu hebben alleen mijn beide main nodes een JKVM.
Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)
Ik ben zelf nog lerende, vandaar deze vraag. Zou je deze situatie kunnen oplossen met een restore van een backup gemaakt met Proxmox Backup Server?ElCondor schreef op dinsdag 17 maart 2026 @ 12:17:
Ugh, vandaag een van mijn nodes geupdate met de laatste packages, en nu komt hij niet meer op.
Ben niet thuis, dus kan niet gluren wat er mis is.![]()
Nu is het niet een van de main nodes, dus het kan ff, maar zie me vanavond alweer lang doende zijn met repareren.
Met PBS backup je de VMs en containers. Niet de hostlaag.banaliteit schreef op dinsdag 17 maart 2026 @ 13:18:
[...]
Ik ben zelf nog lerende, vandaar deze vraag. Zou je deze situatie kunnen oplossen met een restore van een backup gemaakt met Proxmox Backup Server?
Alles went behalve een Twent.
nggyu nglyd
Als alternatief in een shell window "apt update" en dan "apt dist-upgrade" doen leidt ook tot een disconnect, in dit geval moest ik zelfs een power cycle doen (na lang gewacht te hebben voor de zekerheid).
Wat doe ik verkeerd?
edit: ook via ssh ingelogd en geprobeerd met:
1
| sudo apt-get -o Acquire::Changelogs::Always-Download=false dist-upgrade |
edit2: problem solved. Bleek een power/voeding issue te zijn, bijzonder wel dat het telkens op exact hetzelfde moment gebeurde, maar blijkbaar trok de mini pc dan net te veel power voor de voeding. Andere voeding gebruikt en nu werkt het.
[ Voor 29% gewijzigd door Bananeman op 17-03-2026 17:44 ]
Inderdaad, het OS moet je zelf op de een of andere manier beschermen. Of zo minimaal mogelijk inrichten, dus geen andere zaken op installeren dan ProxMox zelf en wat daar verder voor nodig is (monitoring bijvoorbeeld). Dit dan goed documenteren en bij catastrofale uitval gewoon het systeem opnieuw opbouwen. Dat is een kwestie van een klein uurtje, als je geen andere dingen op de host hebt geïnstalleerd. Bij mij zou dat kunnen.Quad schreef op dinsdag 17 maart 2026 @ 14:18:
[...]
Met PBS backup je de VMs en containers. Niet de hostlaag.
Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)
mijn clustertje met 7 nodes ging redelijk .. had alleen bij een duplicate host nog aan staan dat ie mee op moest starten en toen ik naar 'die' machine ging en mijn code niet meer kon vinden moest ik even goed nadenken wat er aan de hand waslolgast schreef op dinsdag 17 maart 2026 @ 12:20:
[...]
Ik heb gisteravond op de upgrade knop gedruk en bij mij was het pijnloos. Inclusief een nieuwe kernel versie. Hoop dat je niet te lang bezig bent
maar ook nu overal de laatste kernel
There are no secrets, only information you do not yet have
Hm, een vpn icm ilo (hpe) of iDrac (Dell) kun je de hardware bedienen alsof je erachter zit. Sterker nog, ik sluit eigenlijk bij installatie geeneens meer een toetsenbord en monitor aan. Alleen ilo gegevens even noteren en ip adres opzoeken en gaan.ElCondor schreef op dinsdag 17 maart 2026 @ 12:17:
Ugh, vandaag een van mijn nodes geupdate met de laatste packages, en nu komt hij niet meer op.
Ben niet thuis, dus kan niet gluren wat er mis is.![]()
Nu is het niet een van de main nodes, dus het kan ff, maar zie me vanavond alweer lang doende zijn met repareren.
Ja, dat is mooie tech, maar dan moet je wel iLo/iDrac beschikbaar hebben voor het systeem. In dit geval gaat het om een eenvoudige NUC. Vandaar dat ik dan beter kijk naar een JetKVM.edwin2021 schreef op dinsdag 17 maart 2026 @ 15:00:
[...]
Hm, een vpn icm ilo (hpe) of iDrac (Dell) kun je de hardware bedienen alsof je erachter zit. Sterker nog, ik sluit eigenlijk bij installatie geeneens meer een toetsenbord en monitor aan. Alleen ilo gegevens even noteren en ip adres opzoeken en gaan.
-UPDATE-
Everything went better than expected, het ding bleek om de en of andere reden in boot te blijven hangen. Gene monitor hoeven aansluiten, alleen maar uit en weer terug aan en nog geen twee minuten later popt hij groen op mijn monitoring. Alles netjes weer terug.
Ik zit me nu te bedenken dat ik bij de eerste reboot 'sudo reboot' heb gebruikt in de terminal. Kan het zijn dat je beter de reboot optie kiest in de web-ui? Of is er een pvreboot in de terminal, wellicht? #durftevragen
[ Voor 31% gewijzigd door ElCondor op 17-03-2026 20:28 ]
Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)
Lijkt me stug. De sudo reboot had zijn werk namelijk gedaan!ElCondor schreef op dinsdag 17 maart 2026 @ 16:40:
[...]
Ja, dat is mooie tech, maar dan moet je wel iLo/iDrac beschikbaar hebben voor het systeem. In dit geval gaat het om een eenvoudige NUC. Vandaar dat ik dan beter kijk naar een JetKVM.
-UPDATE-
Everything went better than expected, het ding bleek om de en of andere reden in boot te blijven hangen. Gene monitor hoeven aansluiten, alleen maar uit en weer terug aan en nog geen twee minuten later popt hij groen op mijn monitoring. Alles netjes weer terug.
Ik zit me nu te bedenken dat ik bij de eerste reboot 'sudo reboot' heb gebruikt in de terminal. Kan het zijn dat je beter de reboot optie kiest in de web-ui? Of is er een pvreboot in de terminal, wellicht? #durftevragen
Kijk in je journal of /var/log/dmesg of je nog iets kan vinden.
Mooi spul en ik werk met beide, maar eigenlijk alleen bedoeld voor (semi) professioneel gebruik, anders zijn die dingen normaliter te duur of trekken veels teveel vermogen itt een NUC.edwin2021 schreef op dinsdag 17 maart 2026 @ 15:00:
[...]
Hm, een vpn icm ilo (hpe) of iDrac (Dell) kun je de hardware bedienen alsof je erachter zit. Sterker nog, ik sluit eigenlijk bij installatie geeneens meer een toetsenbord en monitor aan. Alleen ilo gegevens even noteren en ip adres opzoeken en gaan.
En de herrie? Of heb je de fans vervangen? Bij mij staat alles op zolder en dat janken zou nog best door het hele huis gaan, al helemaal als wij een verdieping lager in bed liggen..edwin2021 schreef op woensdag 18 maart 2026 @ 06:06:
Snap ik maar een nuc kun je qua hardware lastig vergelijken met een server. Thuis een ml30 draaien met 2x2tb ssd, 2x6tb hdd en 128gb intern. Verbruik valt mij reuze mee met 23w.
Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)
Heb wel in de tussentijd de firewall op alle hosts/vm/lxc's aan staan ... dat was nog wel even een dingetje
Ik heb zelf trouwens een GL.iNet Comet PoE (GL-RM1PE) en die werkt heerlijk als ik toch ff op afstand wat moet doen.
[ Voor 21% gewijzigd door Theetjuh op 18-03-2026 09:23 ]
Staat in de garage. Nu moet ik zeggen dat als je een recent model hebt en er geen aparte video kaart hebt zitten ze sowieso redelijk stil zijn.ElCondor schreef op woensdag 18 maart 2026 @ 08:30:
[...]
En de herrie? Of heb je de fans vervangen? Bij mij staat alles op zolder en dat janken zou nog best door het hele huis gaan, al helemaal als wij een verdieping lager in bed liggen..
Ik zie in het system log op de node een regel '-- Reboot -- '
Wordt deze gelogd vóórdat het systeem down gaat of juist nadat het systeem terug is opgekomen?
Er staat namelijk geen stimestamp bij.
Voor dat moment zie ik geen gekke dingen in het log en na dat moment zie ik de normale boot reutemeteut voorbij komen.
Zijn er andere diagnostische stappen die ik kan nemen? Ik voor nu even de guests die hier draaien uit gezet, maar het lijkt me niet per sé om resource problemen te gaan. De disks die er in zitten zijn allemaal in goede smart conditie en het systeem is up-to-date (op twee recente updates na die gisteren en vandaag zijn uitgekomen). Dit geldt ook voor de andere drie nodes en die zijn niet aan het wiebelen.
Iemand nog een idee waar ik naar kan kijken?
- UPDATE -
'-- Reboot --' lijkt gelogd te worden voordat het systeem DOWN gaat. Dus hij lijkt een reboot te willen doen, om voor mij nu nog, onduidelijke reden maar het systeem lijkt hardware matig niet terug up te komen.
Ik kan echter wel met WOL het systeem wakker maken en dan boot het gewoon naar het OS.
Dus er lijken twee problemen te spelen:
- Het systeem doet bij een reboot een shutdown ipv een reboot
- Het systeem gaat om nog onbekende redenen over tot een reboot
[ Voor 25% gewijzigd door ElCondor op 19-03-2026 09:50 ]
Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)
Hoe zijn de temperaturen van het systeem? Misschien dat het simpelweg te warm wordt.ElCondor schreef op donderdag 19 maart 2026 @ 09:42:
Bah, Een wiebelende node. Gisteren en vanochtend een spontane reboot en het is me niet duidelijk wat er aan de hand zou kunnen zijn.
Ik zie in het system log op de node een regel '-- Reboot -- '
Wordt deze gelogd vóórdat het systeem down gaat of juist nadat het systeem terug is opgekomen?
Er staat namelijk geen stimestamp bij.
Voor dat moment zie ik geen gekke dingen in het log en na dat moment zie ik de normale boot reutemeteut voorbij komen.
Zijn er andere diagnostische stappen die ik kan nemen? Ik voor nu even de guests die hier draaien uit gezet, maar het lijkt me niet per sé om resource problemen te gaan. De disks die er in zitten zijn allemaal in goede smart conditie en het systeem is up-to-date (op twee recente updates na die gisteren en vandaag zijn uitgekomen). Dit geldt ook voor de andere drie nodes en die zijn niet aan het wiebelen.
Iemand nog een idee waar ik naar kan kijken?
- UPDATE -
'-- Reboot --' lijkt gelogd te worden voordat het systeem DOWN gaat. Dus hij lijkt een reboot te willen doen, om voor mij nu nog, onduidelijke reden maar het systeem lijkt hardware matig niet terug up te komen.
Ik kan echter wel met WOL het systeem wakker maken en dan boot het gewoon naar het OS.
Dus er lijken twee problemen te spelen:Het zou natuurlijk kunnen dat een en ander met elkaar te maken heeft, maar dat is me nu nog niet duidelijk.
- Het systeem doet bij een reboot een shutdown ipv een reboot
- Het systeem gaat om nog onbekende redenen over tot een reboot
1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI
Heb ik ook al even aan zitten denken, inderdaad. Er zitten 4 SSD's in de server, 2 geven een smart device temp aan van +- 45 graden.InjecTioN schreef op donderdag 19 maart 2026 @ 12:24:
[...]
Hoe zijn de temperaturen van het systeem? Misschien dat het simpelweg te warm wordt.
De andere twee melden een Airflow temp van +-75 graden. Ik durf zo even niet te zeggen of dit té heet is.
Het is ook niet eerder voorgevallen en de server heb ik, na een spontane reboot vanochtend, niet meer down zien gaan.
Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)
Thuis opgezet met vaste IP addressen, maar als ik ze meeneem naar een andere locatie kan ik ze niet altijd dezelfde IP adressen geven. De IP addressen aanpassen is niet moeilijk, even in interfaces en hosts file het IP aanpassen en klaar. Maar toen kwam ik er achter dat het cluster niet kan herstellen en de containers dan helemaal niet meer willen starten. Na wat zoek werk kon ik met 'pvecm expected 1' zorgen dat ik de corosync.conf file kon aanpassen. Dit zorgt er voor dat de LXCs op de hosts weer starten, maar de cluster werkt alsnog niet - totdat ik naar het netwerk ga waar ze oorspronkelijk zijn opgezet en ze weer de originele IP addressen krijgen.
Nu overweeg ik om het cluster er weer uit te gooien omdat het voordeel (één login, één managements interface voor twee servers) niet werkt op andere locaties en extra stappen met zich mee brengt om weer aan de praat te krijgen. Ik ben de documentatie gaan bekijken, maar schrok een beetje van de waarschuwingen. Als ik het goed begrijp staat er dat als je het verwijderd ze niet weer opnieuw in een cluster kunnen en op andere plekken zie ik vooral het advies om Proxmox gewoon helemaal van scratch te installeren. In de manual leek wel meer gezegd te worden dat de complexiteit vooral zit in als je meer ingewikkelde dingen hebt gedaan zoals shared storage over servers.
Heeft iemand hier ook al eens te maken gehad? En wellicht een cluster verwijderd?
Als je het niet probeert, kun je het sowieso niet.
Neem een goede router + switch mee. Zet op de router een eigen netwerk waar de switch aan zit. Sluit wan kant router aan op het lan op locatie.Erwin537 schreef op donderdag 19 maart 2026 @ 13:53:
Ik post toch eens even hier voor een check. Voor een lan party heb ik twee oude laptops voorzien van proxmox om zo wat containers te kunnen draaien voor game servers etc. Nu vond ik het handig om ze in een cluster te zetten (had er nog nooit mee gewerkt) omdat je dan vanaf één management interface beide kan beheren.
Thuis opgezet met vaste IP addressen, maar als ik ze meeneem naar een andere locatie kan ik ze niet altijd dezelfde IP adressen geven. De IP addressen aanpassen is niet moeilijk, even in interfaces en hosts file het IP aanpassen en klaar. Maar toen kwam ik er achter dat het cluster niet kan herstellen en de containers dan helemaal niet meer willen starten. Na wat zoek werk kon ik met 'pvecm expected 1' zorgen dat ik de corosync.conf file kon aanpassen. Dit zorgt er voor dat de LXCs op de hosts weer starten, maar de cluster werkt alsnog niet - totdat ik naar het netwerk ga waar ze oorspronkelijk zijn opgezet en ze weer de originele IP addressen krijgen.
Nu overweeg ik om het cluster er weer uit te gooien omdat het voordeel (één login, één managements interface voor twee servers) niet werkt op andere locaties en extra stappen met zich mee brengt om weer aan de praat te krijgen. Ik ben de documentatie gaan bekijken, maar schrok een beetje van de waarschuwingen. Als ik het goed begrijp staat er dat als je het verwijderd ze niet weer opnieuw in een cluster kunnen en op andere plekken zie ik vooral het advies om Proxmox gewoon helemaal van scratch te installeren. In de manual leek wel meer gezegd te worden dat de complexiteit vooral zit in als je meer ingewikkelde dingen hebt gedaan zoals shared storage over servers.
Heeft iemand hier ook al eens te maken gehad? En wellicht een cluster verwijderd?
Misschien te simpel gedacht......
Waar meet je die 75 graden dan? Want 75 graden is direct in een chip (CPU, of GPU) nog te doen. Maar als dat echt je airflow is, dan is er iets mis...ElCondor schreef op donderdag 19 maart 2026 @ 13:26:
[...]
Heb ik ook al even aan zitten denken, inderdaad. Er zitten 4 SSD's in de server, 2 geven een smart device temp aan van +- 45 graden.
De andere twee melden een Airflow temp van +-75 graden. Ik durf zo even niet te zeggen of dit té heet is.
Het is ook niet eerder voorgevallen en de server heb ik, na een spontane reboot vanochtend, niet meer down zien gaan.
75 graden kan voor storage aardig hoog zijn. Meestal throttle-en ze rond die temperatuur, zodat ze wat koeler blijven.
Zou je misschien eens wat specs van je clustertje kunnen delen? Misschien dat het wat meer vertelt over de situatie. Laat ook vooral even weten hoeveel intake en outtake fans je op welke plek van de nodes hebt zitten. Ook andere fans.
1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI
Een cluster met 2 nodes werkt niet goed. Je hebt een 3e node of Q-device nodig voor quorum.Erwin537 schreef op donderdag 19 maart 2026 @ 13:53:
Ik post toch eens even hier voor een check. Voor een lan party heb ik twee oude laptops voorzien van proxmox om zo wat containers te kunnen draaien voor game servers etc. Nu vond ik het handig om ze in een cluster te zetten (had er nog nooit mee gewerkt) omdat je dan vanaf één management interface beide kan beheren.
Thuis opgezet met vaste IP addressen, maar als ik ze meeneem naar een andere locatie kan ik ze niet altijd dezelfde IP adressen geven. De IP addressen aanpassen is niet moeilijk, even in interfaces en hosts file het IP aanpassen en klaar. Maar toen kwam ik er achter dat het cluster niet kan herstellen en de containers dan helemaal niet meer willen starten. Na wat zoek werk kon ik met 'pvecm expected 1' zorgen dat ik de corosync.conf file kon aanpassen. Dit zorgt er voor dat de LXCs op de hosts weer starten, maar de cluster werkt alsnog niet - totdat ik naar het netwerk ga waar ze oorspronkelijk zijn opgezet en ze weer de originele IP addressen krijgen.
Nu overweeg ik om het cluster er weer uit te gooien omdat het voordeel (één login, één managements interface voor twee servers) niet werkt op andere locaties en extra stappen met zich mee brengt om weer aan de praat te krijgen. Ik ben de documentatie gaan bekijken, maar schrok een beetje van de waarschuwingen. Als ik het goed begrijp staat er dat als je het verwijderd ze niet weer opnieuw in een cluster kunnen en op andere plekken zie ik vooral het advies om Proxmox gewoon helemaal van scratch te installeren. In de manual leek wel meer gezegd te worden dat de complexiteit vooral zit in als je meer ingewikkelde dingen hebt gedaan zoals shared storage over servers.
Heeft iemand hier ook al eens te maken gehad? En wellicht een cluster verwijderd?
Als het alleen gaat om remote beheren van proxmox nodes kun je beter Proxmox Datacenter Manager gebruiken: https://www.proxmox.com/e...tacenter-manager/overview
Je kunt de nodes (id, ip, naam, etc.) in een cluster prima aanpassen zonder een nieuwe cluster te maken. Vergt vooral corosync kennis en gaat snel mis als de volgorde niet klopt.
https://forum.proxmox.com...nodes-ip-addresses.33406/
https://forum.proxmox.com...t-the-id-of-a-node.24763/
Met maar 2 nodes en VM/LXC backups is een host reinstall waarschijnlijk sneller en pijnlozer.
Leaping Lab Rats!
Wat bleek: er stond nog een .iso aan gekoppeld die ik weken geleden al verwijderd had.
Best lelijk dat de hele VM dan niet opstart i.p.v. dat hij alleen een warning geeft. Virtuele DVD-drive verwijderd en booten maar.
[ Voor 12% gewijzigd door ThinkPad op 19-03-2026 20:33 ]
Ik heb geen idee WAAR dit wordt gemeten. Het is een SMART status die in het ProxMox System log voorbij komt. Het is, vermoedelijk, een temp meeting aan de buitenzijde van de SSD package, of tegen de buitenzijde aan. Als 75 inderdaad hoog is, dan moet ik eens gaan kijken hoe de exacte fysieke inrichting ook alweer in elkaar zit. Het gaat om een Corsair 4000D waarbij er twee SSD's onder MoBo plate gemonteerd zijn en twee in een drive cage. Ik moet even kijken welke SSD welke is om te weten welke het heetst worden. Wellicht een setje alu cases ervoor kopen. En de fancurves aanpassen...InjecTioN schreef op donderdag 19 maart 2026 @ 15:16:
[...]
Waar meet je die 75 graden dan? Want 75 graden is direct in een chip (CPU, of GPU) nog te doen. Maar als dat echt je airflow is, dan is er iets mis...![]()
75 graden kan voor storage aardig hoog zijn. Meestal throttle-en ze rond die temperatuur, zodat ze wat koeler blijven.
Zou je misschien eens wat specs van je clustertje kunnen delen? Misschien dat het wat meer vertelt over de situatie. Laat ook vooral even weten hoeveel intake en outtake fans je op welke plek van de nodes hebt zitten. Ook andere fans.
Voor de specs, zie mijn inventaris. Het gaat om PM node 3. Ik heb nog twee van de NUC6's ook als node ingericht.
Overigens zijn er geen reboots meer geweest sinds mijn meldingen vanochtend. Workload is niet veranderd. Vreemd gedrag dus...
[ Voor 4% gewijzigd door ElCondor op 19-03-2026 20:51 ]
Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)
Dit exacte probleem is een paar pagina’s terug ook genoemd door iemandThinkPad schreef op donderdag 19 maart 2026 @ 20:32:
Vannacht m'n host laten rebooten i.v.m Proxmox updates. Ik had een VM die niet up kwam terwijl hij wel in autostart stond
Wat bleek: er stond nog een .iso aan gekoppeld die ik weken geleden al verwijderd had.
Best lelijk dat de hele VM dan niet opstart i.p.v. dat hij alleen een warning geeft. Virtuele DVD-drive verwijderd en booten maar.
´t was meeeee!lolgast schreef op donderdag 19 maart 2026 @ 20:49:
[...]
Dit exacte probleem is een paar pagina’s terug ook genoemd door iemand
Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)
En bij deze nog een. Iso was weg maar wel gekoppeld en dus starte de vm niet meer op. Slordig maar simpele fix.lolgast schreef op donderdag 19 maart 2026 @ 20:49:
[...]
Dit exacte probleem is een paar pagina’s terug ook genoemd door iemand
[ Voor 3% gewijzigd door edwin2021 op 19-03-2026 21:02 ]
Yup, dit dus, staat constant een GPU, NIC, en toetsenbord te loeien. IPMI zoals iLO kun je doorgaans niet makkelijk on the fly uitzetten. Een externe KVM zoals een JetKVM wel. Ook zijn deze OSen (wat dat zijn het, met volledige root op de computerUTMachine schreef op woensdag 18 maart 2026 @ 00:00:
[...]
Mooi spul en ik werk met beide, maar eigenlijk alleen bedoeld voor (semi) professioneel gebruik, anders zijn die dingen normaliter te duur of trekken veels teveel vermogen itt een NUC.
"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
hier kwam ik ook achter nadat ik de nfs share met iso's tijdelijk niet beschikbaar was wegens een upgrade. Als de iso dan niet meer beschikbaar is zou die gewoon de boot order af moeten werken.lolgast schreef op donderdag 19 maart 2026 @ 22:42:
Eigenlijk raar dat er geen lock op zo’n ISO komt op het moment dat hij ergens gemount wordt.. Daar is vast een scriptje voor te schrijven. Of het is er al waarschijnlijk
Maar wat ik mezelf aan geleerd heb is na het installeren van het besturingssysteem om de virtuele dvd drive te verwijderen. Anders dan installatie van het besturingssysteem ben je de virtuele dvd speler toch niet nodig tenminste ik niet
Wat mij opvalt is als er grote bestanden backups bijvoorbeeld van de nvme gaan dan gaat de i/o wait enorm omhoog.
Maar van de sata disk niet.
Heb het even getest in een VM door een groot bestand te schijven en daar precies hetzelfde.
De nvme is een Samsung 980evo, heeft ruim 15 tb geschreven en heeft 5% wear-out en geen smart fouten.
Is die gewoon op aan het raken ?
Ik gebruik geen zfs maar LVM-Thin voor de SSD.
Uitzetten kan je door de kabel eruit te trekkenJerie schreef op zaterdag 21 maart 2026 @ 17:28:
[...]
Yup, dit dus, staat constant een GPU, NIC, en toetsenbord te loeien. IPMI zoals iLO kun je doorgaans niet makkelijk on the fly uitzetten. Een externe KVM zoals een JetKVM wel. Ook zijn deze OSen (wat dat zijn het, met volledige root op de computer) nog wel eens lek. Dan draait men het op een aparte VLAN, en die managed switch is dan zo lek als een mandje. Typisch iets dat je tegen kunt komen tijdens een whitebox pentest. Het is wel zo dat HP op zich de iLO wel met regelmaat van updates voorziet, maar die moet je dan ook toepassen.
Maarja, als je een managed interface hebt, moet je die wel goed beveiligen en updates blijven doorvoeren. Daarin zijn sommige organisaties heel langzaam in (of helemaal niet), totdat er een incident is (geweest). Ik zie ook klanten met RHEL waar hun uptime >1000 dagen is, dat zegt ook al genoeg
Volgens mij hebben die EVO's een cache functie en zit daar je issue als die vol zit.ComTech schreef op zondag 22 maart 2026 @ 18:03:
Ik heb in één van mijn proxmox nodes 2 SSD’s, een sata en een nvme.
Wat mij opvalt is als er grote bestanden backups bijvoorbeeld van de nvme gaan dan gaat de i/o wait enorm omhoog.
Maar van de sata disk niet.
Heb het even getest in een VM door een groot bestand te schijven en daar precies hetzelfde.
De nvme is een Samsung 980evo, heeft ruim 15 tb geschreven en heeft 5% wear-out en geen smart fouten.
Is die gewoon op aan het raken ?
Ik gebruik geen zfs maar LVM-Thin voor de SSD.
De pro's en de enterprise varianten hebben daar geen last van.
[ Voor 9% gewijzigd door d3vlin op 23-03-2026 16:21 ]
Leaping Lab Rats!
Tips voor een goede m.2 nvme welke goed is voor proxmox met enkele VM's en LXC's ?powerboat schreef op maandag 23 maart 2026 @ 15:55:
[...]
Volgens mij hebben die EVO's een cache functie en zit daar je issue als die vol zit.
De pro's en de enterprise varianten hebben daar geen last van.
Enterprise is niet veel te vinden in m.2 meestal in sata daar heb ik er al één van (Intel DC S4500).
Je hebt gelijk het is een 980 zonder toevoegingd3vlin schreef op maandag 23 maart 2026 @ 16:17:
980 EVO bestaat volgens mij niet. Maar er zijn verschillende Samsung nvme's (ook Pro) die last hebben van TurboWrite Cache / SLC Cache exhaustion. Is veel over te vinden. Zit je op de laatste firmware?
Hij zit op de laatste firmware, misschien beter om hem een keer te vervangen voor iets beters, helaas een slechte tijd om nieuwe hardware te kopen
Bij een klant gebruik ik deze Samsung 980 Pro (vanwege de formfactor) die werken prima zover ik weet.
[ Voor 6% gewijzigd door powerboat op 23-03-2026 21:01 ]
Daar heb ik er bij een klant 9 van in een Ceph cluster in U2 formaat, die werken idd prima.powerboat schreef op maandag 23 maart 2026 @ 20:59:
Ik heb deze maar ze zijn een beetje onbetaalbaar geworden Samsung PM9A3 SSD - 3.8TB - M.2 22110 PCIe 4.0
Bij een klant gebruik ik deze Samsung 980 Pro (vanwege de formfactor) die werken prima zover ik weet.
Zitten na 9 maanden op 1% media wearout. De systeemdrives, Samsung PM9A1 256GB NVME in ZFS mirror zitten nu al op 7% wearout. Wordt de hele dag naar geschreven, max I/O pressure stall wat ik zie in de grafieken is 0,25%.
Spul is helaas niet meer te betalen, blij met het geheugenlek in de Intel netwerkdrivers vorig jaar waardoor we onterecht 384GB extra geheugen hebben gekocht (2000 euro incl BTW). Verder hebben we nog een stapel Intel 4510 en 4520 SATA SSDs van 1, 2 en 4TB liggen uit de oude servers met lage media wear, dus mocht opslag een probleem worden dan hebben we maar zo een 2e cluster opslag erbij voor het minder veeleisende spul.
Dat is andere koek dan in een home-labje_JGC_ schreef op dinsdag 24 maart 2026 @ 09:35:
[...]
Daar heb ik er bij een klant 9 van in een Ceph cluster in U2 formaat, die werken idd prima.
Zitten na 9 maanden op 1% media wearout. De systeemdrives, Samsung PM9A1 256GB NVME in ZFS mirror zitten nu al op 7% wearout. Wordt de hele dag naar geschreven, max I/O pressure stall wat ik zie in de grafieken is 0,25%.
Spul is helaas niet meer te betalen, blij met het geheugenlek in de Intel netwerkdrivers vorig jaar waardoor we onterecht 384GB extra geheugen hebben gekocht (2000 euro incl BTW). Verder hebben we nog een stapel Intel 4510 en 4520 SATA SSDs van 1, 2 en 4TB liggen uit de oude servers met lage media wear, dus mocht opslag een probleem worden dan hebben we maar zo een 2e cluster opslag erbij voor het minder veeleisende spul.
Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)
Als ik nu weer opslag zou moeten plaatsen werden het overigens Kingston DC3000ME disks. Zijn de helft van de prijs van Samsung P9MA3 en doen veel meer IOPS.
* ElCondor checkt prijs..._JGC_ schreef op dinsdag 24 maart 2026 @ 10:27:
[...]
Als ik nu weer opslag zou moeten plaatsen werden het overigens Kingston DC3000ME disks. Zijn de helft van de prijs van Samsung P9MA3 en doen veel meer IOPS.
Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)
De sata Samsung SSD varianten die beginnen met PM (zoals de PM883) hebben TLC NAND. Die hebben meestal "slechts" 1/2e tot zelfs 1/3e van de SM -series (zoals SM883) van Samsung. De SM -series hebben MLC NAND, waardoor de DWPD een stuk hoger kan zijn._JGC_ schreef op dinsdag 24 maart 2026 @ 09:35:
[...]
Daar heb ik er bij een klant 9 van in een Ceph cluster in U2 formaat, die werken idd prima.
Zitten na 9 maanden op 1% media wearout. De systeemdrives, Samsung PM9A1 256GB NVME in ZFS mirror zitten nu al op 7% wearout. Wordt de hele dag naar geschreven, max I/O pressure stall wat ik zie in de grafieken is 0,25%.
Spul is helaas niet meer te betalen, blij met het geheugenlek in de Intel netwerkdrivers vorig jaar waardoor we onterecht 384GB extra geheugen hebben gekocht (2000 euro incl BTW). Verder hebben we nog een stapel Intel 4510 en 4520 SATA SSDs van 1, 2 en 4TB liggen uit de oude servers met lage media wear, dus mocht opslag een probleem worden dan hebben we maar zo een 2e cluster opslag erbij voor het minder veeleisende spul.
Die PM9A1 heeft slechts een 0.3 DWPD. Dat is een low-endurance SSD. Mogelijk zou je die willen vervangen, of in ieder geval een werkbare situatie creëren waarin je die gemakkelijk kan vervangen als het jou uitkomt (ipv wanneer die stuk gaat).
Ik heb vorige week een setje compleet gemaakt van 4x Samsung SM863 met slechts 1% wear over 5 jaar. Dan heb ik 1 spare en 3 SSD's verdeeld over 3 Proxmox nodes met Ceph. Daarbij ook nog een PM883 als extra spare van ons pap gekregen. Ook met 1% wear. Dus mijn SSD's worden aankomend weekend ook een voor een vervangen.
Ik kom van 3x Intel D3 S4610 480GB SSD's af, waarbij de ruimte toch iets te krap leek in het Ceph volume. Dit zijn overigens ook TLC NAND SSD's, die vervangen worden met MLC NAND SSD's. Intel SSD's kan ik mooi in RAID10 zetten voor mijn workstation.
1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI
Tja, dat hangt er ook maar net van af of je dat erg vindt of niet. Met iets minder dan 1% wear per maand kom je nog steeds uit op een levensduur van grofweg 10 jaar (en wordt de helft van de 0.3 DWPD gebruikt). Ik heb ook wat Intel P4510's naar 70% wear geschreven in 5 jaar tijd, dat was op zich misschien niet helemaal handig, maar compleet binnen spec en na die tijd de schijven vervangen is ook weer niet het einde van de wereld.InjecTioN schreef op dinsdag 24 maart 2026 @ 12:02:
[...]
Die PM9A1 heeft slechts een 0.3 DWPD. Dat is een low-endurance SSD. Mogelijk zou je die willen vervangen, of in ieder geval een werkbare situatie creëren waarin je die gemakkelijk kan vervangen als het jou uitkomt (ipv wanneer die stuk gaat).
Overigens de oorzaak van de writes al achterhaald, nu ook opgelost. Ceph. De monitor service staat standaard in debug mode op Proxmox. Die logt alle data van het hele cluster op elke node naar /var/log/ceph/*.log.
De code om naar de loglevel instelling te luisteren is met 19.2.3 pas meegekomen, dus nu maar even naar info level gezet ipv debug. Scheelt heel wat writes.
https://forum.proxmox.com...oglevel-mgr-pgmap.117780/
dcm360 schreef op dinsdag 24 maart 2026 @ 12:27:
[...]
Tja, dat hangt er ook maar net van af of je dat erg vindt of niet. Met iets minder dan 1% wear per maand kom je nog steeds uit op een levensduur van grofweg 10 jaar (en wordt de helft van de 0.3 DWPD gebruikt). Ik heb ook wat Intel P4510's naar 70% wear geschreven in 5 jaar tijd, dat was op zich misschien niet helemaal handig, maar compleet binnen spec en na die tijd de schijven vervangen is ook weer niet het einde van de wereld.
Klopt helemaal. Om de een of andere reden heb ik het verkeerd geïnterpreteerd, waardoor ik het idee had dat je dat je 7% aan wear over 1 maand had behaald. In 9 maanden met 7% wear zit je inderdaad echt prima in het juiste segment. Vooral als je de afschrijving meetelt._JGC_ schreef op dinsdag 24 maart 2026 @ 12:30:
@InjecTioN Met 7% wear in 9 maanden tijd kom ik op 10 jaar levensduur. Ter vergelijking: ik tik dit op een desktop met een Crucial MX500 die op 221% lifetime remaining zit omdat de teller al eens geflipt is.
Overigens de oorzaak van de writes al achterhaald, nu ook opgelost. Ceph. De monitor service staat standaard in debug mode op Proxmox. Die logt alle data van het hele cluster op elke node naar /var/log/ceph/*.log.
De code om naar de loglevel instelling te luisteren is met 19.2.3 pas meegekomen, dus nu maar even naar info level gezet ipv debug. Scheelt heel wat writes.
https://forum.proxmox.com...oglevel-mgr-pgmap.117780/
1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI
Laat proxmox in de web interface zien bij de disks. Werkt alleen als er iets in de SMART data zit wat daarvoor te gebruiken is.edwin2021 schreef op dinsdag 24 maart 2026 @ 18:18:
Waar kun je de wear zien? Staat bij mij niet in de smart info.
Nieuw hier en wil graag starten met Proxmox. Ik wil mijn beoogd systeem even hier toetsen evenals vragen naar wat men voor advies heeft als NAS.
Ik wil een sterke Proxmox server voor verschillende VM’s:
- VM Frigate (CPU-only) met 4 camera's via EmpireTech
- VM AI only (GPU passthrough) voor grote Ollama modellen
- VM Home Assistant OS
- Kleine containers (bijv. Jellyfin / Jellyseerr / etc.)
- Mogelijk later uitbreiden met extra services
Beoogde Proxmox Hardware
CPU: AMD Ryzen 9 9950X
CPU Koeler: Noctua NH‑D15 G2 chromax.black
Moederbord: ASUS ROG Crosshair X870E Extreme (2× PCIe 5.0 x16 slots, 5× M.2 slots, 10GbE + 5GbE LAN, E-ATX formaat)
RAM: Kingston FURY 2x64GB DDR5‑6000 (2×32GB) KF560C36BBEK2‑64, DDR5-6000, CL36, AMD EXPO, On-die ECC
Case rack (5U):SilverStone RM51
GPU: RTX 5090 (32GB VRAM)
Opslag: 2x Samsung 990 Pro 2TB - SSD
Wat ik zoek:
4-bay NAS
10GbE / SFP+ voorkeur
VM storage voor Proxmox
storage voor Jellyfish media server (afspelen via NVIDIA Shield).
Twijfel tussen:
Kant-en-klare NAS (QNAP / Synology / TerraMaster) OF Zelfbouw TrueNAS server
Mijn vragen
Is deze Proxmox hardware overkill of juist goed toekomstbestendig?
Zijn er betere moederborden voor Proxmox / VM workloads?
Wat raden jullie aan voor 4-bay TrueNAS server?
Is SFP+ de juiste keuze of beter 10GbE RJ45?
Tips / valkuilen bij Proxmox + AI + Frigate?
De services zijn de services in LXC/VM op je host.
Voor Frigate overweeg een Coral TPU, verbruik wordt daarmee veel lager dan via de CPU.
[ Voor 17% gewijzigd door Quad op 26-03-2026 10:50 ]
Alles went behalve een Twent.
nggyu nglyd
Dank voor je reactie Quad. Ik dacht dat het beter is om de PVE en een aparte NAS te scheiden in mijn serverrack, dit ook voor home assistant configuratie files en andere data?Quad schreef op donderdag 26 maart 2026 @ 10:49:
@aerials1990 Gaat het alleen om opslag voor VMs? Dan zou ik geen TrueNAS maar ZFS binnen PVE zelf overwegen. Je houdt het netwerkverkeer dan ook binnen de host.
De services zijn de services in LXC/VM op je host.
Voor Frigate overweeg een Coral TPU, verbruik wordt daarmee veel lager dan via de CPU.
Als je meerdere PVE hosts gebruikt is shared storage een goede oplossing.aerials1990 schreef op donderdag 26 maart 2026 @ 10:59:
[...]
Dank voor je reactie Quad. Ik dacht dat het beter is om de PVE en een aparte NAS te scheiden in mijn serverrack, dit ook voor home assistant configuratie files en andere data?
Maar met deze opstelling introduceer je alleen maar extra SPOFs:
- NAS die herstart terwijl je PVE draait.
- Verbinding tussen NAS > PVE die verbroken wordt.
- Updates op NAS die voor verbroken netwerkconnectiviteit zorgt.
- NAS defect = geen storage meer voor je PVE.
Waar je nog wel naar moet kijken is of de beoogde voeding past en of je voldoende HDDs in je behuizing kan krijgen.
Tip; maak gebruik van een wenslijstje: https://tweakers.net/gallery/929811/wenslijst/
[ Voor 13% gewijzigd door Quad op 26-03-2026 12:06 ]
Alles went behalve een Twent.
nggyu nglyd
Als ik deze componenten zie dan is energieverbruik niet een prioriteit? Ik wil het met deze vraag even checken, het is niet zuinig. (maar daar hebben we een ander topic voor)aerials1990 schreef op donderdag 26 maart 2026 @ 10:42:
Hoi allen,
Nieuw hier en wil graag starten met Proxmox. Ik wil mijn beoogd systeem even hier toetsen evenals vragen naar wat men voor advies heeft als NAS.
Ik wil een sterke Proxmox server voor verschillende VM’s:Daarnaast wil ik een aparte TrueNAS server met 4 bays die via 10GbE / SFP+ verbonden wordt met de Proxmox server.
- VM Frigate (CPU-only) met 4 camera's via EmpireTech
- VM AI only (GPU passthrough) voor grote Ollama modellen
- VM Home Assistant OS
- Kleine containers (bijv. Jellyfin / Jellyseerr / etc.)
- Mogelijk later uitbreiden met extra services
Beoogde Proxmox Hardware
CPU: AMD Ryzen 9 9950X
CPU Koeler: Noctua NH‑D15 G2 chromax.black
Moederbord: ASUS ROG Crosshair X870E Extreme (2× PCIe 5.0 x16 slots, 5× M.2 slots, 10GbE + 5GbE LAN, E-ATX formaat)
RAM: Kingston FURY 2x64GB DDR5‑6000 (2×32GB) KF560C36BBEK2‑64, DDR5-6000, CL36, AMD EXPO, On-die ECC
Case rack (5U):SilverStone RM51
GPU: RTX 5090 (32GB VRAM)
Opslag: 2x Samsung 990 Pro 2TB - SSD
Wat ik zoek:
4-bay NAS
10GbE / SFP+ voorkeur
VM storage voor Proxmox
storage voor Jellyfish media server (afspelen via NVIDIA Shield).
Twijfel tussen:
Kant-en-klare NAS (QNAP / Synology / TerraMaster) OF Zelfbouw TrueNAS server
Mijn vragen
Is deze Proxmox hardware overkill of juist goed toekomstbestendig?
Zijn er betere moederborden voor Proxmox / VM workloads?
Wat raden jullie aan voor 4-bay TrueNAS server?
Is SFP+ de juiste keuze of beter 10GbE RJ45?
Tips / valkuilen bij Proxmox + AI + Frigate?
Nav Quad, overweeg ik om HDD’s en M.2 SSD’s direct in Proxmox te plaatsen in plaats van een aparte TrueNAS.Goof2000 schreef op donderdag 26 maart 2026 @ 14:18:
[...]
Als ik deze componenten zie dan is energieverbruik niet een prioriteit? Ik wil het met deze vraag even checken, het is niet zuinig. (maar daar hebben we een ander topic voor)
Wel maak ik me wat zorgen over temperatuur in een klein 5U server behuiziging en over idle-verbruik, zeker met een zware GPU en meerdere schijven, ook al krijg ik zonnepanelen. AI gebruik ik vooral voor inference, integratie met Home Assistant spraak en experimenten met Ollama.
Als je experimenteert met Ollama en voornamelijk Home Assistant wilt gebruiken, kan je dan niet beter iets van een Intel Arc B580 nemen, of zelfs alleen de CPU gebruiken met TinyLlama/Phi-3 mini? Het zou eigenlijk gekkenwerk zijn om een top-dollar GPU aan te schaffen voor die kleine momenten dat je even iets meer nodig hebt, onder het mom van "experimenteren". In mijn boekje valt dat, met alle respect, onder smijten met geld.aerials1990 schreef op donderdag 26 maart 2026 @ 16:11:
[...]
Nav Quad, overweeg ik om HDD’s en M.2 SSD’s direct in Proxmox te plaatsen in plaats van een aparte TrueNAS.
Wel maak ik me wat zorgen over temperatuur in een klein 5U server behuiziging en over idle-verbruik, zeker met een zware GPU en meerdere schijven, ook al krijg ik zonnepanelen. AI gebruik ik vooral voor inference, integratie met Home Assistant spraak en experimenten met Ollama.
1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI
Ik gebruik al jaren een HP Gen8 Microserver 4Bay met Truenas .. werkt als de tierelier en vooralsnog upgrade ik niet naar de Debian variant ..aerials1990 schreef op donderdag 26 maart 2026 @ 10:42:
Hoi allen,
Nieuw hier en wil graag starten met Proxmox. Ik wil mijn beoogd systeem even hier toetsen evenals vragen naar wat men voor advies heeft als NAS.
Ik wil een sterke Proxmox server voor verschillende VM’s:
Daarnaast wil ik een aparte TrueNAS server met 4 bays die via 10GbE / SFP+ verbonden wordt met de Proxmox server.
10GB wil ik wellicht ook nog wel maar dan moet er een kaart in en heb ik weer 4 nieuwe HDD's nodig
ikzelf gebruik Intel NUC's in een cluster en daar kan ik alles mee wat ik wil.
En iedereen heeft zijn / haar voorkeuren. Ik doe het 2e hands en goedkoop en als ik dan wat beperkingen heb moet ik er OF omheen werken OF niet gebruiken etc .. Zo wilde ik CEPH gaan gebruiken maar dat is met 1GB waardeloos .. dus dan maar niet
There are no secrets, only information you do not yet have
Ik ben het absoluut eens dat het misschien als geld smijten klinkt, maar ik wil ook klaar zijn voor de toekomst en wie weet hoe ver die prijzen nog gaan oplopen met de huidige oorlog. Ik wil ook niet tegen een grens aanlopen met de GPU/RAM. Dit wordt mijn eerste homelab, en ik wil het goed aanpakken.InjecTioN schreef op donderdag 26 maart 2026 @ 16:32:
[...]
Als je experimenteert met Ollama en voornamelijk Home Assistant wilt gebruiken, kan je dan niet beter iets van een Intel Arc B580 nemen, of zelfs alleen de CPU gebruiken met TinyLlama/Phi-3 mini? Het zou eigenlijk gekkenwerk zijn om een top-dollar GPU aan te schaffen voor die kleine momenten dat je even iets meer nodig hebt, onder het mom van "experimenteren". In mijn boekje valt dat, met alle respect, onder smijten met geld.
Pro tip: Laat je niet gek maken.aerials1990 schreef op donderdag 26 maart 2026 @ 17:58:
[...]
Ik ben het absoluut eens dat het misschien als geld smijten klinkt, maar ik wil ook klaar zijn voor de toekomst en wie weet hoe ver die prijzen nog gaan oplopen met de huidige oorlog. Ik wil ook niet tegen een grens aanlopen met de GPU/RAM. Dit wordt mijn eerste homelab, en ik wil het goed aanpakken.
Ik snap precies wat je bedoelt, maar het is 't niet waard om zoveel geld erin te investeren. Rendement is er gewoon niet t.o.v. iets als bijvoorbeeld een Intel Arc B580. En is het nou echt een probleem als antwoord op je prompt iets langer duurt voor een grote smak minder geld en verbruik?
Edit: Laat ook even voorop staan dat je met relatief weinig al snel uit de voeten kan. Over een tijdje is het relatief "standaard" dat je aardig wat language model kan draaien op een APU. Dan ben je mooi klaar met je aanschaf van een paar ruggen die nooit gerendeerd heeft.
[ Voor 15% gewijzigd door InjecTioN op 26-03-2026 18:04 ]
1995: 486 AM5x86-p75@160 512kb L2, 64MB, S3 Stealth 64 3000 4MB VLB, AWE64 Value, 8GB CFµDrive
1998: K6-III 400MHz, 384MB, Voodoo4 AGP, AWE64 Gold!, Adaptec AHA-29160+2x 72GB 10krpm SCSI
Ik waardeer je reactiesInjecTioN schreef op donderdag 26 maart 2026 @ 18:01:
[...]
Pro tip: Laat je niet gek maken.![]()
Ik snap precies wat je bedoelt, maar het is 't niet waard om zoveel geld erin te investeren. Rendement is er gewoon niet t.o.v. iets als bijvoorbeeld een Intel Arc B580. En is het nou echt een probleem als antwoord op je prompt iets langer duurt voor een grote smak minder geld en verbruik?
Edit: Laat ook even voorop staan dat je met relatief weinig al snel uit de voeten kan. Over een tijdje is het relatief "standaard" dat je aardig wat language model kan draaien op een APU. Dan ben je mooi klaar met je aanschaf van een paar ruggen die nooit gerendeerd heeft.
Waarom? Je kan dan de ingebouwde GPU gebruiken voor hardware assisted FFMPEG en/decoding en ook OpenVINO voor object detectie. Heb je dan geen Coral nodig (waar ik in combinatie met Proxmox veel problemen mee had). Dat scheelt veel CPU verbruik.
Bonus, via de ingebouwde GPU heb je ook nog beeld van je proxmox installatie terwijl de dedicated GPU in passthrough staat naar de AI VM.
[ Voor 3% gewijzigd door GoBieN-Be op 26-03-2026 19:07 ]
Hoewel ik het eens ben met je redenering om het op een enkele host te houden. Tevens ook met je reactie hieronder. Is er natuurlijk altijd nog de mogelijkheid om TrueNAS als een losse VM te draaien binnen Proxmox. Afhankelijk van de wensen van @aerials1990 kan dat het beste van beide werelden zijn.Quad schreef op donderdag 26 maart 2026 @ 10:49:
@aerials1990 Gaat het alleen om opslag voor VMs? Dan zou ik geen TrueNAS maar ZFS binnen PVE zelf overwegen. Je houdt het netwerkverkeer dan ook binnen de host.
De services zijn de services in LXC/VM op je host.
Voor Frigate overweeg een Coral TPU, verbruik wordt daarmee veel lager dan via de CPU.
Top tip, ga ik zeker naar kijken. Waarom geen K variant? Ik wil eigenlijk dan gaan voor Core Ultra 9 285K uitvoering: Intel Core Ultra 9 285K BoxedGoBieN-Be schreef op donderdag 26 maart 2026 @ 19:06:
Ik ben een AMD fan, maar met Frigate en 4 camera's kan je toch beter kijken naar een Intel CPU met ingebouwde GPU (dus niet de K variant).
Waarom? Je kan dan de ingebouwde GPU gebruiken voor hardware assisted FFMPEG en/decoding en ook OpenVINO voor object detectie. Heb je dan geen Coral nodig (waar ik in combinatie met Proxmox veel problemen mee had). Dat scheelt veel CPU verbruik.
Bonus, via de ingebouwde GPU heb je ook nog beeld van je proxmox installatie terwijl de dedicated GPU in passthrough staat naar de AI VM.
AMD GPUs gaan ook met CUDA werken.aerials1990 schreef op donderdag 26 maart 2026 @ 10:42:
Hoi allen,
Nieuw hier en wil graag starten met Proxmox. Ik wil mijn beoogd systeem even hier toetsen evenals vragen naar wat men voor advies heeft als NAS.
Ik wil een sterke Proxmox server voor verschillende VM’s:Daarnaast wil ik een aparte TrueNAS server met 4 bays die via 10GbE / SFP+ verbonden wordt met de Proxmox server.
- VM Frigate (CPU-only) met 4 camera's via EmpireTech
- VM AI only (GPU passthrough) voor grote Ollama modellen
- VM Home Assistant OS
- Kleine containers (bijv. Jellyfin / Jellyseerr / etc.)
- Mogelijk later uitbreiden met extra services
Beoogde Proxmox Hardware
CPU: AMD Ryzen 9 9950X
CPU Koeler: Noctua NH‑D15 G2 chromax.black
Moederbord: ASUS ROG Crosshair X870E Extreme (2× PCIe 5.0 x16 slots, 5× M.2 slots, 10GbE + 5GbE LAN, E-ATX formaat)
RAM: Kingston FURY 2x64GB DDR5‑6000 (2×32GB) KF560C36BBEK2‑64, DDR5-6000, CL36, AMD EXPO, On-die ECC
Case rack (5U):SilverStone RM51
GPU: RTX 5090 (32GB VRAM)
Opslag: 2x Samsung 990 Pro 2TB - SSD
Wat ik zoek:
4-bay NAS
10GbE / SFP+ voorkeur
VM storage voor Proxmox
storage voor Jellyfish media server (afspelen via NVIDIA Shield).
Twijfel tussen:
Kant-en-klare NAS (QNAP / Synology / TerraMaster) OF Zelfbouw TrueNAS server
Mijn vragen
Is deze Proxmox hardware overkill of juist goed toekomstbestendig?
Zijn er betere moederborden voor Proxmox / VM workloads?
Wat raden jullie aan voor 4-bay TrueNAS server?
Is SFP+ de juiste keuze of beter 10GbE RJ45?
Tips / valkuilen bij Proxmox + AI + Frigate?
Coral TPU/NPU voor Frigate, behalve als je toch een GPU blijft houden.
NVMe met PLP (enterprise spul) voor data consistentie, of UPS.
Huidige is overkill. Kun je net zo goed tweedehands enterprise hardware nemen. Het nadeel daarvan is het slurpt stroom, maar dat is voor jou geen probleem zo lijk je te suggereren.
NIC SFP+ kan met Intel of AQC. Ik zou inderdaad voor SFP+ gaan en fiber i.p.v. ethernet. Ik heb goede ervaring met X710, die kun je tweedehands goedkoop kopen, krijgt nog steeds firmware updates. De AQC series hebben ook een relatief zuinige 1 port SFP+.
Voor storage intern of extern? SAS of SATA? Ik zou SAS nemen, of TB (als deze AMD CPU en mobo dat native kan). Zo niet, tweedehands HBAs gaan voor 20-50 EUR.
En de prijzen gaan ook weer dalen, dat heeft tijd nodig, (tenzij je verwacht dat Taiwan binnenkort wordt aangevallen, en de prognose daarvoor is vooralsnog lange baan). Als je nu nieuw een mid-tier server koopt, dan gaat die komende jaren prima mee.
Wat Ollama betreft. Ik denk dat je experimenten beter in een DC dat toch al draait kunt draaien, dat moet goedkoper zijn, behalve privacy.
Maar experimenteren met Ollama kan goedkoper dan dit. Op een MBP met 32 GB RAM bijv heb je ook bijna 32 GB GPU VRAM, en dat spul is retesnel.
"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
Ook AMD fan. Frigate draait ook prima op een 8600g met rocm image van Frigate. Wel minder camera's, 2 namelijk. 1 4k, ander 2k.
Verder ook Home Assistant en andere LXC containers + 2 Windows VMs.
Heb Ollama geprobeert op de iGPU. Maar dat is even geleden. Gamma 14b kwam tot 5 tk/s.
Foutje van mij, het zijn de F varianten die geen ingebouwde GPU hebben.aerials1990 schreef op vrijdag 27 maart 2026 @ 15:29:
[...]
Top tip, ga ik zeker naar kijken. Waarom geen K variant? Ik wil eigenlijk dan gaan voor Core Ultra 9 285K uitvoering: Intel Core Ultra 9 285K Boxed
K komt gewoon niet met een cooler.
Mijn hoofd PVE node draait op een Ryzen 5800X (zonder iGPU dus), maar ik heb extra een klein Dell mini PC'tje met i5 cpu draaien voor Frigate met 4 camera's. Dat is omdat mijn hoofd PVEnode anders 20% CPU stond te verspillen voor decoding en encoding. En de coral USB in passthrough zorgde voor veel storingen, zelfs met 10 soorten kabels geprobeerd.
AMD heeft slechts heel beperkte keuze met iGPU's, en dan nog is het moeilijker om die werkend te krijgen in Frigate voor hardware assisted en/decoding.
[ Voor 38% gewijzigd door GoBieN-Be op 29-03-2026 20:54 ]
Dacht al, ik heb een K met iGPUGoBieN-Be schreef op zondag 29 maart 2026 @ 20:49:
[...]
Foutje van mij, het zijn de F varianten die geen ingebouwde GPU hebben.
K komt gewoon niet met een cooler.
Mijn hoofd PVE node draait op een Ryzen 5800X (zonder iGPU dus), maar ik heb extra een klein Dell mini PC'tje met i5 cpu draaien voor Frigate met 4 camera's. Dat is omdat mijn hoofd PVEnode anders 20% CPU stond te verspillen voor decoding en encoding. En de coral USB in passthrough zorgde voor veel storingen, zelfs met 10 soorten kabels geprobeerd.
AMD heeft slechts heel beperkte keuze met iGPU's, en dan nog is het moeilijker om die werkend te krijgen in Frigate voor hardware assisted en/decoding.
As for your other first world problems:
USB port op v2 zetten.
usbip gebruiken i.p.v. passthrough.
NVMe Coral nemen.
Hier werkt het prima, maar... ik gebruik de iGPU...
[ Voor 8% gewijzigd door Jerie op 30-03-2026 00:17 ]
"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
Ik denk dat je frigate gebruikt met homeassistant op een vm. Hoe heb je deze aan elkaar geknoopt?GoBieN-Be schreef op zondag 29 maart 2026 @ 20:49:
[...]
Mijn hoofd PVE node draait op een Ryzen 5800X (zonder iGPU dus), maar ik heb extra een klein Dell mini PC'tje met i5 cpu draaien voor Frigate met 4 camera's. Dat is omdat mijn hoofd PVEnode anders 20% CPU stond te verspillen voor decoding en encoding. En de coral USB in passthrough zorgde voor veel storingen, zelfs met 10 soorten kabels geprobeerd.
/decoding.
[ Voor 18% gewijzigd door edwin2021 op 30-03-2026 14:30 ]
Frigate draai ik als een docker container op een aparte VM met Ubuntu.
In HA gebruik ik de Frigate proxy addon.
Ik had de Coral USB ook via een USB2.0 kabel geprobeerd, wel steeds met USB passthrough in PVE.
In PVE waren er regelmatig errors in de logs over de USB bus/poort fouten. En in Frigate herstarts om de zoveel tijd wegens vastgelopen detectie.
Ik heb toen zelf nog geprobeerd met een aparte USB PCI-E kaart en die volledig in passthrough naar de VM i.p.v. een USB apparaat. Nog steeds instabiel.
Plus dat mijn CPU dus nog altijd veel werk aan het verzetten was voor FFMPEG.
Nu dat aparte Dell micro PC met i5 CPU (ook met Proxmox trouwens) en daarop de Ubuntu VM met Frigate container. OpenVINO i.p.v. Coral en HWVAAI voor FFMPEG. Loopt stabiel en verbruikt veel minder CPU cycles.
[ Voor 4% gewijzigd door GoBieN-Be op 30-03-2026 18:56 ]
Top, ga ik naar kijken!GoBieN-Be schreef op maandag 30 maart 2026 @ 18:55:
Mijn HomeAssistant draait als een VM (HAOS).
Frigate draai ik als een docker container op een aparte VM met Ubuntu.
In HA gebruik ik de Frigate proxy addon.
Ik had de Coral USB ook via een USB2.0 kabel geprobeerd, wel steeds met USB passthrough in PVE.
In PVE waren er regelmatig errors in de logs over de USB bus/poort fouten. En in Frigate herstarts om de zoveel tijd wegens vastgelopen detectie.
Ik heb toen zelf nog geprobeerd met een aparte USB PCI-E kaart en die volledig in passthrough naar de VM i.p.v. een USB apparaat. Nog steeds instabiel.
Plus dat mijn CPU dus nog altijd veel werk aan het verzetten was voor FFMPEG.
Nu dat aparte Dell micro PC met i5 CPU (ook met Proxmox trouwens) en daarop de Ubuntu VM met Frigate container. OpenVINO i.p.v. Coral en HWVAAI voor FFMPEG. Loopt stabiel en verbruikt veel minder CPU cycles.
Waarom op die Dell ook via proxmox?
Deze hebben beide een mislukte backup in hun logging staan.
Is het dan gebruikelijk om die mislukte jobs gewoon te verwijderen en dan zou de verify weer goed moeten lopen?
Even vragen zodat ik niet per ongeluk een keten onderbreek of andere zaken stuk maak...
Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)
Ik heb dit zelf niet meegemaakt dus neem het met een korrel zout. Maar ik zou zeggen dat als je die twee individuele backups niet nodig hebt je ze gewoon kan verwijderen. Dan gaat de verify job uiteraard weer goed. Daarnaast is het gewoon mogelijk binnen PBS om individuele backups te verwijderen zonder dat dit de andere aantast.ElCondor schreef op dinsdag 31 maart 2026 @ 12:10:
Even een bevestiging nodig, afgelopen weekeinde issues gehad met een vollopende PBS. Dit kunnen verhelpen en de backups lopen nu weer goed. Echter blijft de verify job verkeerd gaan voor twee guests.
Deze hebben beide een mislukte backup in hun logging staan.
Is het dan gebruikelijk om die mislukte jobs gewoon te verwijderen en dan zou de verify weer goed moeten lopen?
Even vragen zodat ik niet per ongeluk een keten onderbreek of andere zaken stuk maak...
Dat vermoeden had ik inderdaad. Ik heb dagelijkse backups en er zijn er alweer een paar goed gegaan, dus dan ga ik ze weggooien.orvintax schreef op dinsdag 31 maart 2026 @ 12:44:
[...]
Ik heb dit zelf niet meegemaakt dus neem het met een korrel zout. Maar ik zou zeggen dat als je die twee individuele backups niet nodig hebt je ze gewoon kan verwijderen. Dan gaat de verify job uiteraard weer goed. Daarnaast is het gewoon mogelijk binnen PBS om individuele backups te verwijderen zonder dat dit de andere aantast.
Bedankt voor het tweede stel hersens hierbij
Hay 365 dias en un año y 366 occasiones para festejar (Boliviaans spreekwoord)