|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Uhm zoals het nu is na de tip van @Feni werkt het zoals ik wilde in Proxmoxnero355 schreef op zondag 30 oktober 2022 @ 19:01:
@RobbyTown
Ik zou dan eens kijken naar een oplossing zoals https://www.veeam.com/vir...backup-solution-free.html die wat uitgebreider is en je hopelijk wat meer opties geeft die nog binnen de Free/Community License passen
Liep alleen tegen het probleem aan dat die de disk mee backup te en kon bij backup module niet vinden om het te exclude. Die moest dus op de vm. Met Google werk kwam ik niet op gewenste resultaat maar door tip van @Feni bleek het mogelijk zijn dus stap voor stap alles nagekeken
[ Voor 24% gewijzigd door RobbyTown op 30-10-2022 19:41 ]
Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe
Ik vind dat dus niet logisch :RobbyTown schreef op zondag 30 oktober 2022 @ 19:31:
Liep alleen tegen het probleem aan dat die de disk mee backup te en kon bij backup module niet vinden om het te exclude. Die moest dus op de vm.
Backup Settings regel je op je Centrale Backup Server en op je Clients draai je alleen een Backup Agent net zoals je in elke VM de qemu-guest-agent installeert bijvoorbeeld
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Maar @RobbyTown heeft het over bepaalde instellingen aan de kant van de Client veranderen i.p.v. de Server dus klopt dat nou wel of nietdcm360 schreef op maandag 31 oktober 2022 @ 09:46:
@nero355 de Centrale Backup Server is in dit geval gewoon Proxmox zelf. Meer software toevoegen kan nuttig zijn, maar voegt ook complexiteit toe (je noemt meer agents al als voorbeeld).
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ik liep tegen het volgende aannero355 schreef op maandag 31 oktober 2022 @ 17:42:
[...]
Maar @RobbyTown heeft het over bepaalde instellingen aan de kant van de Client veranderen i.p.v. de Server dus klopt dat nou wel of niet
Server 1 heeft 1 C schijf en 2 Netwerk schijven U en V (van vele TB's groot).
Met Proxmox maak ik een complete backup van Server 1. Hierbij word compleet C gebackupt, de 2 netwerk schijven tellen niet mee in de backup. Dus iets van 15 GB groot die backup.
Server 2 heeft 1 C schijf en 1 schijf (de V) voor de beelden. Ik liep tegen het probleem aan dat die beelden ook werden de gebackupt, kortom ik had een backup van 3,5 TB. Dat was nou net niet nodig. Alleen de C schijf is voldoende.
Dus wilde de 3,5TB schijf ook als een soort netwerkshare maken want dan loopt die niet mee in de backup zoals Server 1. Maar dat is niet nodig, want blijkbaar (wat ik dus niet wist) kon je dus een extra schijf excluden van de backup.
Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe
Maar waar deed je datRobbyTown schreef op maandag 31 oktober 2022 @ 20:19:
Blijkbaar (wat ik dus niet wist) kon je dus een extra schijf excluden van de backup.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe
Daar zie ik dit niet staan :
RobbyTown schreef op zondag 30 oktober 2022 @ 19:31:
Liep alleen tegen het probleem aan dat die de disk mee backup te en kon bij backup module niet vinden om het te exclude. Die moest dus op de vm.
Maar ik heb alles nog een keer gelezen en ik denk dat je het gewoon een beetje raar hebt geformuleerd terwijl ik ondertussen blijkbaar erg kippig was en dit niet goed heb gelezen : RobbyTown in "Het grote Proxmox VE topic"
Dus... ehh... ik weet genoeg!

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Nu wil ik dit makkelijk back-uppen maar hij heeft lokaal geen nas of andere opslag beschikbaar.
Ik wel en heb genoeg ruimte daarvoor, hoe zou ik het beste en veiligst zijn VM's via internet naar mij kunnen back-uppen?
Heb een synology VM draaien en TrueNas dus allerlei protocollen zijn beschikbaar.
Evenals een eigen domeinnaam (met een nginx reverse proxy).
SMB/CIFS of NFS over internet lijkt me niet echt veilig (is het überhaupt mogelijk) maar andere mogelijkheden via internet zie ik ook niet.
Je kan met een site-2-site vpn best een beveiligde verbinding opzetten voor smb/nfs verkeer.ComTech schreef op zaterdag 26 november 2022 @ 17:12:
Ik heb hier voor een goede kennis proxmox opgezet op een intel nuc voor zijn domotica gebeuren.
Nu wil ik dit makkelijk back-uppen maar hij heeft lokaal geen nas of andere opslag beschikbaar.
Ik wel en heb genoeg ruimte daarvoor, hoe zou ik het beste en veiligst zijn VM's via internet naar mij kunnen back-uppen?
Heb een synology VM draaien en TrueNas dus allerlei protocollen zijn beschikbaar.
Evenals een eigen domeinnaam (met een nginx reverse proxy).
SMB/CIFS of NFS over internet lijkt me niet echt veilig (is het überhaupt mogelijk) maar andere mogelijkheden via internet zie ik ook niet.
Ik zou bij voorkeur een Proxmox Backup Server gebruiken dat werkt nl. erg lekker
Daar gaan we eens mee prutsen mijn netwerk/VPN kennis is niet zo groot maar er is online genoeg te vinden.powerboat schreef op zaterdag 26 november 2022 @ 17:24:
[...]
Je kan met een site-2-site vpn best een beveiligde verbinding opzetten voor smb/nfs verkeer.
Ik zou bij voorkeur een Proxmox Backup Server gebruiken dat werkt nl. erg lekker(liefts ook over een tunnel).
Die Proxmox Backup Server is die ook in een VM te draaien?
Ik heb hem een tijdje in een vm gedraait met een NFS share naar mijn TruenasComTech schreef op zaterdag 26 november 2022 @ 17:31:
[...]
Daar gaan we eens mee prutsen mijn netwerk/VPN kennis is niet zo groot maar er is online genoeg te vinden.
Die Proxmox Backup Server is die ook in een VM te draaien?
Dan gaan we die eerst opzetten.powerboat schreef op zaterdag 26 november 2022 @ 17:35:
[...]
Ik heb hem een tijdje in een vm gedraait met een NFS share naar mijn Truenas
Maar hoe zou ik dan de VPN moeten opzetten?
Wil natuurlijk dat alleen het verkeer wat naar mijn PBS server gaat via smb/nfs via VPN gaat.
Voor je VPN zou ik Wireguard gebruiken, dat zal denk ik het makkelijkste zijn. Daarin kun je ook aangeven op de client dat die alleen verkeer naar jouw server moet routeren over die VPN en de rest niet.ComTech schreef op zaterdag 26 november 2022 @ 17:44:
[...]
Dan gaan we die eerst opzetten.
Maar hoe zou ik dan de VPN moeten opzetten?
Wil natuurlijk dat alleen het verkeer wat naar mijn PBS server gaat via smb/nfs via VPN gaat.
Tailscale is als het goed is een eenvoudig alternatief, maar daar heb ik zelf geen ervaring mee.
Raar vraagje hier. Ik draai al een tijdje een Proxmox cluster met 3 nodes en een beperkte Ceph-cluster. Werkt prima.
Eén van de nodes is een Asrock A300 mini barebone met een Ryzen 3 2200G. Deze is ook voorzien van een 240 Gb ssd voor OS (nvme) en 500Gb voor Ceph (sata). Nu heeft deze A300 twee m.2 PCIe poorten, dus ik wilde er een Samsung 980 1Tb nvme aan toevoegen. Dat werkt. De schijf is zichtbaar in proxmox.
Het probleem is nu dat de netwerkinterface niet meer werkt nadat ik die 2e nvme heb toegevoegd. Bij opstart werkt deze, maar zodra Proxmox wordt gestart gaan de lampjes van de RJ45 poort uit en is de verbinding verdwenen. En het device (Enp2s0) is ook helemaal weg. De networking.service kan niet starten, want hij kan het device niet vinden.
Als ik nvme uit het 2e pcie slot haal, dan werkt de netwerkinterface weer. Overigens, als ik de bootdisk in de 2e pcie-slot steek (en de eerste leeg laat) werkt de netwerkinterface ook niet. Ik heb nog gekeken of ik de meest recente bios gebruikte. Deze maar eens geüpdate, maar zonder effect. Er lijkt dus een duidelijke relatie tussen de 2e PCIe slot en de netwerkinterface.
Iemand enig idee? Kan het zijn dat ik moet kiezen: of de 2e pci-slot of de netwerkinterface? Dat lijkt me niet waarschijnlijk. In de handleiding, bios, etc. kan ik hier niets over terugvinden. Ook google helpt me niet verder.
[ Voor 3% gewijzigd door ZatarraNL op 29-11-2022 20:50 ]
Klinkt als een hardware issue.. je zou nog es kunnen proberen met een usb stick met een live iso om proxmox uit te sluiten.. maar ik denk dat dit in de hardware zit.. (wel een raar probleem overigens)ZatarraNL schreef op dinsdag 29 november 2022 @ 20:48:
Hey allemaal,
Raar vraagje hier. Ik draai al een tijdje een Proxmox cluster met 3 nodes en een beperkte Ceph-cluster. Werkt prima.
Eén van de nodes is een Asrock A300 mini barebone met een Ryzen 3 2200G. Deze is ook voorzien van een 240 Gb ssd voor OS (nvme) en 500Gb voor Ceph (sata). Nu heeft deze A300 twee m.2 PCIe poorten, dus ik wilde er een Samsung 980 1Tb nvme aan toevoegen. Dat werkt. De schijf is zichtbaar in proxmox.
Het probleem is nu dat de netwerkinterface niet meer werkt nadat ik die 2e nvme heb toegevoegd. Bij opstart werkt deze, maar zodra Proxmox wordt gestart gaan de lampjes van de RJ45 poort uit en is de verbinding verdwenen. En het device (Enp2s0) is ook helemaal weg. De networking.service kan niet starten, want hij kan het device niet vinden.
Als ik nvme uit het 2e pcie slot haal, dan werkt de netwerkinterface weer. Overigens, als ik de bootdisk in de 2e pcie-slot steek (en de eerste leeg laat) werkt de netwerkinterface ook niet. Ik heb nog gekeken of ik de meest recente bios gebruikte. Deze maar eens geüpdate, maar zonder effect. Er lijkt dus een duidelijke relatie tussen de 2e PCIe slot en de netwerkinterface.
Iemand enig idee? Kan het zijn dat ik moet kiezen: of de 2e pci-slot of de netwerkinterface? Dat lijkt me niet waarschijnlijk. In de handleiding, bios, etc. kan ik hier niets over terugvinden. Ook google helpt me niet verder.
Het zal vermoedelijk wel iets te maken hebben met dat 2e slot icm de specifieke CPU die je gebruikt, zie ook https://smallformfactor.n...rock-a300-deskmini.13650/ZatarraNL schreef op dinsdag 29 november 2022 @ 20:48:
Hey allemaal,
Raar vraagje hier. Ik draai al een tijdje een Proxmox cluster met 3 nodes en een beperkte Ceph-cluster. Werkt prima.
Eén van de nodes is een Asrock A300 mini barebone met een Ryzen 3 2200G. Deze is ook voorzien van een 240 Gb ssd voor OS (nvme) en 500Gb voor Ceph (sata). Nu heeft deze A300 twee m.2 PCIe poorten, dus ik wilde er een Samsung 980 1Tb nvme aan toevoegen. Dat werkt. De schijf is zichtbaar in proxmox.
Het probleem is nu dat de netwerkinterface niet meer werkt nadat ik die 2e nvme heb toegevoegd. Bij opstart werkt deze, maar zodra Proxmox wordt gestart gaan de lampjes van de RJ45 poort uit en is de verbinding verdwenen. En het device (Enp2s0) is ook helemaal weg. De networking.service kan niet starten, want hij kan het device niet vinden.
Als ik nvme uit het 2e pcie slot haal, dan werkt de netwerkinterface weer. Overigens, als ik de bootdisk in de 2e pcie-slot steek (en de eerste leeg laat) werkt de netwerkinterface ook niet. Ik heb nog gekeken of ik de meest recente bios gebruikte. Deze maar eens geüpdate, maar zonder effect. Er lijkt dus een duidelijke relatie tussen de 2e PCIe slot en de netwerkinterface.
Iemand enig idee? Kan het zijn dat ik moet kiezen: of de 2e pci-slot of de netwerkinterface? Dat lijkt me niet waarschijnlijk. In de handleiding, bios, etc. kan ik hier niets over terugvinden. Ook google helpt me niet verder.
Daar maak ik uit op dat dat M2 slot met 2 lanes wordt aangestuurd icm jouw CPU, ipv 4 bij een 3xxx serie. Mogelijk blijft er daardoor niets over voor de netwerkkaart?
Insured by MAFIA - You hit me, we hit you!!!
Dat is een idee. Maar ik denk idd hardwarematig.Kek schreef op woensdag 30 november 2022 @ 09:15:
[...]
Klinkt als een hardware issue.. je zou nog es kunnen proberen met een usb stick met een live iso om proxmox uit te sluiten.. maar ik denk dat dit in de hardware zit.. (wel een raar probleem overigens)
Dat is een interessante theorie. Een van de andere nodes heeft een Ryzen 5 5600g. Ik kan ze eens omwisselen.DaRoot schreef op woensdag 30 november 2022 @ 09:59:
[...]
Het zal vermoedelijk wel iets te maken hebben met dat 2e slot icm de specifieke CPU die je gebruikt, zie ook https://smallformfactor.n...rock-a300-deskmini.13650/
Daar maak ik uit op dat dat M2 slot met 2 lanes wordt aangestuurd icm jouw CPU, ipv 4 bij een 3xxx serie. Mogelijk blijft er daardoor niets over voor de netwerkkaart?
Ik heb vrijwel hetzelfde probleem afgelopen geconstateerd vorige week. Echter is het bij mij al de eerste PCIe 4.0 SSD (was een mooie aanbieding, ondanks dat het mobo slechts 3.0 ondersteund) waarna hij eruit knalt. Opgestart met een Windows 10 PE stickje, en daar geen enkel probleem mee.ZatarraNL schreef op dinsdag 29 november 2022 @ 20:48:
Hey allemaal,
Raar vraagje hier. Ik draai al een tijdje een Proxmox cluster met 3 nodes en een beperkte Ceph-cluster. Werkt prima.
Eén van de nodes is een Asrock A300 mini barebone met een Ryzen 3 2200G. Deze is ook voorzien van een 240 Gb ssd voor OS (nvme) en 500Gb voor Ceph (sata). Nu heeft deze A300 twee m.2 PCIe poorten, dus ik wilde er een Samsung 980 1Tb nvme aan toevoegen. Dat werkt. De schijf is zichtbaar in proxmox.
Het probleem is nu dat de netwerkinterface niet meer werkt nadat ik die 2e nvme heb toegevoegd. Bij opstart werkt deze, maar zodra Proxmox wordt gestart gaan de lampjes van de RJ45 poort uit en is de verbinding verdwenen. En het device (Enp2s0) is ook helemaal weg. De networking.service kan niet starten, want hij kan het device niet vinden.
Als ik nvme uit het 2e pcie slot haal, dan werkt de netwerkinterface weer. Overigens, als ik de bootdisk in de 2e pcie-slot steek (en de eerste leeg laat) werkt de netwerkinterface ook niet. Ik heb nog gekeken of ik de meest recente bios gebruikte. Deze maar eens geüpdate, maar zonder effect. Er lijkt dus een duidelijke relatie tussen de 2e PCIe slot en de netwerkinterface.
Iemand enig idee? Kan het zijn dat ik moet kiezen: of de 2e pci-slot of de netwerkinterface? Dat lijkt me niet waarschijnlijk. In de handleiding, bios, etc. kan ik hier niets over terugvinden. Ook google helpt me niet verder.
Specs voor de goede orde:
R5 1600(x?)
16GB RAM
Gigabyte B450M DS3H
Kingston A400 500GB
Kingston N2 2tb
In de Linux community is Kingston wel bekend vanwege zijn problemen. Als je ook zoekt op "Linux Kingston A400 SSD" zie je ook verschillende posts op Reddit en fora voorbij komen met mensen die problemen hebben. Je zou kunnen proberen de firmware te updaten, dat lijkt soms te werken. Voor de rest is er niks dat je kunt doenlamaa1 schreef op woensdag 30 november 2022 @ 15:17:
[...]
Ik heb vrijwel hetzelfde probleem afgelopen geconstateerd vorige week. Echter is het bij mij al de eerste PCIe 4.0 SSD (was een mooie aanbieding, ondanks dat het mobo slechts 3.0 ondersteund) waarna hij eruit knalt. Opgestart met een Windows 10 PE stickje, en daar geen enkel probleem mee.
Specs voor de goede orde:
R5 1600(x?)
16GB RAM
Gigabyte B450M DS3H
Kingston A400 500GB
Kingston N2 2tb

* RobertMe heeft gisteren een Samsung 980 ontvangen. (In mijn Chinese mini PC met N5105 CPU) vindt Proxmox die ook niet leuk. Die spuugt ook alleen maar errors en installer start niet eens. Met een boot flag start die dan wel op (nvme_core.<iets met latency>) maar na installatie gaat het feest vrolijk verder.orvintax schreef op woensdag 30 november 2022 @ 18:12:
[...]
In de Linux community is Kingston wel bekend vanwege zijn problemen. Als je ook zoekt op "Linux Kingston A400 SSD" zie je ook verschillende posts op Reddit en fora voorbij komen met mensen die problemen hebben. Je zou kunnen proberen de firmware te updaten, dat lijkt soms te werken. Voor de rest is er niks dat je kunt doen
Overigens heb ik ook een Kingston A2000 gehad. Daarna heb ik gezweerd nooit meer een Kingston te kopen. En heb ik die vervangen door een Evo 970 Plus (uit mijn hoofd). Maar ook Samsung is dus blijkbaar niet immuun voor vage issues in sleep modussen.
Overigens heeft dat denk ik niet met het originele probleem te maken dat PCI lanes weg lijken te vallen.
Bedoel je met het originele probleem het probleem van @ZatarraNL of van @lamaa1? Want @lamaa1 denkt dat het een gerelateerd probleem is, maar dat denk ik van niet. Als het aan die pcie lanes lag had hij namelijk ook niet tevoorschijn moeten komen in Windows. Dit ism met Kingstons reputatie op Linux doet mij aan firmware denken.RobertMe schreef op woensdag 30 november 2022 @ 18:22:
[...]
Overigens heeft dat denk ik niet met het originele probleem te maken dat PCI lanes weg lijken te vallen.
Dit is een bekend probleem, een deel van de NVME standaard wordt niet ondersteund door Proxmox waardoor bij elke boot je een foutmelding krijgt en de error counter met 1 toeneemt. Is enkel optisch, veroorzaakt geen instabiliteit.RobertMe schreef op woensdag 30 november 2022 @ 18:22:
[...]
[ME=296998]Die spuugt ook alleen maar errors en installer start niet eens. Met een boot flag start die dan wel op (nvme_core.<iets met latency>) maar na installatie gaat het feest vrolijk verder.
Dat leest niet als wat ik had. Iets met een frozen drive, resetten om proberen de drive weer werkende te krijgen, etc. En verder ook gewoon niks doen behalve elke seconde het scherm vol spugen met allemaal PCIe debug info (elke keer gevolgd door dat de drive frozen is).Feni schreef op woensdag 30 november 2022 @ 20:54:
[...]
Dit is een bekend probleem, een deel van de NVME standaard wordt niet ondersteund door Proxmox waardoor bij elke boot je een foutmelding krijgt en de error counter met 1 toeneemt. Is enkel optisch, veroorzaakt geen instabiliteit.
Heb overigens een 980 Pro in mijn huidige server / NAS zitten (ook Proxmox). En die spuugt dan weer periodiek een SMART temperature warning uit. Drive die 200+ graden is. Dat kwam ik ook al tegen toen ik vanmorgen snel aan het zoeken was naar de "frozen" drive. En ook dat zou opgelost kunnen zijn met dezelfde nvme_core.<iets met latency> kernel optie.
In het aangehaalde topic heb ik geschreven dat ik met een Chinese MiniPC met Proxmox een zeer onregelmatig verbruik had dat continu tussen de 2,x & 6,x Watt schommeld. @TheByteBoy gaf daarop aan hetzelfde probleem te hebben (sterk schommelend verbruik bij idle) maar dat zijn installatie afkomstig was van een plain Debian install, en Debian wel hartstikke stabiel was in verbruik.
Daarop heb ik eerder deze week een kale Debian installatie op gezet (met experimental 6.1 kernel omdat de 5.10 kernel een veel hoger verbruik had) op basis waarvan ik kan bevestigen dat het verbruik daarvan stabiel is, met 2,x Watt. Vervolgens de Proxmox kernel geïnstalleerd (zoals in de handleiding staat, dus apt repo toevoegen en apt install pve-kernel-5.19, wetende dat die wat nieuwer is en de stock 5.15 kernel issues geeft met de Intel N5105), en het was meteen raak. Gisteren in eerste instantie zelf de PVE kernel gecompileerd zodat ik daarmee verder kon testen (enerzijds baseert Proxmox de kernel dan sowieso op Ubuntu, anderzijds doen ze ook nog eens de compile flags aanpassen voor wat optimalisaties). Deze kernel gaf vervolgens uiteraard ook hetzelfde resultaat. Echter... toen ik weer op de Debian 6.1 kernel zat zag ik exact hetzelfde gedrag. Het verbruik is totaal niet stabiel en blijft op en neer gaan.
Daarom heb ik vervolgens gekeken wat ik precies gedaan / geïnstalleerd had. En dan blijkt dat ee installatie van pve-kernel- ook meteen pve-firmware installeert en de Debian firmware-* packages verwijderd (in mijn geval firmware-linux-free, firmware-iwlwifi & firmware-realtek). Dus pve-firmware verwijderd en de Debian firmware packages opnieuw geïnstalleerd. Et voila, het verbruik is nu wel weer super stabiel op de Debian kernel.
Heeft iemand hier dus ervaring mee? En waarom Proxmox überhaupt hun eigen firmware package heeft? Lijkt mij immers dat de firmware kernel onafhankelijk is (ook gezien de Debian packages niet gekoppeld zijn aan een kernel versie, de Debian 6.1 kernel net zo goed / slecht werkt met de pve-firmware, etc).
* RobertMe gaat als volgende stapje in deze puzzel maar eens kijken of die niet de pve kernel met Debian firmware packages kan draaien.
Here we go:RobertMe schreef op zaterdag 10 december 2022 @ 12:42:
Even gesprekje / onderzoekje ontstaan uit / in Het grote zuinige server topic - deel 3 dat ik had met @stormfly & @TheByteBoy hierheen verplaatsen.
In het aangehaalde topic heb ik geschreven dat ik met een Chinese MiniPC met Proxmox een zeer onregelmatig verbruik had dat continu tussen de 2,x & 6,x Watt schommeld. @TheByteBoy gaf daarop aan hetzelfde probleem te hebben (sterk schommelend verbruik bij idle) maar dat zijn installatie afkomstig was van een plain Debian install, en Debian wel hartstikke stabiel was in verbruik.
Daarop heb ik eerder deze week een kale Debian installatie op gezet (met experimental 6.1 kernel omdat de 5.10 kernel een veel hoger verbruik had) op basis waarvan ik kan bevestigen dat het verbruik daarvan stabiel is, met 2,x Watt. Vervolgens de Proxmox kernel geïnstalleerd (zoals in de handleiding staat, dus apt repo toevoegen en apt install pve-kernel-5.19, wetende dat die wat nieuwer is en de stock 5.15 kernel issues geeft met de Intel N5105), en het was meteen raak. Gisteren in eerste instantie zelf de PVE kernel gecompileerd zodat ik daarmee verder kon testen (enerzijds baseert Proxmox de kernel dan sowieso op Ubuntu, anderzijds doen ze ook nog eens de compile flags aanpassen voor wat optimalisaties). Deze kernel gaf vervolgens uiteraard ook hetzelfde resultaat. Echter... toen ik weer op de Debian 6.1 kernel zat zag ik exact hetzelfde gedrag. Het verbruik is totaal niet stabiel en blijft op en neer gaan.
Daarom heb ik vervolgens gekeken wat ik precies gedaan / geïnstalleerd had. En dan blijkt dat ee installatie van pve-kernel- ook meteen pve-firmware installeert en de Debian firmware-* packages verwijderd (in mijn geval firmware-linux-free, firmware-iwlwifi & firmware-realtek). Dus pve-firmware verwijderd en de Debian firmware packages opnieuw geïnstalleerd. Et voila, het verbruik is nu wel weer super stabiel op de Debian kernel.
Heeft iemand hier dus ervaring mee? En waarom Proxmox überhaupt hun eigen firmware package heeft? Lijkt mij immers dat de firmware kernel onafhankelijk is (ook gezien de Debian packages niet gekoppeld zijn aan een kernel versie, de Debian 6.1 kernel net zo goed / slecht werkt met de pve-firmware, etc).
* RobertMe gaat als volgende stapje in deze puzzel maar eens kijken of die niet de pve kernel met Debian firmware packages kan draaien.
/f/image/74i8vYDUFjWXCVsLzzsVYRcE.png?f=fotoalbum_large)
Clean Proxmox 7.3 installatie (vanaf ISO image), met de 5.19 kernel, vs exact dezelfde installatie na het installeren van een dummy pve-firmware (/leeg package met een Provides: pve-firmware) en het installeren van firmware-linux-free, firmware-iwlwifi & firmware-realtek (laatste twee komen overigens uit de non-free repo). Dus in ieder geval in mijn geval gaat het om een brakke firmware.
Nu nog eens gaan puzzelen met een voor een de (in gebruik zijnde) firmware files vervangen door die uit het pve-firmware package (dus package uitpakken, en dan de files uit de Debian packages overschrijven).
Die 2 korte "blokjes" in de rechte lijn waren toen ik was ingelogd, en in ieder geval een apt show gedaan heb, dus mogelijk dat dat wat activiteit gaf waardoor die voor wat performance ging. Die langere "verhoging" op het eind heb ik geen idee van, maar waarschijnlijk een "meetfout". Meet met een Fibaro WallPlug, en toen ik die, over Z-Wave, een refresh gaf was die meteen terug van 3,x naar 2,x
Hou je er ook rekening mee dat er kans is dat de metingen i.c.m. een laag verbruik niet altijd even goed gaan bij sommige adapters/meters die dat wel claimen te kunnenRobertMe schreef op zaterdag 10 december 2022 @ 12:42:
In het aangehaalde topic heb ik geschreven dat ik met een Chinese MiniPC met Proxmox een zeer onregelmatig verbruik had dat continu tussen de 2,x & 6,x Watt schommeld.
Vroeger deden ze nog weleens Proxmox installeren nadat er eerst een verse kale Debian installatie was gedaan dus check effe of die optie nog steeds bestaat ?!* RobertMe gaat als volgende stapje in deze puzzel maar eens kijken of die niet de pve kernel met Debian firmware packages kan draaien.
Verder is het misschien wel handig om te weten dat er vroeger gezeik ontstond op het moment dat je VMWare ESXi draaide op een Server die op "Balanced" dan wel "Eco" mode stond ingesteld i.p.v. "High Performance" waarbij dus ALLE CORES van de CPU constant op de hoogste clockspeeds draaiden!
Misschien heeft dat kastje een soortgelijke bug i.c.m. Proxmox/Linux toevallig ?!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
- Installeer Debian Bullseye (en de 6.1 kernel van experimental en de non free firmwares)
- Laat het systeem een tijd draaien => mooie rechte lijn v.w.b. verbruik, dit kan uren lang
- Voeg de Proxmox repo toe en installeer pve-firmware (dat verwijderd vervolgens firmware-linux-free, firmware-iwlwifi & firmware-realtek)
- Reboot => verbruik gaat continu op en neer
Ik claim niet eens dat deze meter betrouwbaar is. Maar er zit natuurlijk ook een verschil tussen accuraat en constant. Als ik met standaard Proxmox een uur lang schommelingen in het verbruik zie en na het erin hacken van de Debian firmware een vlakke lijn zie dan zou het wel heel sterk zijn dat het aan de meter ligt. En dat ook nog eens herhaaldelijk, alsof de meter weet of ik wel of niet met de pve-firmwares draai.nero355 schreef op zaterdag 10 december 2022 @ 17:46:
[...]
Hou je er ook rekening mee dat er kans is dat de metingen i.c.m. een laag verbruik niet altijd even goed gaan bij sommige adapters/meters die dat wel claimen te kunnen
Uhm, mijn eerste post omschrijft letterlijk dat ik na @TheByteBoy zijn opmerking (in het andere topic) dat hij dit ook zag met Debian vs Proxmox ook zelf ben begonnen te experimenteren vanaf een Debian installatie. Met daarop dus pve-kernel-5.19 te installeren, en vervolgens "meteen" dit gedrag te zien. Ergo: het komt niet door allemaal monitoring en beheer tools van Proxmox, maar alleen uit de installatie van de kernel, die dus ook de firmware vervangt.[...]
Vroeger deden ze nog weleens Proxmox installeren nadat er eerst een verse kale Debian installatie was gedaan dus check effe of die optie nog steeds bestaat ?!
Proxmox draait standaard ook op CPU governor performance, om die reden. Maar dat maakt verder ook niet uit, aangezien ik dit gedrag dus zowel zie met "hoe Debian werkt, met pve-firmware er bovenop" als met "Proxmox met firmware-* van Debian". Dus hoe beiden distros de CPU governor of wat dan ook anders instellen maakt niet uit. Het verschil zit niet "in de distro", maar in de firmware die gebruikt wordt.Verder is het misschien wel handig om te weten dat er vroeger gezeik ontstond op het moment dat je VMWare ESXi draaide op een Server die op "Balanced" dan wel "Eco" mode stond ingesteld i.p.v. "High Performance" waarbij dus ALLE CORES van de CPU constant op de hoogste clockspeeds draaiden!
En het gaat ook niet om dat Proxmox (iets) meer energie verbruikt, maar omdat Debian (& nu dus ook Proxmox met firmwares van Debian) in idle "gewoon" uren lang een vlakke lijn aan verbruik geeft. Terwijl met Proxmox (& Debian met firmwares van Proxmox) totaal geen constant verbruik hebben en het continu omhoog schiet naar 6,x Watt.
Dat Proxmox vervolgens bv 0,5W extra verbruikt ten opzichte van Debian doordat er services draaien voor het clustering verhaal (ook al is dat niet in gebruik), of een statistieken / metrics service om dus mooie grafieken te maken met het CPU, RAM, ... gebruik, ... is tot daar aan toe.
Waarbij ik überhaupt vermoed dat dat verschil nog marginaler is. Op Debian heb ik 2,2W gemeten, nu Proxmox, met Debian firmwares, draait al sinds 4 uur op 2,5W. Dus dan zou het een verschil zijn van 0,3W is 2,6kWh op jaarbasis. Dat is geneuzel in de marge. Terwijl het instabiele verbruik van Proxmox "standaard" (met pve-firmware dus) voor @TheByteBoy in zijn situatie meen ik een gemiddeld verbruik van 4,xW had, en Debian ook maar 2,xW. Oftewel over langere tijd een gemiddelde dat 2W hoger ligt en dan gaat het al over een verschil van 17kWh op jaarbasis, of gewoon uit te drukken in "Proxmox gebruikt idle het dubbele van wat Debian doet".
Overigens kan pve-firmware niet zomaar omzeild worden. Het proxmox-ve package heeft een dependency op pve-kernel-5.15, en pve-kernel-5.15 is een meta package met een dependency op pve-firmware en pve-kernel-5.15.<specifieke versie / build>. Want toen ik zag dat pve-kernel-5.19 maar een meta package is naar pve-firmware en de specifieke build versie wilde ik direct de build versie installeren (dus apt install pve-kernel-5.19.17-1...), en daarna pve-kernel-5.15 & pve-firmware verwijderen. Maar toen wilde die dus ook proxmox-ve "meenemen". Niet echt de bedoeling. Nog losstaand van dat het installeren van een specifiek package / versie dus ertoe leidt dat er geen updates meer binnen druppelen. Immers wordt het specifieke package nooit geüpdate, maar wordt het meta package geupdate met een aanpassing in de dependency.
Duidelijk!RobertMe schreef op zaterdag 10 december 2022 @ 18:24:
Ik claim niet eens dat deze meter betrouwbaar is. Maar er zit natuurlijk ook een verschil tussen accuraat en constant. Als ik met standaard Proxmox een uur lang schommelingen in het verbruik zie en na het erin hacken van de Debian firmware een vlakke lijn zie dan zou het wel heel sterk zijn dat het aan de meter ligt. En dat ook nog eens herhaaldelijk, alsof de meter weet of ik wel of niet met de pve-firmwares draai.
Ik heb dat andere topic verder niet doorgelezen dus ik geloof je meteen, maar mijn opmerking was meer bedoeld als TIP om eventueel het beste van beide werelden te kunnen combineren en daarmee gewoon in de toekomst het systeem te kunnen gebruiken zonder gezeikUhm, mijn eerste post omschrijft letterlijk dat ik na @TheByteBoy zijn opmerking (in het andere topic) dat hij dit ook zag met Debian vs Proxmox ook zelf ben begonnen te experimenteren vanaf een Debian installatie. Met daarop dus pve-kernel-5.19 te installeren, en vervolgens "meteen" dit gedrag te zien. Ergo: het komt niet door allemaal monitoring en beheer tools van Proxmox, maar alleen uit de installatie van de kernel, die dus ook de firmware vervangt.
Dus als ik het goed begrijp :Overigens kan pve-firmware niet zomaar omzeild worden. Het proxmox-ve package heeft een dependency op pve-kernel-5.15, en pve-kernel-5.15 is een meta package met een dependency op pve-firmware en pve-kernel-5.15.<specifieke versie / build>. Want toen ik zag dat pve-kernel-5.19 maar een meta package is naar pve-firmware en de specifieke build versie wilde ik direct de build versie installeren (dus apt install pve-kernel-5.19.17-1...), en daarna pve-kernel-5.15 & pve-firmware verwijderen. Maar toen wilde die dus ook proxmox-ve "meenemen". Niet echt de bedoeling. Nog losstaand van dat het installeren van een specifiek package / versie dus ertoe leidt dat er geen updates meer binnen druppelen. Immers wordt het specifieke package nooit geüpdate, maar wordt het meta package geupdate met een aanpassing in de dependency.
- Installeer Proxmox via hun eigen ISO.
- Deïnstalleer de PVE firmware meuk.
- Installeer de Debian firmware meuk via een aparte Debian Repository die je tijdelijk toevoegt
Of kopiëer je gewoon wat bestanden naar de juiste plek ?!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Proxmox is gewoon Debian, dus het is al een combinatienero355 schreef op zaterdag 10 december 2022 @ 18:34:
[...]
Ik heb dat andere topic verder niet doorgelezen dus ik geloof je meteen, maar mijn opmerking was meer bedoeld als TIP om eventueel het beste van beide werelden te kunnen combineren en daarmee gewoon in de toekomst het systeem te kunnen gebruiken zonder gezeik
Alleen gaat combineren van Proxmox beheer tools dus niet met Debian kernel, omdat er een dependency naar de Proxmox kernel ligt, die weer pve-firmware vereist, die weer een replace & conflict heeft op een hele lijst aan firmware-* packages van Debian. Dus om de Proxmox (beheer) tools te gebruiken (/dus letterlijk "om Proxmox te gebruiken") ben je verplicht om de firmwares uit de Proxmox repo te gebruiken. Tenzij je dus een dummy package maakt met een Provides: pve-firmware. Daarna kun je de echte pve-firmware wel verwijderen, en dus ook weer de packages van Debian installeren.]
Niet "aparte Debian repository die je tijdelijk toevoegt" dus. Want je hebt gewoon de volledige Debian repo(s) tot je beschikking (bullseye, bullseye-update & bullseye-security zijn gewoon ingeschakeld voor main & contrib. Ik heb alleen nog non-free toegevoegd, omdat dan firmware-iwlwifi & firmware-realtek daarin zitten). En "gewoon de bestanden kopieren" is natuurlijk tricky. Want bij de eerste de beste update van pve-firmware worden ze dan overschreven (of krijg je conflicten tijdens updaten). Maar doordat ik nu die dummy pve-firmware (package die die "provides") heb hoef ik niet meer pve-firmware geinstalleerd te hebben (want de dependency op pve-firmware van pve-kernel-* wordt aan voldaan door de "Provides" van mijn dummy). En doordat ik pve-firmware niet geinstalleerd hoef te hebben kan ik dus weer gewoon de firmware-* packages uit de Debian repo installeren. Immers is het "conflict" dat pve-firmware daarmee heeft "weg", want er is geen "pve-firmware" geinstalleerd.[...]
Dus als ik het goed begrijp :
- Installeer Proxmox via hun eigen ISO.
- Deïnstalleer de PVE firmware meuk.
- Installeer de Debian firmware meuk via een aparte Debian Repository die je tijdelijk toevoegt
Of kopiëer je gewoon wat bestanden naar de juiste plek ?!
/f/image/dlU2rSXW7oPErzS8nudWM63x.png?f=fotoalbum_large)
Vergelijking gedaan tussen dmesg gerelateerd aan "firmware" met en zonder pve-firmware. En dan blijkt dat met firmware-linux-free firmware-iwlwifi firmware-realtek er geen "i915" firmware wordt ingeladen, voor de GPU (iGPU dan). Bij Debian zit die in firmware-misc-nonfree. Dat package geinstalleerd => reboot. En leek op "same shit" (grillig verbruik dus). Vervolgens pve-firmware geinstalleerd, de specifieke firmware file met het handje verwijderd, reboot. En bovenstaande screenshot is daarvan het resultaat.
Nu nog puzzelen of dit niet op een andere manier te bereiken valt (module uitschakelen? Inladen van firmware voorkomen?). Want even een file uit package verwijderen is niet echt onderhoudsvriendelijk (elke update van dit package opnieuw verwijderen?

Die kleine verhoging die zo lang duurt was weg nadat ik de plug de waardes heb laten verversen. Dus zal eerder aan de plug gelegen hebben dan continu dat hogere verbruik. Die andere 2, 3 piekjes durf ik niet te verklaren. Maarja, er draait natuurlijk genoeg aan achtergrond.
De oplossing met de dummy doet datTheByteBoy schreef op zondag 11 december 2022 @ 08:38:
Ik ben benieuwd of het lukt om dit zo te configureren dat het een upgrade van Proxmox overleefd.
De enige vragen zijn: waarom werkt dit? Bevat de iGPU een firmware die dit gedrag niet heeft? Of is de iGPU nu helemaal uitgeschakeld? Maar hoe krijg ik dan wel een terminal?; Wat zijn de gevolgen hiervan? Kan ik nu nog een desktop draaien? (In een VM) Waarschijnlijk niet? (Gebruik ik overigens ook nu niet). En is bv hardware offloading van video nu mogelijk? (Gebruik ik nu ook niet);
Nope. Hoe meer je toevoegt hoe lastiger het natuurlijk ook te vergelijken is etc.. En VMs wil ik sowieso niet, of maar minimaal, gebruiken. VMs zijn veel onzuiniger dan LXC, dus LXC is mijn goto.Heb je ook als eens een workload op Proxmox getest in je nieuwe configuratie, bv Debian VM, hoe het verbruik er dan uit ziet? Zeker interessant
Heb door dit verbruik ook nog even zitten zoeken of ik niet voldoende heb aan bv plain Debian met Docker. Reden dat ik dat nu op het andere systeem niet gedaan heb is, voornamelijk, omdat Docker niet (eenvoudig) te gebruiken is in combinatie met VLANs. Lees: Docker stuurt het verkeer dan de deur uit op de default interface en zo. Terwijl ik bv Home Assistant alleen in het IoT VLAN wil hebben. De UniFi Controller alleen in het "default" VLAN, etc. Daarvoor heb ik wel ook weer een oplossing gevonden, maar is ook wat meer handwerk (in Docker zelf het netwerk aanmaken in combinatie met een optie om niet de iptables regel(s) aan te maken, en dat dan met de hand te doen met source nat). Alhoewel Docker in LXC op ZFS ook niet echt eenvoudig is

Uiteraard!RobertMe schreef op zaterdag 10 december 2022 @ 18:42:
Proxmox is gewoon Debian, dus het is al een combinatie
&Een Proxmox installatie bevat ook gewoon de Debian repos (Bullseye in geval van Proxmox 7), en de additionele Proxmox repo bevat vervolgens alleen de Proxmox specifieke stuff.
Dat wist ik effe niet meer, want de laatste keer dat ik daaraan heb gezeten is alweer een flinke tijd geleden...Niet "aparte Debian repository die je tijdelijk toevoegt" dus. Want je hebt gewoon de volledige Debian repo(s) tot je beschikking (bullseye, bullseye-update & bullseye-security zijn gewoon ingeschakeld voor main & contrib.

Ik heb alleen nog non-free toegevoegd, omdat dan firmware-iwlwifi & firmware-realtek daarin zitten).
Kan je dat RealTek WLAN NICje niet gewoon uitbouwenRobertMe schreef op zaterdag 10 december 2022 @ 22:50:
Zeer waarschijnlijk gevonden. Dit is nu Proxmox met pve-firmware in gebruik, met...
[Afbeelding]
Vergelijking gedaan tussen dmesg gerelateerd aan "firmware" met en zonder pve-firmware. En dan blijkt dat met firmware-linux-free firmware-iwlwifi firmware-realtek er geen "i915" firmware wordt ingeladen, voor de GPU (iGPU dan). Bij Debian zit die in firmware-misc-nonfree. Dat package geinstalleerd => reboot. En leek op "same shit" (grillig verbruik dus). Vervolgens pve-firmware geinstalleerd, de specifieke firmware file met het handje verwijderd, reboot. En bovenstaande screenshot is daarvan het resultaat.
Nu nog puzzelen of dit niet op een andere manier te bereiken valt (module uitschakelen? Inladen van firmware voorkomen?). Want even een file uit package verwijderen is niet echt onderhoudsvriendelijk (elke update van dit package opnieuw verwijderen?)
Anders aan de Modules modprobe Blacklist toevoegen ?!
Als je de iGPU wilt Passthrough-en dan zou dat ook zonder een driver moeten kunnen denk ik...RobertMe schreef op zondag 11 december 2022 @ 09:29:
De enige vragen zijn: waarom werkt dit? Bevat de iGPU een firmware die dit gedrag niet heeft? Of is de iGPU nu helemaal uitgeschakeld? Maar hoe krijg ik dan wel een terminal?; Wat zijn de gevolgen hiervan? Kan ik nu nog een desktop draaien? (In een VM) Waarschijnlijk niet? (Gebruik ik overigens ook nu niet). En is bv hardware offloading van video nu mogelijk? (Gebruik ik nu ook niet)
Wat je ook kan doen : Via SPICE de Desktop VM via een andere PC/Laptop benaderen
Werkt echt geweldig goed! Zelfs met drie schermen actief!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Er zit geen RealTek WLAN NICje in. Wel een LAN NICje van RealTek, en die doet het prima (behalve dat het RealTek isnero355 schreef op zondag 11 december 2022 @ 16:05:
[...]
Kan je dat RealTek WLAN NICje niet gewoon uitbouwen
Het gaat over firmwares, niet driversAnders aan de Modules modprobe Blacklist toevoegen ?!
Zonder driver? Wellicht. Zonder firmware? Not quite sure. Letterlijk zonder firmware zal de iGPU verwacht ik sowieso niet veel doen. Maar tegelijkertijd zal er ook wel ergens een firmware zijn ingebakken (hoe krijg ik anders beeld zonder firmware? En hoe heb je anders uberhaupt beeld in een BIOS?).[...]
Als je de iGPU wilt Passthrough-en dan zou dat ook zonder een driver moeten kunnen denk ik...
Nooit gedaan, en zal ik ook niet snel gaan doen gok ikWat je ook kan doen : Via SPICE de Desktop VM via een andere PC/Laptop benaderen
Werkt echt geweldig goed! Zelfs met drie schermen actief!![]()

Als ik me niet vergis kun je een GPU emuleren met je processor. Dit is natuurlijk niet efficient en kost relatief wel wat processing power. Dus je doet dit liever niet, maar het kan wel.RobertMe schreef op zondag 11 december 2022 @ 09:29:
[...]
De oplossing met de dummy doet datpve-firmware is dan niet geïnstalleerd en zal dus ook niet geupdate worden. En packages die een dependency hebben op pve-firmware kunnen gewoon gebruikt worden doordat de dummy die "provides". En met het gebruik van de Debian packages in de plaats heb ik wel gewoon de overige firmwares, en krijg ik daar updates voor.
De enige vragen zijn: waarom werkt dit? Bevat de iGPU een firmware die dit gedrag niet heeft? Of is de iGPU nu helemaal uitgeschakeld? Maar hoe krijg ik dan wel een terminal?; Wat zijn de gevolgen hiervan? Kan ik nu nog een desktop draaien? (In een VM) Waarschijnlijk niet? (Gebruik ik overigens ook nu niet). En is bv hardware offloading van video nu mogelijk? (Gebruik ik nu ook niet);
[...]
Nope. Hoe meer je toevoegt hoe lastiger het natuurlijk ook te vergelijken is etc.. En VMs wil ik sowieso niet, of maar minimaal, gebruiken. VMs zijn veel onzuiniger dan LXC, dus LXC is mijn goto.
Heb door dit verbruik ook nog even zitten zoeken of ik niet voldoende heb aan bv plain Debian met Docker. Reden dat ik dat nu op het andere systeem niet gedaan heb is, voornamelijk, omdat Docker niet (eenvoudig) te gebruiken is in combinatie met VLANs. Lees: Docker stuurt het verkeer dan de deur uit op de default interface en zo. Terwijl ik bv Home Assistant alleen in het IoT VLAN wil hebben. De UniFi Controller alleen in het "default" VLAN, etc. Daarvoor heb ik wel ook weer een oplossing gevonden, maar is ook wat meer handwerk (in Docker zelf het netwerk aanmaken in combinatie met een optie om niet de iptables regel(s) aan te maken, en dat dan met de hand te doen met source nat). Alhoewel Docker in LXC op ZFS ook niet echt eenvoudig is. (Momenteel maak ik in Proxmox zelf een ZFS Volume aan, die format ik met ext4, die mount ik dan weer in de LXC op /var/lib/docker en ik maak een /etc/docker/daemon.json aan om de overlay2 driver te gebruiken. Alhoewel ik nu twijfel of het met driver configuratie nog uit maakt of ik hem naar een ext4 volume laat schrijven of rechtstreeks naar ZFS)
Blijft dan wel een beetje gek dat ik "zonder firmware" een lager verbruik zie dan "met firmware"orvintax schreef op zondag 11 december 2022 @ 17:53:
[...]
Als ik me niet vergis kun je een GPU emuleren met je processor. Dit is natuurlijk niet efficient en kost relatief wel wat processing power. Dus je doet dit liever niet, maar het kan wel.
Of het is zonder firmware / zonder GPU alsnog beter omdat het maar om een domme terminal gaat. Maar het vervolgens "mis gaat" bij het gebruik van Xorg / Wayland / ... dat veel meer van een GPU vraagt.
Dat denk/verwacht ik dus ook!RobertMe schreef op zondag 11 december 2022 @ 18:40:
Of het is zonder firmware / zonder GPU alsnog beter omdat het maar om een domme terminal gaat. Maar het vervolgens "mis gaat" bij het gebruik van Xorg / Wayland / ... dat veel meer van een GPU vraagt.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Je kunt die schijf toch gewoon mounten op je node en dan die subvolumes doorgeven? Direct de schijf doorgeven en laten beheren door de lxc kan ook. Je hebt optiescommentator schreef op maandag 26 december 2022 @ 21:23:
weet iemand of ik een externe usb hardeschijf met btrfs en subvolumes direct kan mounten in een lxc?
De host is een HP ProLiant ML350 G8, intel E5-2660 met 96GB RAM, met de 5.15.83-1-pve kernel.
In de BIOS heb ik VT-E en VT-D ingeschakeld. Ik heb de officiele guide gevolgd op https://pve.proxmox.com/wiki/Pci_passthrough.
Ik probeer een NVIDIA Quadro K2200 naar een Windows 10 VM door te schuiven. De K2000 staat op de officiële lijst van ondersteunde kaarten.
Het probleem waar ik tegen aan blijf lopen is de volgende error melding tijdens starten van de VM
Als afwijking op de officiële guide heb ik x2apic interrupt remapping uitgeschakeld omdat dit niet ondersteund word door mijn systeem. xapic interrupt remapping wordt wel ondersteunds dus ik heb die modus aangezet als interupt remapping. Alsnog heb ik unsafe interrupts aangezet omdat de VM niet wou starten, met altijd dezelfde meldingvfio 0000:0a:00.0: failed to setup container for group 31: Failed to set iommu for container: Operation not permitted
Als ik kijk naar de verschillende IOMMU groups die aangemaakt worden, lijkt het er wel op dat alle PCI devices een eigen IOMMU group toegewijst krijgt.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
| /sys/kernel/iommu_groups/0/devices/0000:00:00.0 /sys/kernel/iommu_groups/1/devices/0000:00:01.0 /sys/kernel/iommu_groups/2/devices/0000:00:01.1 /sys/kernel/iommu_groups/3/devices/0000:00:02.0 /sys/kernel/iommu_groups/4/devices/0000:00:02.1 /sys/kernel/iommu_groups/5/devices/0000:00:02.2 /sys/kernel/iommu_groups/6/devices/0000:00:02.3 /sys/kernel/iommu_groups/7/devices/0000:00:03.0 /sys/kernel/iommu_groups/8/devices/0000:00:03.1 /sys/kernel/iommu_groups/9/devices/0000:00:03.2 /sys/kernel/iommu_groups/10/devices/0000:00:03.3 /sys/kernel/iommu_groups/11/devices/0000:00:04.0 /sys/kernel/iommu_groups/12/devices/0000:00:04.1 /sys/kernel/iommu_groups/13/devices/0000:00:04.2 /sys/kernel/iommu_groups/14/devices/0000:00:04.3 /sys/kernel/iommu_groups/15/devices/0000:00:04.4 /sys/kernel/iommu_groups/16/devices/0000:00:04.5 /sys/kernel/iommu_groups/17/devices/0000:00:04.6 /sys/kernel/iommu_groups/18/devices/0000:00:04.7 /sys/kernel/iommu_groups/19/devices/0000:00:05.0 /sys/kernel/iommu_groups/20/devices/0000:00:05.2 /sys/kernel/iommu_groups/21/devices/0000:00:05.4 /sys/kernel/iommu_groups/22/devices/0000:00:11.0 /sys/kernel/iommu_groups/23/devices/0000:00:1a.0 /sys/kernel/iommu_groups/24/devices/0000:00:1c.0 /sys/kernel/iommu_groups/25/devices/0000:00:1c.4 /sys/kernel/iommu_groups/26/devices/0000:00:1c.7 /sys/kernel/iommu_groups/27/devices/0000:00:1d.0 /sys/kernel/iommu_groups/28/devices/0000:00:1e.0 /sys/kernel/iommu_groups/29/devices/0000:00:1f.0 /sys/kernel/iommu_groups/29/devices/0000:00:1f.2 /sys/kernel/iommu_groups/30/devices/0000:03:00.0 /sys/kernel/iommu_groups/31/devices/0000:0a:00.0 /sys/kernel/iommu_groups/31/devices/0000:0a:00.1 /sys/kernel/iommu_groups/32/devices/0000:02:00.0 /sys/kernel/iommu_groups/32/devices/0000:02:00.1 /sys/kernel/iommu_groups/32/devices/0000:02:00.2 /sys/kernel/iommu_groups/32/devices/0000:02:00.3 /sys/kernel/iommu_groups/33/devices/0000:01:00.0 /sys/kernel/iommu_groups/33/devices/0000:01:00.1 /sys/kernel/iommu_groups/33/devices/0000:01:00.2 /sys/kernel/iommu_groups/33/devices/0000:01:00.4 /sys/kernel/iommu_groups/34/devices/0000:1f:08.0 /sys/kernel/iommu_groups/35/devices/0000:1f:09.0 /sys/kernel/iommu_groups/36/devices/0000:1f:0a.0 /sys/kernel/iommu_groups/36/devices/0000:1f:0a.1 /sys/kernel/iommu_groups/36/devices/0000:1f:0a.2 /sys/kernel/iommu_groups/36/devices/0000:1f:0a.3 /sys/kernel/iommu_groups/37/devices/0000:1f:0b.0 /sys/kernel/iommu_groups/37/devices/0000:1f:0b.3 /sys/kernel/iommu_groups/38/devices/0000:1f:0c.0 /sys/kernel/iommu_groups/38/devices/0000:1f:0c.1 /sys/kernel/iommu_groups/38/devices/0000:1f:0c.2 /sys/kernel/iommu_groups/38/devices/0000:1f:0c.3 /sys/kernel/iommu_groups/38/devices/0000:1f:0c.4 /sys/kernel/iommu_groups/39/devices/0000:1f:0d.0 /sys/kernel/iommu_groups/39/devices/0000:1f:0d.1 /sys/kernel/iommu_groups/39/devices/0000:1f:0d.2 /sys/kernel/iommu_groups/39/devices/0000:1f:0d.3 /sys/kernel/iommu_groups/39/devices/0000:1f:0d.4 /sys/kernel/iommu_groups/40/devices/0000:1f:0e.0 /sys/kernel/iommu_groups/40/devices/0000:1f:0e.1 /sys/kernel/iommu_groups/41/devices/0000:1f:0f.0 /sys/kernel/iommu_groups/42/devices/0000:1f:0f.1 /sys/kernel/iommu_groups/43/devices/0000:1f:0f.2 /sys/kernel/iommu_groups/44/devices/0000:1f:0f.3 /sys/kernel/iommu_groups/45/devices/0000:1f:0f.4 /sys/kernel/iommu_groups/46/devices/0000:1f:0f.5 /sys/kernel/iommu_groups/47/devices/0000:1f:10.0 /sys/kernel/iommu_groups/48/devices/0000:1f:10.1 /sys/kernel/iommu_groups/49/devices/0000:1f:10.2 /sys/kernel/iommu_groups/50/devices/0000:1f:10.3 /sys/kernel/iommu_groups/51/devices/0000:1f:10.4 /sys/kernel/iommu_groups/52/devices/0000:1f:10.5 /sys/kernel/iommu_groups/53/devices/0000:1f:10.6 /sys/kernel/iommu_groups/54/devices/0000:1f:10.7 /sys/kernel/iommu_groups/55/devices/0000:1f:13.0 /sys/kernel/iommu_groups/55/devices/0000:1f:13.1 /sys/kernel/iommu_groups/55/devices/0000:1f:13.4 /sys/kernel/iommu_groups/55/devices/0000:1f:13.5 /sys/kernel/iommu_groups/56/devices/0000:1f:16.0 /sys/kernel/iommu_groups/56/devices/0000:1f:16.1 /sys/kernel/iommu_groups/56/devices/0000:1f:16.2 |
Huidige configuratie:
VM configuratie
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
| agent: 1 bios: ovmf boot: order=scsi0;net0;ide0 cores: 8 efidisk0: ssdtank:vm-204-disk-0,efitype=4m,pre-enrolled-keys=1,size=4M hostpci0: 0000:0a:00.0,pcie=1,x-vga=1 machine: pc-q35-7.1 memory: 24576 meta: creation-qemu=7.0.0,ctime=1666000817 name: Win10 net0: virtio=76:A9:92:97:4B:0F,bridge=vmbr0,firewall=1 numa: 0 ostype: win10 scsi0: ssdtank:vm-204-disk-1,cache=writeback,discard=on,size=100G scsihw: virtio-scsi-pci smbios1: uuid=63230fd0-1551-4c26-88ab-12ab97014e8d sockets: 1 tpmstate0: ssdtank:vm-204-disk-2,size=4M,version=v2.0 vmgenid: f119b314-bc18-46e6-ba5c-f9d77bec92f2 |
GRUB CMDLINE
1
| GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on iommu=pt nox2apic ntremap=no_x2apic_optout" |
/etc/modules
1
2
3
4
5
| wireguard vfio vfio_iommu_type1 vfio_pci vfio_virqfd |
/etc/modprobe.d/blacklist.conf
1
2
3
| blacklist radeon blacklist nouveau blacklist nvidia |
/etc/modprobe.d/iommu_unsafe_interrupts.conf
1
| options vfio_iommu_type1 allow_unsafe_interrupts=1 |
Systeem output
dmesg | grep 'remapping'
1
| [ 0.561344] DMAR-IR: Enabled IRQ remapping in xapic mode |
edit:
Het lukt mij trouwens ook niet om de ROM uit te lezen om te kijken of deze UEFI compatible is. Ik krijg een Input/output error
1
2
3
4
5
| root@pve-ml350:/sys/bus/pci/devices/0000:0a:00.0# echo 1 > rom root@pve-ml350:/sys/bus/pci/devices/0000:0a:00.0# cat rom cat: rom: Input/output error root@pve-ml350:/sys/bus/pci/devices/0000:0a:00.0# echo 0 > rom root@pve-ml350:/sys/bus/pci/devices/0000:0a:00.0# |
[ Voor 3% gewijzigd door maxxie85 op 02-01-2023 14:00 ]
Volgens mij was de G8 serie nog steeds een BIOS reeks en kwam de keuze tussen BIOS of UEFI pas vanaf de G9 serie erbijmaxxie85 schreef op maandag 2 januari 2023 @ 13:55:
De host is een HP ProLiant ML350 G8, intel E5-2660
edit:
Het lukt mij trouwens ook niet om de ROM uit te lezen om te kijken of deze UEFI compatible is.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ja dat zou heel goed kunnen. Het ziet er ook echt uit als een BIOS en niet als een UEFI.nero355 schreef op maandag 2 januari 2023 @ 15:06:
[...]
Volgens mij was de G8 serie nog steeds een BIOS reeks en kwam de keuze tussen BIOS of UEFI pas vanaf de G9 serie erbij
Maar daardoor is de ROM niet leesbaar? Kan ik begrijpen. Heeft dat ook invloed op passtrough?
Daar gok ik inderdaad opmaxxie85 schreef op maandag 2 januari 2023 @ 15:23:
Maar daardoor is de ROM niet leesbaar? Kan ik begrijpen.
Als het goed is alleen op het gebruik van NVMe SSD's want je hebt UEFI nodig om daarvan te booten!Heeft dat ook invloed op passtrough?
Wat ik je wel als TIP mee kan geven :
- Pak een .rpm based Linux distro Live Boot vanaf een USB Stick.
Dus iets van CentOS of Fedora bijvoorbeeld.
- Struin de HPE website af voor alle mogelijke bruikbare updates die je kan vinden voor je DL350 G8 en de hardware die erin zit om eventuele firmware problemen omtrent VT-D voor te zijn!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Hebben jullie een tip waar naar te kijken?.
/f/image/vXoEzcaVxlkh12JhC13pfAKk.png?f=fotoalbum_large)
1
2
3
4
| :~# pvesm status Name Type Status Total Used Available % local dir active 15117272 3267104 11060460 21.61% local-lvm lvmthin active 29360128 28059474 1300653 95.57% |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
| ~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 59.6G 0 disk ├─sda1 8:1 0 1007K 0 part ├─sda2 8:2 0 512M 0 part /boot/efi └─sda3 8:3 0 59.1G 0 part ├─pve-swap 253:0 0 7G 0 lvm [SWAP] ├─pve-root 253:1 0 14.8G 0 lvm / ├─pve-data_tmeta 253:2 0 1G 0 lvm │ └─pve-data-tpool 253:4 0 28G 0 lvm │ ├─pve-data 253:5 0 28G 1 lvm │ ├─pve-vm--100--disk--0 253:6 0 4M 0 lvm │ ├─pve-vm--100--disk--1 253:7 0 36G 0 lvm │ └─pve-vm--101--disk--0 253:8 0 1G 0 lvm └─pve-data_tdata 253:3 0 28G 0 lvm └─pve-data-tpool 253:4 0 28G 0 lvm ├─pve-data 253:5 0 28G 1 lvm ├─pve-vm--100--disk--0 253:6 0 4M 0 lvm ├─pve-vm--100--disk--1 253:7 0 36G 0 lvm └─pve-vm--101--disk--0 253:8 0 1G 0 lvm |
[ Voor 7% gewijzigd door Oesie op 07-01-2023 13:25 ]
Heb je misschien een VM of container die data genereert en opslaat?
Jazeker, een VM met HAOS / Home Assistant.TigerMooD schreef op zaterdag 7 januari 2023 @ 15:32:
Dit heb ik zelf een keer gehad omdat ik een pfsense machine met logging aan had staan en een iets te hoge maximum diskspace (overprovisioned), die liep langzaam te storage vol te gooien.
Heb je misschien een VM of container die data genereert en opslaat?
Ik dacht ook dat daar de fout zat in eerste instantie. Heb toen de disk in PVE van 32 GB naar 36 GB vergroot (achteraf was dat niet het probleem, deze vergroting werd niet doorgevoerd voordat ik een andere VM had verwijderd). In PVE GUI geeft die nu echter niet het gebruik aan.
Via de CLI zie ik onderstaande. Lijkt me dus dat er nog genoeg ruimte is of zie ik iets over het hoofd?
1
2
3
4
5
6
7
8
9
10
| root@pve:~# lvs LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert data pve twi-aotz-- 28.00g 96.03 2.54 root pve -wi-ao---- 14.75g snap_vm-100-disk-0_Snapshot1 pve Vri---tz-k 4.00m data vm-100-disk-0 snap_vm-100-disk-1_Snapshot1 pve Vri---tz-k 36.00g data vm-100-disk-1 swap pve -wi-ao---- 7.00g vm-100-disk-0 pve Vwi-aotz-- 4.00m data 0.00 vm-100-disk-1 pve Vwi-aotz-- 36.00g data 71.65 vm-101-disk-0 pve Vwi-aotz-- 1.00g data 96.51 |
Misschien dat ik je vraag verkeerd begrijp, maar wat heeft dit met Proxmox te maken? De software binnen in je VM is hem toch de disk aan het volgooien?Oesie schreef op zaterdag 7 januari 2023 @ 13:19:
Van de week werkte één naar van mijn VM's niet meer. Met hulp van Google ben ik erachter gekomen dat de data folder vol was gelopen. Echter is me niet helemaal duidelijk waardoor. Ik heb één van mijn ongebruikte VM's verwijderd waardoor de andere weer kon booten. Echter is de gebruikte space bijna 100%. Dus ben bang dat ik straks weer tegen het probleem aan loop. Echter heb ik dan niet meer de mogelijkheid om een VM te verwijderen.
Hebben jullie een tip waar naar te kijken?.
[Afbeelding]
code:
1 2 3 4 :~# pvesm status Name Type Status Total Used Available % local dir active 15117272 3267104 11060460 21.61% local-lvm lvmthin active 29360128 28059474 1300653 95.57%
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 ~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 59.6G 0 disk ├─sda1 8:1 0 1007K 0 part ├─sda2 8:2 0 512M 0 part /boot/efi └─sda3 8:3 0 59.1G 0 part ├─pve-swap 253:0 0 7G 0 lvm [SWAP] ├─pve-root 253:1 0 14.8G 0 lvm / ├─pve-data_tmeta 253:2 0 1G 0 lvm │ └─pve-data-tpool 253:4 0 28G 0 lvm │ ├─pve-data 253:5 0 28G 1 lvm │ ├─pve-vm--100--disk--0 253:6 0 4M 0 lvm │ ├─pve-vm--100--disk--1 253:7 0 36G 0 lvm │ └─pve-vm--101--disk--0 253:8 0 1G 0 lvm └─pve-data_tdata 253:3 0 28G 0 lvm └─pve-data-tpool 253:4 0 28G 0 lvm ├─pve-data 253:5 0 28G 1 lvm ├─pve-vm--100--disk--0 253:6 0 4M 0 lvm ├─pve-vm--100--disk--1 253:7 0 36G 0 lvm └─pve-vm--101--disk--0 253:8 0 1G 0 lvm
Op vm-100-disk-1 is er inderdaad nog vrije ruimte, maar pve-data-tpool is vol, dus vm-100-disk-1 kan geen ruimte uit de pool meer pakken om daadwerkelijk naar te kunnen schrijven. Hoewel een constructie met een virtuele schijf groter dan de pool wel mag, zou ik dat ten zeerste afraden, want je weet vooraf al dat de beschikbare ruimte eerder op is dan de virtuele schijf vol is.Oesie schreef op zaterdag 7 januari 2023 @ 15:43:
[...]
Jazeker, een VM met HAOS / Home Assistant.
Ik dacht ook dat daar de fout zat in eerste instantie. Heb toen de disk in PVE van 32 GB naar 36 GB vergroot (achteraf was dat niet het probleem, deze vergroting werd niet doorgevoerd voordat ik een andere VM had verwijderd). In PVE GUI geeft die nu echter niet het gebruik aan.
Via de CLI zie ik onderstaande. Lijkt me dus dat er nog genoeg ruimte is of zie ik iets over het hoofd?
code:
1 2 3 4 5 6 7 8 9 10 root@pve:~# lvs LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert data pve twi-aotz-- 28.00g 96.03 2.54 root pve -wi-ao---- 14.75g snap_vm-100-disk-0_Snapshot1 pve Vri---tz-k 4.00m data vm-100-disk-0 snap_vm-100-disk-1_Snapshot1 pve Vri---tz-k 36.00g data vm-100-disk-1 swap pve -wi-ao---- 7.00g vm-100-disk-0 pve Vwi-aotz-- 4.00m data 0.00 vm-100-disk-1 pve Vwi-aotz-- 36.00g data 71.65 vm-101-disk-0 pve Vwi-aotz-- 1.00g data 96.51
Dan nu de vraag hoe dit op te lossen valt. Als de VM minder ruimte in gebruik heeft dan dat LVM nu aangeeft, zou dat er op kunnen wijzen dat TRIM/DISCARD niet werkt. LVM-thin vertoont SSD-achtig gedrag, waardoor je op Proxmox bij de virtuele schijf moet aangeven dat het een SSD is met TRIM/DISCARD-ondersteuning, en de VM moet ook TRIM/DISCARD toepassen op de schijf om vrije ruimte weer terug te geven. Mijn eerste hit op Google was per ongeluk meteen raak met een artikeltje dat wat daarover uitlegt: https://gist.github.com/h...1e50cc0666f1745e1897c0a56
Nu zag ik dit voorbij komen https://github.com/DerDanilo/proxmox-stuff
Heeft iemand ervaring hiermee of zelf een goede strategie om in geval van hardware issues snel weer online te zijn? Of moet ik aan een cluster toegeven..
Ik heb een OpenWRT router als cold backup apparaat met ongeveer dezelfde config als mijn opnsense router.tomdh76 schreef op zaterdag 7 januari 2023 @ 17:58:
Mijn hele huisnetwerk heb ik ondertussen op een server met proxmox inclusief ook OPNsense router. Nu maak ik me een beetje zorgen als die server hardware matig kapot gaat en ik dan eigenlijk zo snel mogelijk weer alles up and running wil hebben. Ik maak backups van de VM's dus dat is geen probleem maar meer de algehele configuratie van proxmox.
Nu zag ik dit voorbij komen https://github.com/DerDanilo/proxmox-stuff
Heeft iemand ervaring hiermee of zelf een goede strategie om in geval van hardware issues snel weer online te zijn? Of moet ik aan een cluster toegeven..
- Deze advertentie is geblokkeerd door Pi-Hole -
Ik heb een 3 node cluster draaien met ceph en high availability. Werkt wel mooi. Niet meer afhankelijk van een fail van een node. De derde node is trouwens een hele eenvoudige ryzen 3 mini pc. Die is eigenlijk alleen bedoeld voor de benodigde votes. De andere beide nodes hebben wat meer vermogen voor diverse VMs.tomdh76 schreef op zaterdag 7 januari 2023 @ 17:58:
Mijn hele huisnetwerk heb ik ondertussen op een server met proxmox inclusief ook OPNsense router. Nu maak ik me een beetje zorgen als die server hardware matig kapot gaat en ik dan eigenlijk zo snel mogelijk weer alles up and running wil hebben. Ik maak backups van de VM's dus dat is geen probleem maar meer de algehele configuratie van proxmox.
Nu zag ik dit voorbij komen https://github.com/DerDanilo/proxmox-stuff
Heeft iemand ervaring hiermee of zelf een goede strategie om in geval van hardware issues snel weer online te zijn? Of moet ik aan een cluster toegeven..
volgens mij probeer je 37GB weg te schrijven op een echte disk van 30GB. Zolang je vm onder die 30GB blijft gaat het goed, maar als je eroverheen gaat (in je vm) dan is je pool vol.Oesie schreef op zaterdag 7 januari 2023 @ 13:19:
Van de week werkte één naar van mijn VM's niet meer. Met hulp van Google ben ik erachter gekomen dat de data folder vol was gelopen. Echter is me niet helemaal duidelijk waardoor. Ik heb één van mijn ongebruikte VM's verwijderd waardoor de andere weer kon booten. Echter is de gebruikte space bijna 100%. Dus ben bang dat ik straks weer tegen het probleem aan loop. Echter heb ik dan niet meer de mogelijkheid om een VM te verwijderen.
Hebben jullie een tip waar naar te kijken?.
[Afbeelding]
code:
1 2 3 4 :~# pvesm status Name Type Status Total Used Available % local dir active 15117272 3267104 11060460 21.61% local-lvm lvmthin active 29360128 28059474 1300653 95.57%
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 ~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 59.6G 0 disk ├─sda1 8:1 0 1007K 0 part ├─sda2 8:2 0 512M 0 part /boot/efi └─sda3 8:3 0 59.1G 0 part ├─pve-swap 253:0 0 7G 0 lvm [SWAP] ├─pve-root 253:1 0 14.8G 0 lvm / ├─pve-data_tmeta 253:2 0 1G 0 lvm │ └─pve-data-tpool 253:4 0 28G 0 lvm │ ├─pve-data 253:5 0 28G 1 lvm │ ├─pve-vm--100--disk--0 253:6 0 4M 0 lvm │ ├─pve-vm--100--disk--1 253:7 0 36G 0 lvm │ └─pve-vm--101--disk--0 253:8 0 1G 0 lvm └─pve-data_tdata 253:3 0 28G 0 lvm └─pve-data-tpool 253:4 0 28G 0 lvm ├─pve-data 253:5 0 28G 1 lvm ├─pve-vm--100--disk--0 253:6 0 4M 0 lvm ├─pve-vm--100--disk--1 253:7 0 36G 0 lvm └─pve-vm--101--disk--0 253:8 0 1G 0 lvm
Heb je nog snapshots open staan, dan zou die als eerste verwijderen. Als dat geen ruimte oplevert kan je eigenlijk alleen storage erbij zetten, en je vm daarheen moven.
Begrijp je zorg en denk er van tijd tot tijd ook over na maar in de (financiële) afweging accepteer ik dat als er iets mis gaat, dat het er dan maar even uit ligt en bestel wat er nodig is. Een cluster is absoluut leuk en interessant maar ik heb wat VM's met hardware passthrough en dan is het alweer wat lastiger. Daarnaast dubbele hardware afschrijving en stroomkosten.tomdh76 schreef op zaterdag 7 januari 2023 @ 17:58:
Mijn hele huisnetwerk heb ik ondertussen op een server met proxmox inclusief ook OPNsense router. Nu maak ik me een beetje zorgen als die server hardware matig kapot gaat en ik dan eigenlijk zo snel mogelijk weer alles up and running wil hebben. Ik maak backups van de VM's dus dat is geen probleem maar meer de algehele configuratie van proxmox.
Nu zag ik dit voorbij komen https://github.com/DerDanilo/proxmox-stuff
Heeft iemand ervaring hiermee of zelf een goede strategie om in geval van hardware issues snel weer online te zijn? Of moet ik aan een cluster toegeven..
In mijn persoonlijke ervaring heb ik vooral, of misschien wel alleen, hdd's en voedingen stuk zien gaan. Ik heb daarom vorig jaar een reserve voeding op de plank gelegd, ook vanwege de afwijkende form factor.
Bij een volledig nieuwe installatie kan ik mijn VM's en containers redelijk snel restoren. Natuurlijk wat ongemakken met het instellen van bridges en vlan's maar dat kun je ook documenteren. Oh, en geen DHCP server beschikbaar want OPNsense draait niet, dus die NAS met backups zonder fixed IP is niet bereikbaar, maar daar kom je ook wel weer uit. Wellicht wat nuttige info halen uit configs die zijn gebackupt uit een script zoals je die aanhaalt. Ik zou niet kunnen beoordelen of zo'n script volledig is en blijft bij toekomstige PM versies; zou het restore script niet gebruiken.
Én ik heb geen SLA met mijn vrouw vastgelegd.
WP: Kronoterm Versi-I | ESS: Victron MP-II 3f 5000VA + 65kWh Pylontech US5000 | PV: 8.3kWp Trina glas/glas + Fronius Symo 8.2-3-M + Victron MPPT 250/60
Denk dat je het jezelf niet zo moeilijk moet maken. Zorg voor goede backup middels nas (met vast ip) of zelfs een usb disk, zodat je die snel kan mounten en herstel kan inzetten zodra de andere hardware beschikbaar is.tomdh76 schreef op zaterdag 7 januari 2023 @ 17:58:
Mijn hele huisnetwerk heb ik ondertussen op een server met proxmox inclusief ook OPNsense router. Nu maak ik me een beetje zorgen als die server hardware matig kapot gaat en ik dan eigenlijk zo snel mogelijk weer alles up and running wil hebben. Ik maak backups van de VM's dus dat is geen probleem maar meer de algehele configuratie van proxmox.
Nu zag ik dit voorbij komen https://github.com/DerDanilo/proxmox-stuff
Heeft iemand ervaring hiermee of zelf een goede strategie om in geval van hardware issues snel weer online te zijn? Of moet ik aan een cluster toegeven..
Hiermee heb ik het idee dat het probleem niet binnen de VM zit. Dat lijkt HAOS ook te bevestigen want die geeft aan dat er 27% gebruikt is van de beschikbare ruimte (nog 24 GB vrij).
Dus ik moet sowieso op zoek wat de groei binnen de PVE data folder veroorzaakt (en nu ook niet lijkt in te zakken met het verwijderen van één machine in PVE en de backups binnen de HAOS VM). En weet eerlijk gezegd niet zo goed waar ik moet beginnen. Heb nu namelijk nog maar twee VM's. Een met HAOS welke ik dus eigenlijk uit sluit en de andere een Adguard Home container met nog geen 1GB aan disk size.
Bovenstaande gaat dus puur over het de datagroei welke ik niet kan verklaren maar wellicht op dit moment wat minder relevant. Ik wil voorkomen dat ik morgen weer het probleem heb en dan echt niks meer kan verwijderen (kon vanmorgen nog één snapshot) weg doen.
Dan hebben jullie nog gewezen op de toewijzing van disk space. Daar lijkt inderdaad wat verkeerd te gaan. En dat zal vast door mijn onervarenheid zijn. Had uberhaupt niet gedacht dat je via de standaard stappen meer kon toewijzen dat er is. Maar als ik het goed begrijp moet hier wel de oplossing van het probleem liggen dat de VM vast loopt.
Hieronder wat meer gegevens van de node. Het betreft een SSD van 64 GB.
Uit de gegevens hieronder maak ik op dat ik de 'pve_data' folder moet vergroten. Klopt dat? Zo ja, waar en hoe zou ik dat moeten aanpakken?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
| root@pve:~# pvs PV VG Fmt Attr PSize PFree /dev/sda3 pve lvm2 a-- 59.12g 7.37g root@pve:~# vgs VG #PV #LV #SN Attr VSize VFree pve 1 6 0 wz--n- 59.12g 7.37g root@pve:~# lvs LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert data pve twi-aotz-- 28.00g 96.00 2.50 root pve -wi-ao---- 14.75g swap pve -wi-ao---- 7.00g vm-100-disk-0 pve Vwi-aotz-- 4.00m data 0.00 vm-100-disk-1 pve Vwi-aotz-- 36.00g data 71.99 vm-101-disk-0 pve Vwi-aotz-- 1.00g data 96.51 root@pve:~# pvesm status Name Type Status Total Used Available % local dir active 15117272 3268132 11059432 21.62% local-lvm lvmthin active 29360128 28185722 1174405 96.00% root@pve:~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 59.6G 0 disk ├─sda1 8:1 0 1007K 0 part ├─sda2 8:2 0 512M 0 part /boot/efi └─sda3 8:3 0 59.1G 0 part ├─pve-swap 253:0 0 7G 0 lvm [SWAP] ├─pve-root 253:1 0 14.8G 0 lvm / ├─pve-data_tmeta 253:2 0 1G 0 lvm │ └─pve-data-tpool 253:4 0 28G 0 lvm │ ├─pve-data 253:5 0 28G 1 lvm │ ├─pve-vm--100--disk--0 253:6 0 4M 0 lvm │ ├─pve-vm--100--disk--1 253:7 0 36G 0 lvm │ └─pve-vm--101--disk--0 253:8 0 1G 0 lvm └─pve-data_tdata 253:3 0 28G 0 lvm └─pve-data-tpool 253:4 0 28G 0 lvm ├─pve-data 253:5 0 28G 1 lvm ├─pve-vm--100--disk--0 253:6 0 4M 0 lvm ├─pve-vm--100--disk--1 253:7 0 36G 0 lvm └─pve-vm--101--disk--0 253:8 0 1G 0 lvm |
Dat dacht ik in eerste instantie ook. Al hoewel ik dat niet voor mezelf kon verklaren omdat daar geen grote files worden opgeslagen. Zie ook hierboven.orvintax schreef op zaterdag 7 januari 2023 @ 16:41:
[...]
Misschien dat ik je vraag verkeerd begrijp, maar wat heeft dit met Proxmox te maken? De software binnen in je VM is hem toch de disk aan het volgooien?
Dank, is met de extra info je tip nog de route denk je?dcm360 schreef op zaterdag 7 januari 2023 @ 16:51:
[...]
Op vm-100-disk-1 is er inderdaad nog vrije ruimte, maar pve-data-tpool is vol, dus vm-100-disk-1 kan geen ruimte uit de pool meer pakken om daadwerkelijk naar te kunnen schrijven. Hoewel een constructie met een virtuele schijf groter dan de pool wel mag, zou ik dat ten zeerste afraden, want je weet vooraf al dat de beschikbare ruimte eerder op is dan de virtuele schijf vol is.
Dan nu de vraag hoe dit op te lossen valt. Als de VM minder ruimte in gebruik heeft dan dat LVM nu aangeeft, zou dat er op kunnen wijzen dat TRIM/DISCARD niet werkt. LVM-thin vertoont SSD-achtig gedrag, waardoor je op Proxmox bij de virtuele schijf moet aangeven dat het een SSD is met TRIM/DISCARD-ondersteuning, en de VM moet ook TRIM/DISCARD toepassen op de schijf om vrije ruimte weer terug te geven. Mijn eerste hit op Google was per ongeluk meteen raak met een artikeltje dat wat daarover uitlegt: https://gist.github.com/h...1e50cc0666f1745e1897c0a56
Echte disk is dus 64GB.rachez schreef op zaterdag 7 januari 2023 @ 19:10:
[...]
volgens mij probeer je 37GB weg te schrijven op een echte disk van 30GB. Zolang je vm onder die 30GB blijft gaat het goed, maar als je eroverheen gaat (in je vm) dan is je pool vol.
Heb je nog snapshots open staan, dan zou die als eerste verwijderen. Als dat geen ruimte oplevert kan je eigenlijk alleen storage erbij zetten, en je vm daarheen moven.
HAOS geeft aan dat er nog 24 GB ruimte vrij is dus ook opmerkelijk.
Straks sowieso maar even kijken hoe ik een copy kan maken voordat alles vast loopt en ik verder van huis ben.
Heb je ook al naar de database gekeken? Wellicht bewaar je de data erg lang en is je database volgelopen.
De echte disk is dan wel 64GB, maar je hebt een 'partitie' van 30GB waarin alle data moet passen.Oesie schreef op zondag 8 januari 2023 @ 11:03:
[...]
Dank, is met de extra info je tip nog de route denk je?
[...]
Echte disk is dus 64GB.
HAOS geeft aan dat er nog 24 GB ruimte vrij is dus ook opmerkelijk.
Straks sowieso maar even kijken hoe ik een copy kan maken voordat alles vast loopt en ik verder van huis ben.
Met de extra informatie die je nu geeft is voor mij wel duidelijk dat de oplossing die ik gaf gaat werken: je moet er voor zorgen dat de VM door middel van TRIM aan de host doorgeeft dat vrijgemaakte ruimte ook weer beschikbaar is.
Klopt, zijn data partitie is maar 30GB.dcm360 schreef op zondag 8 januari 2023 @ 12:57:
[...]
De echte disk is dan wel 64GB, maar je hebt een 'partitie' van 30GB waarin alle data moet passen.
Met de extra informatie die je nu geeft is voor mij wel duidelijk dat de oplossing die ik gaf gaat werken: je moet er voor zorgen dat de VM door middel van TRIM aan de host doorgeeft dat vrijgemaakte ruimte ook weer beschikbaar is.
Maar als hij doet wat jij voorstelt dan moet je wel ook de VM disk verkleinen naar iets kleiner dan 30GB. Die lijkt nu 36GB te zijn, tenminste als dit de 'probleem vm' is:
1
| vm-100-disk-1 pve Vwi-aotz-- 36.00g data |
Anders ben je over een paar maanden weer terug bij af.
Dat zou TRIM dus moeten oplossen wat dcm360 aangaf.Oesie schreef op zondag 8 januari 2023 @ 11:03:
Hiermee heb ik het idee dat het probleem niet binnen de VM zit. Dat lijkt HAOS ook te bevestigen want die geeft aan dat er 27% gebruikt is van de beschikbare ruimte (nog 24 GB vrij).
backup naar een nas is sowieso een goed plan. Je kan gewoon een share mounten in de de proxmox ui en daarnaartoe een backup maken.Straks sowieso maar even kijken hoe ik een copy kan maken voordat alles vast loopt en ik verder van huis ben.
Bestaande pve-data pool vergroten kan wel, ik heb het alleen nooit gedaan op debian.
Persoonlijk zou ik een 500GB disk erbij zetten, die mounten als nieuwe storage dedicated voor je vms en daar je bestaande vms naar toe moven: server view > vm selecteren > hardware > harddisk selecteren > disk action > move storage.
Heb de standaard waardes van HAOS in gebruik. Database is nu 500 MB.bes-r schreef op zondag 8 januari 2023 @ 11:09:
[...]
Heb je ook al naar de database gekeken? Wellicht bewaar je de data erg lang en is je database volgelopen.
Muchos gracias, heb zojuist backups gedraaid naar mijn NAS.rachez schreef op zondag 8 januari 2023 @ 16:25:
[...]
Dat zou TRIM dus moeten oplossen wat dcm360 aangaf.
[...]
backup naar een nas is sowieso een goed plan. Je kan gewoon een share mounten in de de proxmox ui en daarnaartoe een backup maken.
Bestaande pve-data pool vergroten kan wel, ik heb het alleen nooit gedaan op debian.
Persoonlijk zou ik een 500GB disk erbij zetten, die mounten als nieuwe storage dedicated voor je vms en daar je bestaande vms naar toe moven: server view > vm selecteren > hardware > harddisk selecteren > disk action > move storage.
Morgen naar de rest kijken.
[ Voor 17% gewijzigd door Oesie op 08-01-2023 22:21 ]
Onlangs moeten verklaren waarom ik 16 GB van de 32 GB in gebruik heb op een systeem waar hooguit 8 GB in gebruik zou moeten zijn en du was mijn beste vriend om daar achter te komen :Oesie schreef op zondag 8 januari 2023 @ 11:03:
Dus ik moet sowieso op zoek wat de groei binnen de PVE data folder veroorzaakt (en nu ook niet lijkt in te zakken met het verwijderen van één machine in PVE en de backups binnen de HAOS VM). En weet eerlijk gezegd niet zo goed waar ik moet beginnen.
1
2
3
4
5
6
| du -h --threshold=1G | more du -h --threshold=100M | more du -h --threshold=10M | more du -h --threshold=1M | more du -h --threshold=100kB | more du -h --threshold=1kB | more |
enz.
Handmatig T.R.I.M. activeren kan trouwens met
# fstrim -a
Succes alvast!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
- Dell Optiplex 1x 500GB HDD met Proxmox 7.3.3 in een cluster (op deze is cluster gemaakt)
- HP PRoDesk 800 Mini 1x 128GB SSD met Proxmox 7.3.3 die vandaag hetzelfde cluster gejoind heeft.
Nu DENK ik, dat mijn 500GB HDD wat op leeftijd raakt.. (nog geen alarmbellen, maar die wil ik graag voor zijn aangezien momenteel mijn smarthome, DNS/Pi-hole en Traefik hierop draaien.
1 host met 1 disk kun je wat van vinden, daarom nu ook een cluster.. maar is het volgende scenario een optie?
ik koop 2x een XGB SSD (250 minimaal) en doe dan het volgende:
- Migreer de 2 containers en 1 VM naar mn Prodesk
- Optiplex uitzetten, schijf vervangen, proxmox opnieuw installeren, cluster joinen;
- Migreer alle spul weer terug naar de Prodesk;
- Zet de Prodesk uit, vervang de schijf, installeer proxmox opnieuw, join cluster weer
Kan zoiets of is dat een probleem omdat de Optiplex de 'eigenaar/maker' van het cluster is?
Geen antwoord op de vraag, maar is een 2 node cluster niet vragen om problemen v.w.b. "split brain"? Als de ene node "A" zegt en de andere node "B", wat moet dan gedaan worden? Je hebt dan een derde node nodig die dus ook A of B zegt zodat er ook een "winnaar" is.Koepert schreef op donderdag 12 januari 2023 @ 11:08:
Hoi, beetje een bijzondere vraag wellicht.. maar ik heb het volgende:
- Dell Optiplex 1x 500GB HDD met Proxmox 7.3.3 in een cluster (op deze is cluster gemaakt)
- HP PRoDesk 800 Mini 1x 128GB SSD met Proxmox 7.3.3 die vandaag hetzelfde cluster gejoind heeft.
Nu DENK ik, dat mijn 500GB HDD wat op leeftijd raakt.. (nog geen alarmbellen, maar die wil ik graag voor zijn aangezien momenteel mijn smarthome, DNS/Pi-hole en Traefik hierop draaien.
1 host met 1 disk kun je wat van vinden, daarom nu ook een cluster.. maar is het volgende scenario een optie?
ik koop 2x een XGB SSD (250 minimaal) en doe dan het volgende:
- Migreer de 2 containers en 1 VM naar mn Prodesk
- Optiplex uitzetten, schijf vervangen, proxmox opnieuw installeren, cluster joinen;
- Migreer alle spul weer terug naar de Prodesk;
- Zet de Prodesk uit, vervang de schijf, installeer proxmox opnieuw, join cluster weer
Kan zoiets of is dat een probleem omdat de Optiplex de 'eigenaar/maker' van het cluster is?
Verder zou ik persoonlijk in het geval dat de nodes ZFS gebruiken via een ZFS mirror de disk erbij plaatsen. Dan hoef je überhaupt geen herinstallatie te doen. Alleen heb je dan het probleem dat je een "downgrade" doet van 500GB naar 250GB en dat gaat natuurlijk niet. En uiteraard moet je dan nu al ZFS gebruiken.
Op dit moment geen ZFS.. en wil liever niet alles opnieuw opbouwen.. ivm 'leunen van mijn huis' op de aanwezige containers/vms.
Dit is perfect mogelijk. Maak wel even een backup op een USB ofzo voor de zekerheid. Kijk verder inderdaad wel uit met een twee node cluster zoals aangeven door @RobertMeKoepert schreef op donderdag 12 januari 2023 @ 11:08:
Hoi, beetje een bijzondere vraag wellicht.. maar ik heb het volgende:
- Dell Optiplex 1x 500GB HDD met Proxmox 7.3.3 in een cluster (op deze is cluster gemaakt)
- HP PRoDesk 800 Mini 1x 128GB SSD met Proxmox 7.3.3 die vandaag hetzelfde cluster gejoind heeft.
Nu DENK ik, dat mijn 500GB HDD wat op leeftijd raakt.. (nog geen alarmbellen, maar die wil ik graag voor zijn aangezien momenteel mijn smarthome, DNS/Pi-hole en Traefik hierop draaien.
1 host met 1 disk kun je wat van vinden, daarom nu ook een cluster.. maar is het volgende scenario een optie?
ik koop 2x een XGB SSD (250 minimaal) en doe dan het volgende:
- Migreer de 2 containers en 1 VM naar mn Prodesk
- Optiplex uitzetten, schijf vervangen, proxmox opnieuw installeren, cluster joinen;
- Migreer alle spul weer terug naar de Prodesk;
- Zet de Prodesk uit, vervang de schijf, installeer proxmox opnieuw, join cluster weer
Kan zoiets of is dat een probleem omdat de Optiplex de 'eigenaar/maker' van het cluster is?
Good to know.. maar hoe moet ik dat zien dan? Dat split brain?orvintax schreef op donderdag 12 januari 2023 @ 15:06:
[...]
Dit is perfect mogelijk. Maak wel even een backup op een USB ofzo voor de zekerheid. Kijk verder inderdaad wel uit met een twee node cluster zoals aangeven door @RobertMe
In de basis wil ik dit vrij 'plat' gaan gebruiken: 1 host is namelijk ook nieuwer en sneller dan de andere (die t cluster gemaakt heeft is oudere 2 x Intel(R) Pentium(R) CPU G3250T, de andere 4 x Intel(R) Core(TM) i5-4590T ). Dus wilde ik dit cluster gaan gebruiken voor een 'soft migration' van oud naar nieuw en dan de 2e (oude) host als spare gaan gebruiken en wellicht wat spielerij..
Wat voor soort situatie krijg je dan te maken met een split brain?
Post eens de output van die disk :Koepert schreef op donderdag 12 januari 2023 @ 11:08:
- Dell Optiplex 1x 500GB HDD met Proxmox 7.3.3 in een cluster (op deze is cluster gemaakt)
- HP PRoDesk 800 Mini 1x 128GB SSD met Proxmox 7.3.3 die vandaag hetzelfde cluster gejoind heeft.
Nu DENK ik, dat mijn 500GB HDD wat op leeftijd raakt.. (nog geen alarmbellen, maar die wil ik graag voor zijn aangezien momenteel mijn smarthome, DNS/Pi-hole en Traefik hierop draaien.
smartctl -a /dev/sda
In een mooi
Verder zou je die HDD gewoon 1:1 kunnen DD-en naar een andere 500 GB HDD mocht je die toevallig hebben liggen als tussenstap en gelijk ook je backup!code:
1 CODE blok met QUOTE Tags eromheen, zodat we ons niet suf scrollen elke keer!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Code-tags ken iknero355 schreef op donderdag 12 januari 2023 @ 15:45:
[...]
Post eens de output van die disk :
smartctl -a /dev/sda
In een mooi
[...]
Verder zou je die HDD gewoon 1:1 kunnen DD-en naar een andere 500 GB HDD mocht je die toevallig hebben liggen als tussenstap en gelijk ook je backup!
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 smartctl 7.2 2020-12-30 r5155 [x86_64-linux-5.15.74-1-pve] (local build) Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org === START OF INFORMATION SECTION === Device Model: TOSHIBA MQ01ACF050 Serial Number: X5SEWRGQT LU WWN Device Id: 5 000039 694b069d9 Firmware Version: AV001D User Capacity: 500,107,862,016 bytes [500 GB] Sector Sizes: 512 bytes logical, 4096 bytes physical Rotation Rate: 7200 rpm Form Factor: 2.5 inches Device is: Not in smartctl database [for details use: -P showall] ATA Version is: ATA8-ACS (minor revision not indicated) SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s) Local Time is: Thu Jan 12 15:45:59 2023 CET SMART support is: Available - device has SMART capability. SMART support is: Enabled === START OF READ SMART DATA SECTION === SMART overall-health self-assessment test result: PASSED General SMART Values: Offline data collection status: (0x00) Offline data collection activity was never started. Auto Offline Data Collection: Disabled. Self-test execution status: ( 0) The previous self-test routine completed without error or no self-test has ever been run. Total time to complete Offline data collection: ( 120) seconds. Offline data collection capabilities: (0x5b) SMART execute Offline immediate. Auto Offline data collection on/off support. Suspend Offline collection upon new command. Offline surface scan supported. Self-test supported. No Conveyance Self-test supported. Selective Self-test supported. SMART capabilities: (0x0003) Saves SMART data before entering power-saving mode. Supports SMART auto save timer. Error logging capability: (0x01) Error logging supported. General Purpose Logging supported. Short self-test routine recommended polling time: ( 2) minutes. Extended self-test routine recommended polling time: ( 100) minutes. SCT capabilities: (0x003d) SCT Status supported. SCT Error Recovery Control supported. SCT Feature Control supported. SCT Data Table supported. SMART Attributes Data Structure revision number: 128 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000b 100 100 050 Pre-fail Always - 0 3 Spin_Up_Time 0x0027 100 100 001 Pre-fail Always - 1983 5 Reallocated_Sector_Ct 0x0033 100 100 050 Pre-fail Always - 0 9 Power_On_Hours 0x0032 052 052 000 Old_age Always - 19466 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 627 191 G-Sense_Error_Rate 0x0032 100 100 000 Old_age Always - 20 192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 38 193 Load_Cycle_Count 0x0032 092 092 000 Old_age Always - 89888 194 Temperature_Celsius 0x0022 100 100 000 Old_age Always - 55 (Min/Max 4/65) 199 UDMA_CRC_Error_Count 0x0032 100 100 000 Old_age Always - 773527027 200 Multi_Zone_Error_Rate 0x0032 100 100 000 Old_age Always - 1297043924 240 Head_Flying_Hours 0x0032 053 053 000 Old_age Always - 18822 241 Total_LBAs_Written 0x0032 100 100 000 Old_age Always - 39559358211 242 Total_LBAs_Read 0x0032 100 100 000 Old_age Always - 38915568883 254 Free_Fall_Sensor 0x0032 100 100 000 Old_age Always - 0 SMART Error Log Version: 1 No Errors Logged SMART Self-test log structure revision number 1 Num Test_Description Status Remaining LifeTime(hours) LBA_of_first_error # 1 Short offline Completed without error 00% 0 - SMART Selective self-test log data structure revision number 1 SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS 1 0 0 Not_testing 2 0 0 Not_testing 3 0 0 Not_testing 4 0 0 Not_testing 5 0 0 Not_testing Selective self-test flags (0x0): After scanning selected spans, do NOT read-scan remainder of disk. If Selective self-test is pending on power-up, resume after 0 minute delay.
Ziet eruit als :Koepert schreef op donderdag 12 januari 2023 @ 15:47:
code:
1 199 UDMA_CRC_Error_Count 0x0032 100 100 000 Old_age Always - 773527027
- Brakke kabel.
- Brakke SATA Poort.
- Brakke Controller/PCB van de HDD zelf.
Voor de rest zie ik zo gauw niks raars eigenlijk
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
ok, dus eerder brakke internals dan brakke disk.. misschien dus sowieso geen slecht idee deze uit te faseren..zodat ik m kan nakijken/delen vervangen.nero355 schreef op donderdag 12 januari 2023 @ 15:52:
[...]
Ziet eruit als :
- Brakke kabel.
- Brakke SATA Poort.
- Brakke Controller/PCB van de HDD zelf.
Voor de rest zie ik zo gauw niks raars eigenlijk
[ Voor 12% gewijzigd door Koepert op 12-01-2023 15:56 ]
Voor een migratie maakt het weinig uit. Het gaat hem vooral als je iets met HA en Ceph wilt gaan doen. Voornamelijk met Ceph kan het nog al destructief zijn aangezien je data corruption kan krijgen.Koepert schreef op donderdag 12 januari 2023 @ 15:29:
[...]
Good to know.. maar hoe moet ik dat zien dan? Dat split brain?
In de basis wil ik dit vrij 'plat' gaan gebruiken: 1 host is namelijk ook nieuwer en sneller dan de andere (die t cluster gemaakt heeft is oudere 2 x Intel(R) Pentium(R) CPU G3250T, de andere 4 x Intel(R) Core(TM) i5-4590T ). Dus wilde ik dit cluster gaan gebruiken voor een 'soft migration' van oud naar nieuw en dan de 2e (oude) host als spare gaan gebruiken en wellicht wat spielerij..
Wat voor soort situatie krijg je dan te maken met een split brain?
Quote van een pagina van 45drives:
They must establish a consensus about the data and the cluster map.
A quorum, which is the is reached by the nodes in a cluster each having a "vote" on what information is correct and only ever recording it when there is a majority consensus reached. It operates on several computer science principles.
Those principles are meant to guarantee data consistency by ensuring multiple different copies of data are never recorded. For example, there is only ever one consistent copy learned and for this to work it needs an odd number of nodes within the cluster to be able to vote each other down.
Dankje.. Ceph zal ik niet gaan gebruiken. HA was nog een twijfel-geval... maar geen must. Maar ik zal t in t achterhoofd houden.. K wilde alleen ook wat energie-besparing gaan doen en dan is n derde host geen besparingorvintax schreef op donderdag 12 januari 2023 @ 17:17:
[...]
Voor een migratie maakt het weinig uit. Het gaat hem vooral als je iets met HA en Ceph wilt gaan doen. Voornamelijk met Ceph kan het nog al destructief zijn aangezien je data corruption kan krijgen.
Quote van een pagina van 45drives:
[...]
[ Voor 10% gewijzigd door jbhc op 28-01-2023 22:09 ]
Weet niet of je een opnsense / pfsense draait, maar die kun je als ntp server gebruiken.jbhc schreef op zaterdag 28 januari 2023 @ 22:09:
Weet iemand of het mogelijk is om een NTP server te draaien op proxmox? Ik heb wat apparaten in mijn netwerk zitten die NTP nodig hebben en ik dacht even simpel een NTP servertje op te starten maar vooralsnog krijg ik dat niet aan de gang omdat de virtuele servers de tijd niet kunnen wijzigen.
Overigens draait pve op debian dus je kan gewoon de ntp server configureren.
jbhc schreef op zaterdag 28 januari 2023 @ 22:09:
Weet iemand of het mogelijk is om een NTP server te draaien op proxmox?
Ik heb wat apparaten in mijn netwerk zitten die NTP nodig hebben en ik dacht even simpel een NTP servertje op te starten maar vooralsnog krijg ik dat niet aan de gang omdat de virtuele servers de tijd niet kunnen wijzigen.
Volgens mij heeft hij een ander probleem, maar ik kan er maar niks duidelijks over vinden om de een of andere reden, want voor zover ik weet :powerboat schreef op zondag 29 januari 2023 @ 01:59:
Weet niet of je een opnsense / pfsense draait, maar die kun je als ntp server gebruiken.
Overigens draait pve op debian dus je kan gewoon de ntp server configureren.
- Sync je de tijd binnen een VM met de Host via een Agent zoals de QEMU Agent of VMWare Tools bij VMWare ESXi
- Heb ik nog ergens gelezen dat LXC Containers hun tijd gewoon syncen met de Host zonder extra gedoe en ik kan me voorstellen dat die ook geen rechten heeft om de tijd te syncen omdat die dan de host daarmee zou kunnen beïnvloeden ?!
- Een VM heeft natuurlijk die problemen niet en zou wel via NTP de tijd kunnen syncen, maar dat zou ik dus alleen gebruiken als er geen Agent gebruikt kan worden om wat voor reden dan ook!
Dus mijn vraag is eigenlijk : Wat mis ik hier in dit verhaal ??
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Waarschijnlijk dat de 'apparaten in het netwerk' niet draaien op de Proxmox host, maar losse apparaten zijn.nero355 schreef op zondag 29 januari 2023 @ 19:36:
[...]
Dus mijn vraag is eigenlijk : Wat mis ik hier in dit verhaal ??
Precies dat. Die apparaten zitten in een ander vlan. Ik dacht dus eenvoudig een servertje op te zetten als NTP server aangezien dat niet in het ubiquity unifi ecosysteem ingebakken zit maar dat blijkt makkelijker gezegt dan gedaan.dcm360 schreef op zondag 29 januari 2023 @ 20:40:
[...]
Waarschijnlijk dat de 'apparaten in het netwerk' niet draaien op de Proxmox host, maar losse apparaten zijn.
Ik wil graag dat de volgende commands automatisch worden geexecute nadat een VM is gestopt.
echo 1 > /sys/bus/pci/devices/0000\:04\:00.0/remove
echo 1 > /sys/bus/pci/devices/0000\:04\:00.1/remove
Nu probeerde ik het met een hookscript maar daar kom ik niet echt uit.
Is er wellicht een alternatief?
dcm360 schreef op zondag 29 januari 2023 @ 20:40:
Waarschijnlijk dat de 'apparaten in het netwerk' niet draaien op de Proxmox host, maar losse apparaten zijn.

Ubiquiti UniFi apparatuur synct hun tijd zelf door naar de globale of Debian NTP Servers te querien tijdens de boot dus daar hoef je het niet voor te doen!jbhc schreef op zondag 29 januari 2023 @ 21:28:
Precies dat. Die apparaten zitten in een ander vlan.
Ik dacht dus eenvoudig een servertje op te zetten als NTP server aangezien dat niet in het ubiquity unifi ecosysteem ingebakken zit maar dat blijkt makkelijker gezegt dan gedaan.
Of wil je een NTP Server op je CloudKey/UDR/UDM draaien voor andere apparatuur ?!
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Inderdaad. Ik heb een berg Shelly's in een apart VLAN die geen internet toegang hebben maar deze hebben een NTP server nodig om hun tijd te synchroniseren.nero355 schreef op maandag 30 januari 2023 @ 00:23:
[...]
Ik las zijn post dus echt totaal verkeerd zo te zien...
[...]
Ubiquiti UniFi apparatuur synct hun tijd zelf door naar de globale of Debian NTP Servers te querien tijdens de boot dus daar hoef je het niet voor te doen!
Of wil je een NTP Server op je CloudKey/UDR/UDM draaien voor andere apparatuur ?!
En natuurlijk, ik zou de Shelly's toegang kunnen geven tot de Proxmox NTP server (net zoals ze nu toegang hebben tot de google NTP server) maar dat is eigenlijk nou net niet mijn bedoeling
Kan je router geen NTP rol vervullen? xSense kan dat in hetzelfde vlan?jbhc schreef op maandag 30 januari 2023 @ 00:41:
[...]
Inderdaad. Ik heb een berg Shelly's in een apart VLAN die geen internet toegang hebben maar deze hebben een NTP server nodig om hun tijd te synchroniseren.
En natuurlijk, ik zou de Shelly's toegang kunnen geven tot de Proxmox NTP server (net zoals ze nu toegang hebben tot de google NTP server) maar dat is eigenlijk nou net niet mijn bedoeling
Als je filtert op portniveau is NTP openzetten naar je servers geen gekke gedachte. Grote bedrijven doen dat ook, zonder NTP heb je meer kans op crap binnen ICT. Dan een selectief geopende poort voor NTP met source en destination IP’s.
Maar als je dan toch besluit om het door te laten is NTP vanaf internet weer veiliger. Dan hoef je geen port te openen op je LAN (Proxmox).
[ Voor 8% gewijzigd door stormfly op 30-01-2023 07:53 ]
Zet een Raspberry Pi neer in dat VLAN die voor NTP Server speelt en klaar!jbhc schreef op maandag 30 januari 2023 @ 00:41:
Inderdaad. Ik heb een berg Shelly's in een apart VLAN die geen internet toegang hebben maar deze hebben een NTP server nodig om hun tijd te synchroniseren.
En natuurlijk, ik zou de Shelly's toegang kunnen geven tot de Proxmox NTP server (net zoals ze nu toegang hebben tot de google NTP server) maar dat is eigenlijk nou net niet mijn bedoeling
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Daar heb ik toch geen pc met Proxmox voor? In principe kan ik alles wat daarop draait ook op losse pi's gaan installeren en dat wil ik nou juist niet.nero355 schreef op maandag 30 januari 2023 @ 14:44:
[...]
Zet een Raspberry Pi neer in dat VLAN die voor NTP Server speelt en klaar!
@stormfly Helaas kan dat niet op unifi.
Gewoon naar het internet openzetten desnoods een bepaalde pool van cloudflare. En dan nooit meer aan denken.jbhc schreef op maandag 30 januari 2023 @ 16:51:
[...]
Daar heb ik toch geen pc met Proxmox voor? In principe kan ik alles wat daarop draait ook op losse pi's gaan installeren en dat wil ik nou juist niet.
@stormfly Helaas kan dat niet op unifi.
Wat is het probleem precies? Je kan op de ntp server in Proxmox ook hetzelfde vlan toevoegen als waar de shellies in draaien en daar specifiek alleen ntp toe staan. Hoef je de rest van de ntp server verder niet voor open te zetten.jbhc schreef op maandag 30 januari 2023 @ 16:51:
[...]
Daar heb ik toch geen pc met Proxmox voor? In principe kan ik alles wat daarop draait ook op losse pi's gaan installeren en dat wil ik nou juist niet.
@stormfly Helaas kan dat niet op unifi.
Een oud collega van mij zei: het meest ranzige qua security is een OS meerdere pootjes geven 🤭 (don’t shoot the messenger).synoniem schreef op maandag 30 januari 2023 @ 17:23:
[...]
Wat is het probleem precies? Je kan op de ntp server in Proxmox ook hetzelfde vlan toevoegen als waar de shellies in draaien en daar specifiek alleen ntp toe staan. Hoef je de rest van de ntp server verder niet voor open te zetten.
Het is zeker wel het snelst, echter als Proxmox compromised is; zitten “ze” met direct access op meerdere vlans en kunnen ze overal bij.
Internet blokkeren klinkt heel zwaar zeker voor een netwerk in 2023. Als je doordacht en selectief diensten van het internet je secure vlan binnenhaalt, is dat voor mij prima. Logs op de fw rules inschakelen. Je Shelly devices (handvol) in de source, cloudflare NTP als destination, port 123. Daar gaat echt geen attack over binnenkomen.
Bij pfsense zie je direct de laatste fw rule matches. Heb je wel eens overwogen dat een USG/UDM eigenlijk unmanageable secure is 😂 Een blackbox in je LAN. Met de matige logs en FW ruleset gui ben je in feite blind. Is dat mogelijk een deel van de oorzaak dat je zo huiverig bent voor internet access?
Tja als je het mij vraagt zet ik liever een ntp poort open naar cloudflare of andere ntp server voor een paar shellies. Maar ja als je dat niet wilt is het aantal mogelijkheden wel beperkt.stormfly schreef op maandag 30 januari 2023 @ 17:57:
[...]
Een oud collega van mij zei: het meest ranzige qua security is een OS meerdere pootjes geven 🤭 (don’t shoot the messenger).
Het is zeker wel het snelst, echter als Proxmox compromised is; zitten “ze” met direct access op meerdere vlans en kunnen ze overal bij.
{.............}
Exact, ik ben ook wel door de ideeënbus heensynoniem schreef op maandag 30 januari 2023 @ 18:07:
[...]
Tja als je het mij vraagt zet ik liever een ntp poort open naar cloudflare of andere ntp server voor een paar shellies. Maar ja als je dat niet wilt is het aantal mogelijkheden wel beperkt.

Kort gezegd, ik kon de download folder voor Sabnbzd niet aanpassen vanwege een rechten issue.
Van een andere tweaker (Thomas H in "[Ervaringen] CouchPotato, Sickbeard, Headphones e.a. deel 4") de volgende links en tips gekregen:
Kort gezegd zou het volgende in mijn LXC conf het min of meer verhelpen:
[code]
lxc.idmap: u 0 100000 1000
lxc.idmap: g 0 100000 1000
lxc.idmap: u 1000 1000 1
lxc.idmap: g 1000 1000 1
lxc.idmap: u 1001 101001 64535
lxc.idmap: g 1001 101001 64535[/code]
Na de links gevolgd te hebben en wat aanpassingen gemaakt te hebben ben ik alleen maar verder van huis met dead containers en andere apps die gewoon niet meer willen starten, want geen rechten meer op de config folder.
Het gaat voornamelijk om apps als Sonarr, Radarr, SABnzbd etc van linuxserver.
Ik kan zonder problemen mount points maken en die zag ik voorheen ook maar sinds ik met rechten aan het spelen ben is het 1 grote chaos geworden en ben ik eigenlijk in staat maar gewoon een privileged container te starten omdat dat minder gezeik geeft.
Eigenlijk is SABnzbd de enige die vervelend deed, Sonarr, Radarr etc hadden 0 issues met rechten.
Nu kan ik weer van scratch beginnen, nieuwe unprivileged LXC, Mijn docker-compose bestandjes er tegen aan gooien (config backup heb ik nog) en ik draai weer maar dan wel zonder een optie om uberhaupt iets met rechten te kunenn doen en Sabnzbd alsnog werkend te krijgen met andere folders.
Ik ben begonnen met deze link : https://gist.github.com/b...0d531148dfb4c2640e9ebfc56
Mount points had ik al dus het was voornamelik een groepje aanmaken ACL's maken (wat in eerste instantie goed leek te gaan), vervolgens nog wat zaken in de container zelf en sinds dien is het stuk.
Ik dacht doe de stappen opnieuw, vereenvoudig de mountpoints maar loop nu vast bij de ACL's, elke keer als ik dat doe krijg ik Operation not supported.
cmd: setfacl -Rm g:101000:rwx,d:g:101000:rwx /mnt/docker_data/
Kan dit niet eenvoudiger, is er niet ergens een complete guide hoe NFS shares te mounten en vooral het rechten stukje werkend te krijgen?
/edit:
De issues lijken zich vooralsnog op magische wijze verholpen te hebben

Ben wel helemaal opnieuw begonnen.

VM dan die alleen in dat VLAN kan communicerenjbhc schreef op maandag 30 januari 2023 @ 16:51:
Daar heb ik toch geen pc met Proxmox voor? In principe kan ik alles wat daarop draait ook op losse pi's gaan installeren en dat wil ik nou juist niet.
Overigens draaien de UniFi CloudKey en UDR/UDM modellen Alpine Linux onderhuids waarmee je het een en ander kan rommelen, maar de boel persistent maken kan een uitdaging zijn...
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Waarom niet?nero355 schreef op dinsdag 31 januari 2023 @ 00:19:
[...]
VM dan die alleen in dat VLAN kan communiceren
Tja, dat is eigenlijk een beetje mijn vraag aan joujbhc schreef op dinsdag 31 januari 2023 @ 03:43:
Waarom niet?
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Soms wil je dat enkel een machine naar binnen en/of buiten moet of kan communiceren.nero355 schreef op dinsdag 31 januari 2023 @ 14:59:
[...]
Tja, dat is eigenlijk een beetje mijn vraag aan jou
Zo doe ik dat bijv. bij klanten net een Zabbix proxy voor monitoring.
Dat snap ik ook wel, maar zoals je ziet begrijpen we @jbhc niet echt op het moment, want in principe heeft die een situatie waarin er meerdere wegen naar Rome zijn, maar waarom hij die niet heeft geprobeerd is nog een raadsel...powerboat schreef op dinsdag 31 januari 2023 @ 22:40:
Soms wil je dat enkel een machine naar binnen en/of buiten moet of kan communiceren.
Zo doe ik dat bijv. bij klanten net een Zabbix proxy voor monitoring.
Maar misschien denken wij te moeilijk... Kan ook!

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
- Is het de bedoeling dat eenmaal proxmox geinstalleerd is dat ik die altijd benader via de browser via een andere client? Of moet ik nog altijd een muis, toetsenbord en scherm gekoppeld hebben met mijn NUC?
- Ik heb de installatie gedaan zonder internet verbinding, dus ik heb een lokaal ip adres gekregen. Nu wil ik hem koppelen aan mijn wifi, maar hier loop ik tegen. Blijkbaar is het niet aangeraden om via wifi te gaan, maar om die te koppelen via ethernet? Klopt dit?
Proxmox heeft een webinterface welke je kan benaderen viaMakhouT schreef op woensdag 1 februari 2023 @ 10:15:
Ik ben volledig nieuw met Proxmox. Ik heb gisteren voor de eerste keer een installatie gedaan van Proxmox op mijn NUC. En ik zit eigenlijk al direct met vragen eigenlijk.
- Is het de bedoeling dat eenmaal proxmox geinstalleerd is dat ik die altijd benader via de browser via een andere client? Of moet ik nog altijd een muis, toetsenbord en scherm gekoppeld hebben met mijn NUC?
1
| https://JE_IP:8006 |
Een toetsenbord/muis/scherm heb je na de installatie niet meer nodig.
Met je wifi zou hij alsnog een intern IP krijgen ;-)- Ik heb de installatie gedaan zonder internet verbinding, dus ik heb een lokaal ip adres gekregen. Nu wil ik hem koppelen aan mijn wifi, maar hier loop ik tegen. Blijkbaar is het niet aangeraden om via wifi te gaan, maar om die te koppelen via ethernet? Klopt dit?
Maar ethernet zou ik wel aanraden aangezien dat stabieler is dan wifi en doorgaans hogere bandbreedte heeft.
Als je DHCP gebruikt kan je die het beste wel even in je router static maken, of je Proxmox node een statisch IP geven.
- Beide is mogelijk, maar via de browser is een stuk makkelijker en dus aangeraden.MakhouT schreef op woensdag 1 februari 2023 @ 10:15:
Ik ben volledig nieuw met Proxmox. Ik heb gisteren voor de eerste keer een installatie gedaan van Proxmox op mijn NUC. En ik zit eigenlijk al direct met vragen eigenlijk.
- Is het de bedoeling dat eenmaal proxmox geinstalleerd is dat ik die altijd benader via de browser via een andere client? Of moet ik nog altijd een muis, toetsenbord en scherm gekoppeld hebben met mijn NUC?
- Ik heb de installatie gedaan zonder internet verbinding, dus ik heb een lokaal ip adres gekregen. Nu wil ik hem koppelen aan mijn wifi, maar hier loop ik tegen. Blijkbaar is het niet aangeraden om via wifi te gaan, maar om die te koppelen via ethernet? Klopt dit?
- In princiepe is het altijd en met elk apparaat aangeraden om te verbinden via ethernet waar mogelijk