De check gaat vooral configuratiepunten af die eerst logisch en/of ondersteund waren, maar onlogisch en/of niet ondersteund worden met de upgraden. Hoe meer je zelf aanpast aan het OS, hoe meer kans je loopt dat een wijziging ook een raar effect introduceert met een upgrade, maar daarop testen wordt voor de ontwikkelaars van Proxmox lastig. Als ik zo spiek zal de wireguard-package waarschijnlijk aannemen dat de kernel van Debian gebruikt wordt, niet die van Proxmox.Sp33dFr34k schreef op zondag 21 april 2024 @ 16:49:
EDIT: gelukt, lag aan de DKMS versie van Wireguard. Die uninstalled, nog een keer de upgrade gedaan, toen liep alles door en nu boot ie ook met de juiste kernel. Raar dat de 7 naar 8 check dit niet opgevangen heeft, maar I guess dat het niet alles kan checken.
Daar zal wel aardig wat APT cache in zitten. Je kunt eens `apt autoremove && apt autoclean` draaien. Als je vooraf en achteraf even een `df -h` draait, weet je hoeveel het opgeschoten heeft.Sp33dFr34k schreef op zondag 21 april 2024 @ 16:49:
[...]
EDIT2: wat doen jullie om ruimte vrij te maken? Ik heb nog maar 12% vrij van mijn 60GB bootdisk. Er lijkt veel data in var (/var/cache en /var/log) en usr te zitten. Wat is het makkelijkste om op te ruimen naar jullie mening?
"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron
ah je had Wireguard geïnstalleerd op de host zelfSp33dFr34k schreef op zondag 21 april 2024 @ 16:49:
Maar eens de update van 7 naar 8 gedaan, van tevoren de repo's aangepast en de check gedaan volgens Proxmox instructies. Na een reboot van de node kwam ie niet meer up. Bij de kernel proxmox-kernel-6.5.13-5-pve-signed krijg ik kernel panic. Als ik doorboot met een oude kernel (5.15.149-1-pve) boot ie wel door... Enig idee hoe ik dit op kan lossen?
EDIT: gelukt, lag aan de DKMS versie van Wireguard. Die uninstalled, nog een keer de upgrade gedaan, toen liep alles door en nu boot ie ook met de juiste kernel. Raar dat de 7 naar 8 check dit niet opgevangen heeft, maar I guess dat het niet alles kan checken.
EDIT2: wat doen jullie om ruimte vrij te maken? Ik heb nog maar 12% vrij van mijn 60GB bootdisk. Er lijkt veel data in var (/var/cache en /var/log) en usr te zitten. Wat is het makkelijkste om op te ruimen naar jullie mening?
ik installeer dat soort kleine zaken gewoon lekker in een container, van de host blijf je gewoon af
[ Voor 5% gewijzigd door Zwelgje op 22-04-2024 06:23 ]
A wise man's life is based around fuck you
En Wireguard zit in de kernel, al heel war jaren en afaik toch ook in bullseye en wellicht ook al in buster. (Met DKMS) een module er voor installeren had dus al niet nodig hoeven te zijn AFAIK.Zwelgje schreef op maandag 22 april 2024 @ 06:22:
[...]
ah je had Wireguard geïnstalleerd op de host zelf
ik installeer dat soort kleine zaken gewoon lekker in een container, van de host blijf je gewoon af
Edit:
Alhoewel Proxmox natuurlijk een Ubuntu based kernel gebruikt met een wat aangepaste config. Dus wellicht dat WG uit stond? Maar dan installeren (met DKMS) lijkt me dan ook vragen om problemen. Wat dan dus ook fout is gegaan.
[ Voor 19% gewijzigd door RobertMe op 22-04-2024 06:41 ]
Ik gebruik LXC's, waardoor ik afhankelijk ben van mijn Proxmox kernel. Iets mistte daar voor Wireguard, vandaar dat ik dit toendertijd gedaan heb, na wat googlen. Achteraf geen goeie beslissing, maarja met beperkte kennis kom je maar tot een bepaald punt. Toen werkte het in ieder geval prima. Nu zit Wireguard idd gewoon in de kernel, dus sowieso niet meer nodig. Dat is wel het nadeel van LXC's gebruiken, de Proxmox kernel ligt wat achter. @Room42 dankje ik zal het eens proberen.Zwelgje schreef op maandag 22 april 2024 @ 06:22:
[...]
ah je had Wireguard geïnstalleerd op de host zelf
ik installeer dat soort kleine zaken gewoon lekker in een container, van de host blijf je gewoon af
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
De Proxmox kernel ligt AFAIK juist voor op Debian. Ze gebruiken een kernel van Ubuntu die nieuwer is dan van Debian. Het probleem in deze zal naar mijn idee eerder zijn geweest dat ze toentertijd besloten hebben Wireguard support uit te zetten (/niet mee te compileren).Sp33dFr34k schreef op maandag 22 april 2024 @ 11:12:
Dat is wel het nadeel van LXC's gebruiken, de Proxmox kernel ligt wat achter.
Proxmox volgt Ubuntu, je kan nu 6.8.4 gebruiken. Zit wel in test maar de huidige stable is 6.8.7 maar mijn ervaring is dat je zelden een super recente kernel nodig hebt tenzij je latest gen hw hebt.Sp33dFr34k schreef op maandag 22 april 2024 @ 11:12:
[...]
Ik gebruik LXC's, waardoor ik afhankelijk ben van mijn Proxmox kernel. Iets mistte daar voor Wireguard, vandaar dat ik dit toendertijd gedaan heb, na wat googlen. Achteraf geen goeie beslissing, maarja met beperkte kennis kom je maar tot een bepaald punt. Toen werkte het in ieder geval prima. Nu zit Wireguard idd gewoon in de kernel, dus sowieso niet meer nodig. Dat is wel het nadeel van LXC's gebruiken, de Proxmox kernel ligt wat achter. @Room42 dankje ik zal het eens proberen.
E.e.a. is hier uitgelegd: https://pve.proxmox.com/wiki/Proxmox_VE_Kernel
Ik kijk meestal hier wat meest recente is: https://git.proxmox.com/?p=pve-kernel.git;a=summary en hun forum is ook erg goed
Net even Ubuntu 24.04 in een LXC container geprobeerd op Promox.
Alleen "lxc-start -F -l DEBUG --logfile /tmp/105.log 105" geeft dit aan:
Weer simpel op te lossen door 24.04 toe te voegen "/usr/share/perl5/PVE/LXC/Setup/Ubuntu.pm" , wel opvallend dat dit niet door Proxmox - met 1 dag voor release van 24.04 - al is uitgeleverd.
Ik had hier al 2 keer eerder last van.
code:
1
2
3
4
| root@nuc:/var/log# pct start 105 run_buffer: 571 Script exited with status 255 lxc_init: 845 Failed to run lxc.hook.pre-start for container "105" __lxc_start: 2034 Failed to initialize container "105" |
Alleen "lxc-start -F -l DEBUG --logfile /tmp/105.log 105" geeft dit aan:
code:
1
| lxc-start 105 20240424120044.369 DEBUG utils - ../src/lxc/utils.c:run_buffer:560 - Script exec /usr/share/lxc/hooks/lxc-pve-prestart-hook 105 lxc pre-start produced output: unsupported Ubuntu version '24.04' |
Weer simpel op te lossen door 24.04 toe te voegen "/usr/share/perl5/PVE/LXC/Setup/Ubuntu.pm" , wel opvallend dat dit niet door Proxmox - met 1 dag voor release van 24.04 - al is uitgeleverd.
Ik had hier al 2 keer eerder last van.
Zojuist is Proxmox 8.2 uitgekomen, met als optionele kernel nu versie 6.8 (loopt dus echt nauwelijks nog achter). Misschien ook met support voor Ubuntu 24.04?
Wel mooi met de timing dat ik vanochtend net een nieuw cluster aan het bouwen was. Loop ik meteen weer achter
Wel mooi met de timing dat ik vanochtend net een nieuw cluster aan het bouwen was. Loop ik meteen weer achter
Nope, zit er nog niet in. 23.10 is de laatste hier: https://github.com/proxmo...VE/LXC/Setup/Ubuntu.pm#L4dcm360 schreef op woensdag 24 april 2024 @ 15:33:
Zojuist is Proxmox 8.2 uitgekomen, met als optionele kernel nu versie 6.8 (loopt dus echt nauwelijks nog achter). Misschien ook met support voor Ubuntu 24.04?
Wel mooi met de timing dat ik vanochtend net een nieuw cluster aan het bouwen was. Loop ik meteen weer achter
We hebben ook nog ff tot juni. Ubuntu pusht niet gelijk de 1ste stabiele versie.smesjz schreef op woensdag 24 april 2024 @ 15:49:
[...]
Nope, zit er nog niet in. 23.10 is de laatste hier: https://github.com/proxmo...VE/LXC/Setup/Ubuntu.pm#L4
Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8
Net geupdate, had wel dat de netwerk interface namen van de Intel X710 waren veranderd.dcm360 schreef op woensdag 24 april 2024 @ 15:33:
Zojuist is Proxmox 8.2 uitgekomen, met als optionele kernel nu versie 6.8 (loopt dus echt nauwelijks nog achter). Misschien ook met support voor Ubuntu 24.04?
Wel mooi met de timing dat ik vanochtend net een nieuw cluster aan het bouwen was. Loop ik meteen weer achter
Gelukkig heb ik een direct touwtje tussen mijn NAS en de server zitten en kon ik via de NAS in de server SSH'en om de interface configuratie te updaten.
Ik gebruik hiervoor IPMI. Vind ik persoonlijk prettiger.maxxie85 schreef op woensdag 24 april 2024 @ 18:20:
[...]
Net geupdate, had wel dat de netwerk interface namen van de Intel X710 waren veranderd.
Gelukkig heb ik een direct touwtje tussen mijn NAS en de server zitten en kon ik via de NAS in de server SSH'en om de interface configuratie te updaten.
Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8
Dat had ik ook op mijn vorige server. Nu heb ik een MS-01, heeft wel vPro maar dat heb ik niet geconfigureerd.John245 schreef op woensdag 24 april 2024 @ 18:23:
[...]
Ik gebruik hiervoor IPMI. Vind ik persoonlijk prettiger.
Ook maar even de update gedraaid thuis, en hetzelfde probleem met de X710 (staat nu np0/np1 achter de interface naam). Bij gebrek aan handige planning (ik had de overgebleven netwerkpoort even kunnen verbinden aan een switch) werd dat even een monitor en toetsenbord verslepen, maar het was wel makkelijk oplossen met het idee dat ik al wist waar ik naar zou moeten kijken.maxxie85 schreef op woensdag 24 april 2024 @ 18:20:
[...]
Net geupdate, had wel dat de netwerk interface namen van de Intel X710 waren veranderd.
Gelukkig heb ik een direct touwtje tussen mijn NAS en de server zitten en kon ik via de NAS in de server SSH'en om de interface configuratie te updaten.
Draadje op Proxmox forum over 6.8 laat zien dat er meerdere mensen al tegenaan liepen: https://forum.proxmox.com...144557/page-5#post-657263 en er is ook een oplossing voor (mac address matching).dcm360 schreef op vrijdag 26 april 2024 @ 15:57:
[...]
Ook maar even de update gedraaid thuis, en hetzelfde probleem met de X710 (staat nu np0/np1 achter de interface naam). Bij gebrek aan handige planning (ik had de overgebleven netwerkpoort even kunnen verbinden aan een switch) werd dat even een monitor en toetsenbord verslepen, maar het was wel makkelijk oplossen met het idee dat ik al wist waar ik naar zou moeten kijken.
Klopt staat ook in de releasenotes vermeld, dat maakte het moment voor de update even afhankelijk van hersteltijd ruimte in de werkagenda. Mijn NICs werden niet omgenummerd, binnen een paar minuten weer upmaxxie85 schreef op woensdag 24 april 2024 @ 18:20:
[...]
Net geupdate, had wel dat de netwerk interface namen van de Intel X710 waren veranderd.
Gelukkig heb ik een direct touwtje tussen mijn NAS en de server zitten en kon ik via de NAS in de server SSH'en om de interface configuratie te updaten.
Hoe doen jullie dat met kernelupdates? Draai je dit altijd dezelfde week, eens per maand, per jaar?
[ Voor 8% gewijzigd door stormfly op 26-04-2024 16:30 ]
Ik heb enterprise en draai deze indien beschikbaar.stormfly schreef op vrijdag 26 april 2024 @ 16:29:
[...]
Klopt staat ook in de releasenotes vermeld, dat maakte het moment voor de update even afhankelijk van hersteltijd ruimte in de werkagenda. Mijn NICs werden niet omgenummerd, binnen een paar minuten weer up
Hoe doen jullie dat met kernelupdates? Draai je dit altijd dezelfde week, eens per maand, per jaar?
Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8
Ondertussen staat het in de release notesstormfly schreef op vrijdag 26 april 2024 @ 16:29:
[...]
Klopt staat ook in de releasenotes vermeld, dat maakte het moment voor de update even afhankelijk van hersteltijd ruimte in de werkagenda. Mijn NICs werden niet omgenummerd, binnen een paar minuten weer up
Hoe doen jullie dat met kernelupdates? Draai je dit altijd dezelfde week, eens per maand, per jaar?
direct erop, ik check elke week naar updates en installeer alles gewoon. beetje risico moet je nemen in het leven en ach als het fout gaat krijg je weer een kans om iets te lerenstormfly schreef op vrijdag 26 april 2024 @ 16:29:
[...]
Klopt staat ook in de releasenotes vermeld, dat maakte het moment voor de update even afhankelijk van hersteltijd ruimte in de werkagenda. Mijn NICs werden niet omgenummerd, binnen een paar minuten weer up
Hoe doen jullie dat met kernelupdates? Draai je dit altijd dezelfde week, eens per maand, per jaar?
A wise man's life is based around fuck you
Ik heb een vraag over Proxmox en een Gpu
Voorheen altijd een pc draaien met windows erop wat smb shares
en plex / sickchill etc..
voor de specs zie
https://tweakers.net/gall...nventaris/?inv_id=1160681
Nu heb ik een GTX1050 die ik will gebruiken in zowel plex als voor frigate.
Ik begrijp dat je Vgpu dan moet aanzetten om hem te kunnen delen. (ben basic in linux)
Nu volg ik deze "guide" na dagen van alles geprobeerd te hebben.
om de gpu werkend te krijgen in Frigate.
https://gitlab.com/polloloco/vgpu-proxmox
Maar blijf ik steken op het gedeelte voor de drivers. (aangezien je met bedrijfsmail moet aanmelden voor de vgpu drivers 16.4 (535.161.05) voor de gtx1050 als ik het goed heb
Is er een andere manier om of weet iemand hoe? de GPU werkend te krijgen onder zowel frigate als plex?
heb de link op deze pagina gebruikt om de drivers binnen te halen
https://wvthoog.nl/proxmox-vgpu-v3/
Voorheen altijd een pc draaien met windows erop wat smb shares
en plex / sickchill etc..
voor de specs zie
https://tweakers.net/gall...nventaris/?inv_id=1160681
Nu heb ik een GTX1050 die ik will gebruiken in zowel plex als voor frigate.
Ik begrijp dat je Vgpu dan moet aanzetten om hem te kunnen delen. (ben basic in linux)
Nu volg ik deze "guide" na dagen van alles geprobeerd te hebben.
om de gpu werkend te krijgen in Frigate.
https://gitlab.com/polloloco/vgpu-proxmox
Maar blijf ik steken op het gedeelte voor de drivers. (aangezien je met bedrijfsmail moet aanmelden voor de vgpu drivers 16.4 (535.161.05) voor de gtx1050 als ik het goed heb
Is er een andere manier om of weet iemand hoe? de GPU werkend te krijgen onder zowel frigate als plex?
heb de link op deze pagina gebruikt om de drivers binnen te halen
https://wvthoog.nl/proxmox-vgpu-v3/
[ Voor 6% gewijzigd door eehbiertje op 28-04-2024 19:08 ]
Check dit: https://github.com/tteck/Proxmox/discussions/2850eehbiertje schreef op zondag 28 april 2024 @ 18:58:
Is er een andere manier om of weet iemand hoe? de GPU werkend te krijgen onder zowel frigate als plex?[/s]
En hier staan de scripts: https://tteck.github.io/Proxmox/
@mekonghigh
bedankt de scripts had ik al.
Volgens mij ben ik hier de afgelopen dagen mee bezig geweest.
Bij de plex LXC kreeg ik continu een foutmelding (en wou deze niet starten)
volgens mij een Render128 fout dat de kaart niet aanwezig was.
maar heb zoveel lopen vogelen op den duur dat ik nu maar een verse installatie gedaan heb.
bedankt de scripts had ik al.
Volgens mij ben ik hier de afgelopen dagen mee bezig geweest.
Bij de plex LXC kreeg ik continu een foutmelding (en wou deze niet starten)
volgens mij een Render128 fout dat de kaart niet aanwezig was.
maar heb zoveel lopen vogelen op den duur dat ik nu maar een verse installatie gedaan heb.
Ik ben aan het oriënteren naar een nieuwe zelfbouw NAS / VM server. Naast ProxMox wordt XEN ook wel veel genoemd maar denk dat mijn keuze toch op ProxMox gaat vallen ivm container support.
Maar voordat ik allerlei hardware ga aanschaffen wil ik eerst mijn "plan" een beetje toetsen op haalbaarheid
Doel:
Vervangen van Windows domotica server *1, nu een gewone installatie, wil dat naar VM brengen. Alternatief is docker container maar zit met behoorlijk wat windows .NET scripts in huidige setup.
Vervangen van Windows based NAS server, (is nu nog WHS 2 welke gebaseerd is op Server 2008
)
Vervangen van Raspberry pi 3, deze heeft nu alleen nog een pi-hole actief > container pi-hole
*1 domotica server heeft diverse USB dongles voor Z-wave, Zigbee en P1 monitoring, deze kunnen fysiek wel op een raspberry pi 5 aangesloten worden. Maar dan moet ik nog even wat knutselen voor TCP conversie. (is een andere uitdaging
)
Wat wil ik gaan bereiken/ wat ik in gedachte heb:
1 grote storage pool waarbij ik denk aan RAID 6 of ZFS (beide hebben de voor en nadelen)
Raid 6 : voordeel 2 disks kunnen kapot gaan zonder data loss, nadelen?
ZFS: voordeel veel additionele voordelen zoals o.a. duplicaat detectie, maar hoe robuust tegen disk failure?
ECC RAM is aanbevolen == duurder
Wat mij dus heel erg duidelijk is, of Proxmox nu mijn data storage "beheert" op disk niveau / filesystem?
Dus zou het volgende mogelijke zijn waarbij ik in ProxMox bepaal of ik RAID 6 of ZFS ga draaien?
ProxMox
-<dynamische hoeveelheid TB, bepaald door PM>-- Truenas / FreeNAS / anders NAS georiënteerd OS
-<50GB>-- Windows VM
-<1GB>-- Pi-Hole container
--- etc etc
Hardware wordt waarschijnlijk AMD 8700G, 32 of 64GB ECC RAM (bij ZFS), mobo welke ook ECC doet, op dit moment 4 disk maar toekomst plek voor 15
Maar voordat ik allerlei hardware ga aanschaffen wil ik eerst mijn "plan" een beetje toetsen op haalbaarheid
Doel:
Vervangen van Windows domotica server *1, nu een gewone installatie, wil dat naar VM brengen. Alternatief is docker container maar zit met behoorlijk wat windows .NET scripts in huidige setup.
Vervangen van Windows based NAS server, (is nu nog WHS 2 welke gebaseerd is op Server 2008

Vervangen van Raspberry pi 3, deze heeft nu alleen nog een pi-hole actief > container pi-hole
*1 domotica server heeft diverse USB dongles voor Z-wave, Zigbee en P1 monitoring, deze kunnen fysiek wel op een raspberry pi 5 aangesloten worden. Maar dan moet ik nog even wat knutselen voor TCP conversie. (is een andere uitdaging
Wat wil ik gaan bereiken/ wat ik in gedachte heb:
1 grote storage pool waarbij ik denk aan RAID 6 of ZFS (beide hebben de voor en nadelen)
Raid 6 : voordeel 2 disks kunnen kapot gaan zonder data loss, nadelen?
ZFS: voordeel veel additionele voordelen zoals o.a. duplicaat detectie, maar hoe robuust tegen disk failure?
ECC RAM is aanbevolen == duurder
Wat mij dus heel erg duidelijk is, of Proxmox nu mijn data storage "beheert" op disk niveau / filesystem?
Dus zou het volgende mogelijke zijn waarbij ik in ProxMox bepaal of ik RAID 6 of ZFS ga draaien?
ProxMox
-<dynamische hoeveelheid TB, bepaald door PM>-- Truenas / FreeNAS / anders NAS georiënteerd OS
-<50GB>-- Windows VM
-<1GB>-- Pi-Hole container
--- etc etc
Hardware wordt waarschijnlijk AMD 8700G, 32 of 64GB ECC RAM (bij ZFS), mobo welke ook ECC doet, op dit moment 4 disk maar toekomst plek voor 15
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
De keuze tussen raid6 en ZFS zou een eenvoudige moeten zijn: met een ZFS-pool in raid-z2 krijg je hetzelfde redundantieniveau als bij raid6, maar dan met alle features van ZFS erbij. Voor raid6 zal je (voor Proxmox) echter nog wel een hardware-raid-kaart moeten toevoegen.
Of je ECC wil is vooral een kwestie van bedenken hoe belangrijk jij de data in het RAM vindt. De koppeling aan de 'aanbeveling/eis' van ZFS vind ik altijd onzinnig: waarom is ZFS wel belangrijk genoeg voor ECC, maar alle andere data in het geheugen niet? Om die reden maak ik onafhankelijk van de keuze voor ZFS al de keuze om voor ECC-RAM te gaan in mijn servers, en zou ik het ook altijd aanbevelen, maar uiteraard ben je vrij in jouw eigen keuze.
Het inrichten van een NAS-OS bovenop Proxmox is wel iets complexer helaas. Idealiter zou je een ZFS-dataset kunnen doorgeven voor gebruik, maar in het geval van VM's zit je vast aan virtuele disks die minder flexibel zijn. Er bestaat ook wel NAS-software die je in een container kan installeren en dan kan je wel een dataset koppelen. Mijn ervaring op dit punt is echter vrij beperkt (ik regel samba via Yast in een container met OpenSuse, en los daarvan draai ik nog Nextcloud).
Of je ECC wil is vooral een kwestie van bedenken hoe belangrijk jij de data in het RAM vindt. De koppeling aan de 'aanbeveling/eis' van ZFS vind ik altijd onzinnig: waarom is ZFS wel belangrijk genoeg voor ECC, maar alle andere data in het geheugen niet? Om die reden maak ik onafhankelijk van de keuze voor ZFS al de keuze om voor ECC-RAM te gaan in mijn servers, en zou ik het ook altijd aanbevelen, maar uiteraard ben je vrij in jouw eigen keuze.
Het inrichten van een NAS-OS bovenop Proxmox is wel iets complexer helaas. Idealiter zou je een ZFS-dataset kunnen doorgeven voor gebruik, maar in het geval van VM's zit je vast aan virtuele disks die minder flexibel zijn. Er bestaat ook wel NAS-software die je in een container kan installeren en dan kan je wel een dataset koppelen. Mijn ervaring op dit punt is echter vrij beperkt (ik regel samba via Yast in een container met OpenSuse, en los daarvan draai ik nog Nextcloud).
Wellicht eenvoudig op te lossen maar sinds een wijziging in mijn setup kan ik de Proxmox-interface alleen bereiken wanneer ik eerst een ping via de command-shell heb gedaan.
Situatie voorheen:
KPN Experiabox --> NUC met Proxmox
Sinds kort:
Ziggo modem (in bridge-modus) --> Deco --> NUC met Proxmox
IP-adres Proxmox klopt, Gateway IP verwijst Deco.
Andere interne IP adressen van dockers/containers werken wel meteen.
Zodra ik via de command shell een ping naar Proxmox heb gedaan en vervolgens IP weer invoer in de browser opent de interface zich meteen.
Wat zie ik mogelijk over het hoofd/ben ik vergeten?
Situatie voorheen:
KPN Experiabox --> NUC met Proxmox
Sinds kort:
Ziggo modem (in bridge-modus) --> Deco --> NUC met Proxmox
IP-adres Proxmox klopt, Gateway IP verwijst Deco.
Andere interne IP adressen van dockers/containers werken wel meteen.
Zodra ik via de command shell een ping naar Proxmox heb gedaan en vervolgens IP weer invoer in de browser opent de interface zich meteen.
Wat zie ik mogelijk over het hoofd/ben ik vergeten?
PSN ID = Jorco
Goedemiddag,
Ik ben een server aan het bouwen.
Zal een AMD ryzen 5 5600G worden met 64 GB RAM.
Ik moet in mijn huidge set-up af en toe mijn OS herinstalleren omdat ik iets verknal en hoop met virtualisatie en proxmox dat te vergemakkelijken.
Doel van de server is
-NAS waar ik al mijn opslag centraliseer en ook een kopie bewaar van mijn cloud opslag.
-Media server met plex
-Docker met Photoprism als zwaarste container.
-SQL met enkele training databases.
-Een virtuele windows 11 Pro omgeving voor homelab dev taken die ik opspin wanneer nodig.
-Een virtuele Ubuntu 24.04 desktop omgeving voor homelab dev taken die ik opspin wanneer nodig.
Hoe lus ik het gemakkelijkst de storage door, zou de bedoeling zijn dat photoprism aan de foto's op mijn NAS kan alsook plex.
Creer ik een virtuele machine met enig doel opslag? En creer ik voor de andere taken ook iedere keer een eigen virtuele machine met toegang tot de VM opslag/NAS? Omdat alles op dezelfde hypervisor loopt zou dit supersnel moeten gaan volgens mij. Of is er een eenvoudigere optie om de storage in proxmox te beheren?
Bedankt voor input alvast,
Ik ben een server aan het bouwen.
Zal een AMD ryzen 5 5600G worden met 64 GB RAM.
Ik moet in mijn huidge set-up af en toe mijn OS herinstalleren omdat ik iets verknal en hoop met virtualisatie en proxmox dat te vergemakkelijken.
Doel van de server is
-NAS waar ik al mijn opslag centraliseer en ook een kopie bewaar van mijn cloud opslag.
-Media server met plex
-Docker met Photoprism als zwaarste container.
-SQL met enkele training databases.
-Een virtuele windows 11 Pro omgeving voor homelab dev taken die ik opspin wanneer nodig.
-Een virtuele Ubuntu 24.04 desktop omgeving voor homelab dev taken die ik opspin wanneer nodig.
Hoe lus ik het gemakkelijkst de storage door, zou de bedoeling zijn dat photoprism aan de foto's op mijn NAS kan alsook plex.
Creer ik een virtuele machine met enig doel opslag? En creer ik voor de andere taken ook iedere keer een eigen virtuele machine met toegang tot de VM opslag/NAS? Omdat alles op dezelfde hypervisor loopt zou dit supersnel moeten gaan volgens mij. Of is er een eenvoudigere optie om de storage in proxmox te beheren?
Bedankt voor input alvast,
Allereerst, ik heb een proxmox cluster met AMD Ryzen. Werkt prima, maar ik krijg hem niet zuinig genoeg naar mijn zin. De node met 4 WD schijven en een paar ssds doet toch 80 Watt continu. Idle blijkt Intel toch beter te scoren. Neem dat tenminste mee in je overweging. Als ik het opnieuw zou doen, zou ik voor Intel gaan.klokslag schreef op zaterdag 4 mei 2024 @ 11:31:
Goedemiddag,
Ik ben een server aan het bouwen.
Zal een AMD ryzen 5 5600G worden met 64 GB RAM.
Ik moet in mijn huidge set-up af en toe mijn OS herinstalleren omdat ik iets verknal en hoop met virtualisatie en proxmox dat te vergemakkelijken.
Doel van de server is
-NAS waar ik al mijn opslag centraliseer en ook een kopie bewaar van mijn cloud opslag.
-Media server met plex
-Docker met Photoprism als zwaarste container.
-SQL met enkele training databases.
-Een virtuele windows 11 Pro omgeving voor homelab dev taken die ik opspin wanneer nodig.
-Een virtuele Ubuntu 24.04 desktop omgeving voor homelab dev taken die ik opspin wanneer nodig.
Hoe lus ik het gemakkelijkst de storage door, zou de bedoeling zijn dat photoprism aan de foto's op mijn NAS kan alsook plex.
Creer ik een virtuele machine met enig doel opslag? En creer ik voor de andere taken ook iedere keer een eigen virtuele machine met toegang tot de VM opslag/NAS? Omdat alles op dezelfde hypervisor loopt zou dit supersnel moeten gaan volgens mij. Of is er een eenvoudigere optie om de storage in proxmox te beheren?
Bedankt voor input alvast,
Wat betreft je opslag, er zijn een heleboel wegen naar rome. Ik heb een tijdje gewoon een smb op de host gedraaid. Het is tenslotte gewoon debian. Plex draai ik in een LXC container. Werkt prima. Maar het is chiquer om de host zoveel mogelijk met rust te laten. Kan er ook niks fout gaan. Daarom draai ik nu een apparte SMB container met opslag op mijn zfs pool. De Plex container haalt daar zijn data vanaf. Je kan beide containers eenvoudig backuppen en eenvoudig een snapshot van maken als je gaat klooien. En als het mis gaat heb je alles binnen een minuut weer terug.
Een centrale vm die als nas dient kan op zich wel, ik heb dat een tijd lang gedaan met een vm die openmediavault draaide. Daar had ik de sata controller naartoe doorgelust en dan kon ik het lvm-volume in de vm importeren en via samba ontsluiten aan de rest van het netwerk (en dus ook de andere guests).klokslag schreef op zaterdag 4 mei 2024 @ 11:31:
Goedemiddag,
Ik ben een server aan het bouwen.
Zal een AMD ryzen 5 5600G worden met 64 GB RAM.
Ik moet in mijn huidge set-up af en toe mijn OS herinstalleren omdat ik iets verknal en hoop met virtualisatie en proxmox dat te vergemakkelijken.
Doel van de server is
-NAS waar ik al mijn opslag centraliseer en ook een kopie bewaar van mijn cloud opslag.
-Media server met plex
-Docker met Photoprism als zwaarste container.
-SQL met enkele training databases.
-Een virtuele windows 11 Pro omgeving voor homelab dev taken die ik opspin wanneer nodig.
-Een virtuele Ubuntu 24.04 desktop omgeving voor homelab dev taken die ik opspin wanneer nodig.
Hoe lus ik het gemakkelijkst de storage door, zou de bedoeling zijn dat photoprism aan de foto's op mijn NAS kan alsook plex.
Creer ik een virtuele machine met enig doel opslag? En creer ik voor de andere taken ook iedere keer een eigen virtuele machine met toegang tot de VM opslag/NAS? Omdat alles op dezelfde hypervisor loopt zou dit supersnel moeten gaan volgens mij. Of is er een eenvoudigere optie om de storage in proxmox te beheren?
Bedankt voor input alvast,
Ik kreeg af en toe sata-errors in de console van die vm, en toen ik daarop ging zoeken kwam ik ook posts van mensen tegen waarbij de boel crashte. Wat nu echt de beste manier is om storage door te lussen naar een vm weet ik zo niet. Die vm draait nu ook niet meer, de data voor nextcloud, jellyfin en proxmox-backup komt vanaf de host, maar nu via een mount point, en voor nu heb ik even geen smb-shares meer. Ik gebruik verder zoveel mogelijk containers (lxc ipv docker vanwege de proxmox-ondersteuning voor alleen lxc), mijn server heeft maar 16GB en die gaan heel snel op met vm's.
Misschien is het wel een idee om een lxc-container op te zetten met iets als openmediavault (er zijn alternatieven voor), die je dan via een mount point/bind mount doorgeeft vanaf de host.
[ Voor 4% gewijzigd door Cyphax op 04-05-2024 19:38 ]
Saved by the buoyancy of citrus
LXC-container met OMV kan, maar wel alleen een privileged container, en dat wil je liever niet. Ik heb zelf een VM met OMV en een LXC op basis van een TurnKey template voor fileshare. Dit kan wel unprivileged.Cyphax schreef op zaterdag 4 mei 2024 @ 19:34:
[...]
Een centrale vm die als nas dient kan op zich wel, ik heb dat een tijd lang gedaan met een vm die openmediavault draaide. Daar had ik de sata controller naartoe doorgelust en dan kon ik het lvm-volume in de vm importeren en via samba ontsluiten aan de rest van het netwerk (en dus ook de andere guests).
Ik kreeg af en toe sata-errors in de console van die vm, en toen ik daarop ging zoeken kwam ik ook posts van mensen tegen waarbij de boel crashte. Wat nu echt de beste manier is om storage door te lussen naar een vm weet ik zo niet. Die vm draait nu ook niet meer, de data voor nextcloud, jellyfin en proxmox-backup komt vanaf de host, maar nu via een mount point, en voor nu heb ik even geen smb-shares meer. Ik gebruik verder zoveel mogelijk containers (lxc ipv docker vanwege de proxmox-ondersteuning voor alleen lxc), mijn server heeft maar 16GB en die gaan heel snel op met vm's.
Misschien is het wel een idee om een lxc-container op te zetten met iets als openmediavault (er zijn alternatieven voor), die je dan via een mount point/bind mount doorgeeft vanaf de host.
Waarom kan dat niet met een unprivileged container? Wil omv zelf dan niet werken?ZatarraNL schreef op zaterdag 4 mei 2024 @ 19:51:
[...]
LXC-container met OMV kan, maar wel alleen een privileged container, en dat wil je liever niet.
Saved by the buoyancy of citrus
Geen idee precies, maar iets met rechten om samba te kunnen runnen. Een samba server draait in beginsel niet in een unprivileged LXC.Cyphax schreef op zaterdag 4 mei 2024 @ 20:38:
[...]
Waarom kan dat niet met een unprivileged container? Wil omv zelf dan niet werken?
Dat is met smb shares mounten in een unprivileged container ook een issue, dat is misschien dan niet zo handig. Het is ergens wel jammer, de overhead van een vm zou je er niet nodig voor moeten hebben, zou je denken.ZatarraNL schreef op zaterdag 4 mei 2024 @ 20:57:
[...]
Geen idee precies, maar iets met rechten om samba te kunnen runnen. Een samba server draait in beginsel niet in een unprivileged LXC.
Saved by the buoyancy of citrus
Precies de reden dat ik daarvoor op onderzoek ben geweest. De Turnkey fileserver template kan het blijkbaar wel. Waarom dat bij deze template wel kan is mij niet helder. Iemand die weet waarom?Cyphax schreef op zaterdag 4 mei 2024 @ 21:16:
[...]
Dat is met smb shares mounten in een unprivileged container ook een issue, dat is misschien dan niet zo handig. Het is ergens wel jammer, de overhead van een vm zou je er niet nodig voor moeten hebben, zou je denken.
Ook voor een AMD-systeem is 80W veel. Sub-15W (zonder HDD's dan wel) is met de juiste keuzes ook met een AMD-systeem haalbaar.ZatarraNL schreef op zaterdag 4 mei 2024 @ 16:06:
[...]
Allereerst, ik heb een proxmox cluster met AMD Ryzen. Werkt prima, maar ik krijg hem niet zuinig genoeg naar mijn zin. De node met 4 WD schijven en een paar ssds doet toch 80 Watt continu. Idle blijkt Intel toch beter te scoren. Neem dat tenminste mee in je overweging. Als ik het opnieuw zou doen, zou ik voor Intel gaan.
Dat vraag ik me af. In het grote zuinige server topic gaat het ook vooral om intel.dcm360 schreef op zondag 5 mei 2024 @ 11:32:
[...]
Ook voor een AMD-systeem is 80W veel. Sub-15W (zonder HDD's dan wel) is met de juiste keuzes ook met een AMD-systeem haalbaar.
Ik heb het geprobeerd. En ik krijg hem niet lager. Heb de 10GBaseT al vervangen door SPF+ met een X710, wat de node met zon 20Watt verlaagd heeft naar 80Watt. Er zitten verder 4 WD 8TB, 4 sata enterprise ssd's en twee NVME ssd's in. En dan draaien de containers en VM 's op een andere node. Dus deze is aardig idle, maar wel met Ceph.
Uiteraard draait powertop --autotune. En ik heb in de bios wat zaken uitgezet. Maar verder is het me niet gelukt e.e.a. te verlagen.
[ Voor 7% gewijzigd door ZatarraNL op 05-05-2024 19:34 ]
Nouja, het kan. Mijn eigen metingen zijn iets terug in dat topic te vinden. Dat systeem ziet er tegenwoordig zo uit:ZatarraNL schreef op zondag 5 mei 2024 @ 19:31:
[...]
Dat vraag ik me af. In het grote zuinige server topic gaat het ook vooral om intel.
# | Category | Product | Prijs | Subtotaal |
---|---|---|---|---|
1 | Processors | AMD Ryzen 5 Pro 5650GE Tray | € 0,- | € 0,- |
1 | Moederborden | Biostar Racing B350GTN | € 0,- | € 0,- |
1 | Netwerkadapters | Intel X710-DA2 | € 0,- | € 0,- |
1 | Processorkoeling | Arctic Alpine AM4 Passive | € 0,- | € 0,- |
2 | Ventilators | Noctua NF-R8 redux 1800 PWM, 80mm | € 12,90 | € 25,80 |
2 | Geheugen intern | Crucial CT8G4WFD8266 | € 0,- | € 0,- |
1 | Voedingen | Mini-box picoPSU 90 | € 36,68 | € 36,68 |
1 | Solid state drives | Intel 600p 512GB | € 0,- | € 0,- |
Bekijk collectie Importeer producten | Totaal | € 62,48 |
Met een paar VM's, een paar containers en een XGS-PON-SFP+-module draait dat nu 'idle' (de router-VM heeft meestal wel wat te doen) tussen de 20W a 23W. Zonder de XGS-PON-module kwam ik onder de 20W uit.
Wat betreft opzet komt mijn andere systeem hier misschien beter bij in de buurt:Ik heb het geprobeerd. En ik krijg hem niet lager. Heb de 10GBaseT al vervangen door SPF+ met een X710, wat de node met zon 20Watt verlaagd heeft naar 80Watt. Er zitten verder 4 WD 8TB, 4 sata enterprise ssd's en twee NVME ssd's in. En dan draaien de containers en VM 's op een andere node. Dus deze is aardig idle, maar wel met Ceph.
Uiteraard draait powertop --autotune. En ik heb in de bios wat zaken uitgezet. Maar verder is het me niet gelukt e.e.a. te verlagen.
# | Category | Product | Prijs | Subtotaal |
---|---|---|---|---|
1 | Processors | AMD Ryzen 7 3700X Boxed | € 0,- | € 0,- |
1 | Moederborden | Asrock Rack X470D4U | € 362,40 | € 362,40 |
3 | Interne harde schijven | Seagate Barracuda Compute 3,5", 8TB | € 132,16 | € 396,48 |
3 | Interne harde schijven | Toshiba MG07ACA14TE (512e), 14TB | € 234,- | € 702,- |
1 | Controllers | Asus HYPER M.2 X16 CARD V2 | € 41,71 | € 41,71 |
1 | Behuizingen | Fractal Design Define Mini | € 0,- | € 0,- |
1 | Kabels | Delock 0.75m, SFF-8643/U.2 SFF-8639+SATA | € 0,- | € 0,- |
1 | Netwerkadapters | ASUS XG-C100F | € 87,27 | € 87,27 |
4 | Geheugen intern | Kingston KSM26ED8/16ME | € 0,- | € 0,- |
1 | Voedingen | Seasonic Focus Gold 450W | € 0,- | € 0,- |
3 | Solid state drives | Intel 660p 2TB | € 228,69 | € 686,07 |
1 | Solid state drives | Intel DC P4510 1TB | € 106,95 | € 106,95 |
1 | Overige componenten | Asus Hyper Kit M.2 To U.2 (Mini SAS) Adapter | € 0,- | € 0,- |
Bekijk collectie Importeer producten | Totaal | € 2.382,88 |
De Seagate-schijven staan eigenlijk altijd in spindown (tenzij ik backups aan het schrijven ben of met de maandelijkse scrub), de Toshiba-schijven staan altijd aan (iets te veel access er op voor spindown). Met een paar VM's en een twintigtal containers heeft ook deze machine altijd wel iets te doen, maar zit idle zo tussen de 55W a 60W.
Deze heb ik. 80 Watt idle. 95W bij wat activiteit. De andere nodes zijn ook AMD, maar zonder hdd's en vragen 40-50 Watt. Ik zou niet weten hoe ik die richting de 20 Watt moet krijgen.dcm360 schreef op zondag 5 mei 2024 @ 20:53:
[...]
Nouja, het kan. Mijn eigen metingen zijn iets terug in dat topic te vinden. Dat systeem ziet er tegenwoordig zo uit:
# Category Product Prijs Subtotaal 1 Processors AMD Ryzen 5 Pro 5650GE Tray € 0,- € 0,- 1 Moederborden Biostar Racing B350GTN € 0,- € 0,- 1 Netwerkadapters Intel X710-DA2 € 0,- € 0,- 1 Processorkoeling Arctic Alpine AM4 Passive € 0,- € 0,- 2 Ventilators Noctua NF-R8 redux 1800 PWM, 80mm € 12,90 € 25,80 2 Geheugen intern Crucial CT8G4WFD8266 € 0,- € 0,- 1 Voedingen Mini-box picoPSU 90 € 36,68 € 36,68 1 Solid state drives Intel 600p 512GB € 0,- € 0,- Bekijk collectie
Importeer productenTotaal € 62,48
Met een paar VM's, een paar containers en een XGS-PON-SFP+-module draait dat nu 'idle' (de router-VM heeft meestal wel wat te doen) tussen de 20W a 23W. Zonder de XGS-PON-module kwam ik onder de 20W uit.
[...]
Wat betreft opzet komt mijn andere systeem hier misschien beter bij in de buurt:
# Category Product Prijs Subtotaal 1 Processors AMD Ryzen 7 3700X Boxed € 0,- € 0,- 1 Moederborden Asrock Rack X470D4U € 362,40 € 362,40 3 Interne harde schijven Seagate Barracuda Compute 3,5", 8TB € 132,16 € 396,48 3 Interne harde schijven Toshiba MG07ACA14TE (512e), 14TB € 234,- € 702,- 1 Controllers Asus HYPER M.2 X16 CARD V2 € 41,71 € 41,71 1 Behuizingen Fractal Design Define Mini € 0,- € 0,- 1 Kabels Delock 0.75m, SFF-8643/U.2 SFF-8639+SATA € 0,- € 0,- 1 Netwerkadapters ASUS XG-C100F € 87,27 € 87,27 4 Geheugen intern Kingston KSM26ED8/16ME € 0,- € 0,- 1 Voedingen Seasonic Focus Gold 450W € 0,- € 0,- 3 Solid state drives Intel 660p 2TB € 228,69 € 686,07 1 Solid state drives Intel DC P4510 1TB € 106,95 € 106,95 1 Overige componenten Asus Hyper Kit M.2 To U.2 (Mini SAS) Adapter € 0,- € 0,- Bekijk collectie
Importeer productenTotaal € 2.382,88
De Seagate-schijven staan eigenlijk altijd in spindown (tenzij ik backups aan het schrijven ben of met de maandelijkse scrub), de Toshiba-schijven staan altijd aan (iets te veel access er op voor spindown). Met een paar VM's en een twintigtal containers heeft ook deze machine altijd wel iets te doen, maar zit idle zo tussen de 55W a 60W.
# | Category | Product | Prijs | Subtotaal |
---|---|---|---|---|
1 | Processors | AMD Ryzen 7 5800X Boxed | € 189,- | € 189,- |
1 | Moederborden | ASRock B550 Steel Legend | € 173,- | € 173,- |
1 | Videokaarten | MSI GeForce GT 710 2GD3H LP | € 47,18 | € 47,18 |
4 | Interne harde schijven | WD Red Plus "5400rpm class", 8TB | € 366,99 | € 1.467,96 |
1 | Controllers | Delock 8Port SATA PCIe | € 0,- | € 0,- |
1 | Behuizingen | Inter-Tech IPC 3U-30255 | € 129,49 | € 129,49 |
1 | Netwerkadapters | Intel Ethernet Converged Network Adapter X710-DA2 | € 208,- | € 208,- |
1 | Processorkoeling | Noctua NH-L12S | € 59,90 | € 59,90 |
1 | Ventilators | Noctua NF-A12x25 PWM Bruin, 120mm | € 29,25 | € 29,25 |
2 | Geheugen intern | Kingston KSM26ED8/32ME | € 0,- | € 0,- |
1 | Voedingen | Corsair RM550x (2018) (EU-model) Zwart | € 0,- | € 0,- |
1 | Solid state drives | Crucial MX500 2,5" 500GB | € 53,90 | € 53,90 |
1 | Solid state drives | Intel DC D3-S4510 2,5" 1,92TB | € 379,64 | € 379,64 |
1 | Solid state drives | Samsung 970 EVO 500GB | € 0,- | € 0,- |
2 | Solid state drives | Samsung PM893 240GB | € 70,95 | € 141,90 |
Totaal | € 2.879,22 |
@ZatarraNL - maar vele kleine beetjes maken ook een groot...
De 4 SSD's zijn samen goed voor zo een 10 Watt
De 4 WD-RED's zijn samen goed voor nog eens 30-plus Watt
Van de de videokaart weet ik het niet - maar zal ook iets van 3 W zijn (aanname!).
Maak je gebruik van de scaling governer?
Iets wat tijdens boot wordt uitgevoerd via crontab - hieronder twee voorbeelden.
.
Zuinigste maar gaat ten koste van prestaties:
@reboot echo "powersave" | tee /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor
Iets minder zuinig maar met weinig performance impact:
@reboot echo "conservative" | tee /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor
Met de laatste zit ie bij mij tussen de 65 en 70W bij minimale belasting.
Bij vlagen kan dit oplopen naar 85-90 Watt.
Bij intensieve CPU- en schijfoperaties zit ie al snel over de 100 Watt
Het systeem is aangesloten op een kleine UPS.
Bovenstaande waardes zijn gemeten met een Tapo Smart Plug en via de UPS.
Wat wil zeggen dat een klein deel van het vermogen voor rekening van de UPS komt..
Ik gebruik dezelfde CPU met 2x 32-GBytes geheugen en zonder videokaart.
Het systemboard is een TUF Gaming B550-Plus in powersave mode - een bios instelling.
Wel heb ik er veel minder disken in zitten - drie SSD's (boot en VM's) en een 5400 rpm spindle voor snapshots.
De 4 SSD's zijn samen goed voor zo een 10 Watt
De 4 WD-RED's zijn samen goed voor nog eens 30-plus Watt
Van de de videokaart weet ik het niet - maar zal ook iets van 3 W zijn (aanname!).
Maak je gebruik van de scaling governer?
Iets wat tijdens boot wordt uitgevoerd via crontab - hieronder twee voorbeelden.
.
Zuinigste maar gaat ten koste van prestaties:
@reboot echo "powersave" | tee /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor
Iets minder zuinig maar met weinig performance impact:
@reboot echo "conservative" | tee /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor
Met de laatste zit ie bij mij tussen de 65 en 70W bij minimale belasting.
Bij vlagen kan dit oplopen naar 85-90 Watt.
Bij intensieve CPU- en schijfoperaties zit ie al snel over de 100 Watt
Het systeem is aangesloten op een kleine UPS.
Bovenstaande waardes zijn gemeten met een Tapo Smart Plug en via de UPS.
Wat wil zeggen dat een klein deel van het vermogen voor rekening van de UPS komt..
Ik gebruik dezelfde CPU met 2x 32-GBytes geheugen en zonder videokaart.
Het systemboard is een TUF Gaming B550-Plus in powersave mode - een bios instelling.
Wel heb ik er veel minder disken in zitten - drie SSD's (boot en VM's) en een 5400 rpm spindle voor snapshots.
[ Voor 5% gewijzigd door Airw0lf op 05-05-2024 23:12 ]
makes it run like clockwork
Dat denk je, of dat heb je gemeten (just checking)? Ik heb een 4W systeem dat met UPS ik meen in de 20W gebruikte aan het stopcontact, UPS vervangen en toen was het verbruik nog maar 8W aan het stopcontact.Airw0lf schreef op zondag 5 mei 2024 @ 23:09:
Het systeem is aangesloten op een kleine UPS.
Bovenstaande waardes zijn gemeten met een Tapo Smart Plug en via de UPS.
Wat wil zeggen dat een klein deel van het vermogen voor rekening van de UPS komt..
In het kort: er zijn drie soorten UPS met andere "types" beveiliging, en hoe "zwakker" de beveiliging hoe minder de overhead. En met het Nederlandse stroomzet zie ik geen nut om een UPS te hebben die exact 230V in een perfecte sinus output, zogezegd. Een UPS die de netstroom 1-op-1 doorgeeft en wel gewoon een stroomuitval opvangt is ook prima.
En ~20W overhead vind ik dus geen "klein deel", niet bij 70W (50 vs 70) systeem en al helemaal niet bij een 4W (4 vs 24) systeem.
Das een aanname inderdaad - nooit gemeten.RobertMe schreef op maandag 6 mei 2024 @ 00:12:
[...]
Dat denk je, of dat heb je gemeten (just checking)? Ik heb een 4W systeem dat met UPS ik meen in de 20W gebruikte aan het stopcontact, UPS vervangen en toen was het verbruik nog maar 8W aan het stopcontact.
In het kort: er zijn drie soorten UPS met andere "types" beveiliging, en hoe "zwakker" de beveiliging hoe minder de overhead. En met het Nederlandse stroomzet zie ik geen nut om een UPS te hebben die exact 230V in een perfecte sinus output, zogezegd. Een UPS die de netstroom 1-op-1 doorgeeft en wel gewoon een stroomuitval opvangt is ook prima.
En ~20W overhead vind ik dus geen "klein deel", niet bij 70W (50 vs 70) systeem en al helemaal niet bij een 4W (4 vs 24) systeem.
Hoe weet je dat de UPS de stroom een-op-een doorgeeft?
Danwel dat die mogelijkheid er is?
Ik heb me nooit echt in UPS-en verdiept - er staat een Powerwalker tussen met het idee dat er bij stroomuitval een accu is om een shutdown uit te kunnen voeren. Verder heb ik er nooit naar om gekeken.
Het is in ieder geval nooit de bedoeling geweest hier iets met beveiliging te doen of een "schone" sinus te doen - leek me overbodig.
Maar eigenlijk heb ik daar bij de aankoop en installatie niet op gelet.
makes it run like clockwork
Zoals gezegd zijn er drie soorten, in de pricewatch te filteren op "UPS topologie", waarbij je een "Standby (offline)" model wilt hebben voor de meest basic variant met de minste overhead: categorie: UPS en stekkerdozenAirw0lf schreef op maandag 6 mei 2024 @ 07:48:
[...]
Das een aanname inderdaad - nooit gemeten.
Hoe weet je dat de UPS de stroom een-op-een doorgeeft?
Danwel dat die mogelijkheid er is?
En Eaton heeft er ook over geschreven: https://www.eaton.com/my/...ptimal-ups-topology-.html
RobertMe heeft inderdaad gelijk. Ik had ook een full sinus UPS en die verbruikte 15 watt idle. Ik ging toen terug naar een APC 700GR iets met een transformator, alsnog veel warmte. Toen lanceerde ze de BE850GR2 een UPS met geschakelde voeding zonder transformator. Resultaat bijna geen warme die je accu laat uitdrogen en idle rond de 1-2 watt. Heb er 3 van in huis echt hele fijne units, Pi Zero erop en met de NUT client kan ik ze uitlezen als een volwaardige SMART UPS.Airw0lf schreef op maandag 6 mei 2024 @ 07:48:
[...]
Das een aanname inderdaad - nooit gemeten.
Hoe weet je dat de UPS de stroom een-op-een doorgeeft?
Danwel dat die mogelijkheid er is?
Ik heb me nooit echt in UPS-en verdiept - er staat een Powerwalker tussen met het idee dat er bij stroomuitval een accu is om een shutdown uit te kunnen voeren. Verder heb ik er nooit naar om gekeken.
Het is in ieder geval nooit de bedoeling geweest hier iets met beveiliging te doen of een "schone" sinus te doen - leek me overbodig.
Maar eigenlijk heb ik daar bij de aankoop en installatie niet op gelet.
Die 850 is ook heel erg efficiënt ook bij lage er load. Zie efficiëntie grafiek.
https://www.apc.com/gr/en...-User-Replaceable-Battery
[ Voor 13% gewijzigd door stormfly op 06-05-2024 08:26 ]
Afgaande op het Eaton artikel (waarvoor dank) en de specsheet van de Powerwalker lijkt het erop dat ik de line-interactive variant heb staan. Er zit wel iets aan overspanningbeveiliging in - maar het lijkt geen full-sinus ding - er wordt gesproken over sinus simulatie.
Maar ik ga hier zeker nog eens naar kijken => toegevoegd aan ToDo-uitzoek lijstje.
Maar ik ga hier zeker nog eens naar kijken => toegevoegd aan ToDo-uitzoek lijstje.
[ Voor 8% gewijzigd door Airw0lf op 06-05-2024 08:41 ]
makes it run like clockwork
Wat bedoel je precies met "Pi Zero erop"?stormfly schreef op maandag 6 mei 2024 @ 08:20:
[...]
Pi Zero erop en met de NUT client kan ik ze uitlezen als een volwaardige SMART UPS.
Die 850 is ook heel erg efficiënt ook bij lage er load. Zie efficiëntie grafiek.
https://www.apc.com/gr/en...-User-Replaceable-Battery
Is die NUT client ook in te zetten via Proxmox - bijvoorbeeld via een container?
Iemand daar ervaring mee?
makes it run like clockwork
Die efficiëntie zal er meer aan liggen dat het een offline UPS is, niet dat er geen transformator in zit.stormfly schreef op maandag 6 mei 2024 @ 08:20:
[...]
Toen lanceerde ze de BE850GR2 een UPS met geschakelde voeding zonder transformator. Resultaat bijna geen warme die je accu laat uitdrogen en idle rond de 1-2 watt. Heb er 3 van in huis echt hele fijne units, Pi Zero erop en met de NUT client kan ik ze uitlezen als een volwaardige SMART UPS.
Die 850 is ook heel erg efficiënt ook bij lage er load. Zie efficiëntie grafiek.
https://www.apc.com/gr/en...-User-Replaceable-Battery
Maar ik heb gelijkende dingen gezien met b.v. een Eaton line interactive UPS die rond de 15W (idle!) deed. Die APC 850 is een stuk zuiniger.
De Back-UPS CS (die witte, ook offline) zouden ook wat zuiniger moeten zijn dan de meeste line interactive modellen.
Ik neem aan dat @stormfly bedoelt "RPi Zero erbij, USB van de UPS naar de RPi, met apcupsd er op die ook op netwerk publiceert".Airw0lf schreef op maandag 6 mei 2024 @ 08:46:
[...]
Wat bedoel je precies met "Pi Zero erop"?
Is die NUT client ook in te zetten via Proxmox - bijvoorbeeld via een container?
Iemand daar ervaring mee?
En ja, de APC software kan ook op Proxmox (/is gewoon open source software). Maar jij hebt geen APC UPS?
Ook rekening er mee gehouden dat als de stroom er uit ligt dat de communicatie dan nog werkt? Niet dat er een switch tussen zit die niet via UPS van stroom wordt voorzien / lege UPS daar de rest sloopt / ....stormfly schreef op maandag 6 mei 2024 @ 08:20:
Heb er 3 van in huis echt hele fijne units, Pi Zero erop en met de NUT client kan ik ze uitlezen als een volwaardige SMART UPS.
Jeps inderdaad dat bedoelde ik. Zijn diverse guides hoe te installeren.RobertMe schreef op maandag 6 mei 2024 @ 09:09:
[...]
Ik neem aan dat @stormfly bedoelt "RPi Zero erbij, USB van de UPS naar de RPi, met apcupsd er op die ook op netwerk publiceert".
En ja, de APC software kan ook op Proxmox (/is gewoon open source software). Maar jij hebt geen APC UPS?
Hij is flink zuiniger dan de 700 serie met transformator. Beide offline UPS architectuur van +/- 100euro.BHQ schreef op maandag 6 mei 2024 @ 09:00:
[...]
Die efficiëntie zal er meer aan liggen dat het een offline UPS is, niet dat er geen transformator in zit.
Uit mijn herinnering is dat 5 versus 1 watt voor het 850 model wat ik noemde. Met mijn kennis denk ik dat het echt aan de architectuur ligt.
[ Voor 11% gewijzigd door stormfly op 06-05-2024 09:28 ]
Ook de PowerWalkers (als je een model hebt met iets aan connectiviteit) kan je uitlezen met NUT, toevallig elders heb ik een setup waar dat prima werkt.RobertMe schreef op maandag 6 mei 2024 @ 09:09:
[...]
Ik neem aan dat @stormfly bedoelt "RPi Zero erbij, USB van de UPS naar de RPi, met apcupsd er op die ook op netwerk publiceert".
En ja, de APC software kan ook op Proxmox (/is gewoon open source software). Maar jij hebt geen APC UPS?
Nee - inderdaad - bij mij heet dat Powerwalker Manager.RobertMe schreef op maandag 6 mei 2024 @ 09:09:
[...]
Ik neem aan dat @stormfly bedoelt "RPi Zero erbij, USB van de UPS naar de RPi, met apcupsd er op die ook op netwerk publiceert".
En ja, de APC software kan ook op Proxmox (/is gewoon open source software). Maar jij hebt geen APC UPS?
En die heeft ook netwerk functies - vergelijkbaar met APC.
Die functies gebruik ik op dit moment niet omdat niet alle switches op een UPS zijn aangesloten - zonder dat lijkt het me weinig zinvol om daar iets mee te gaan doen.
makes it run like clockwork
Zeker alle IT is UPS covered, ten tijde van KPN XGSPON glasvezel. Wat geen stroom uit de wijk nodig heeft in tegenstelling tot de huidige Ziggo aansluiting. Haalde ik een enorme hoge uptime.RobertMe schreef op maandag 6 mei 2024 @ 09:12:
[...]
Ook rekening er mee gehouden dat als de stroom er uit ligt dat de communicatie dan nog werkt? Niet dat er een switch tussen zit die niet via UPS van stroom wordt voorzien / lege UPS daar de rest sloopt / ....
Met Ziggo nu zie je dat als een tussenliggende wijk een power outage heeft het impact heeft op je verbinding. Dan is de wijknode offline of verderop staande groepsversterkers.
XGSPON van KPN is over 3,8kilometer passief naar een oude telefooncentrale met aggregaat
[ Voor 8% gewijzigd door stormfly op 06-05-2024 11:24 ]
sow... afgelopen donderdag update en reboot van mijn server (NUC) uitgevoerd... kwam niet meer op.... SSD vervangen, wekelijkse backup teruggezet... binnen een uurtje was alles weer draaiend.
Wat gebruik jij om een image van je SSD te maken. Hier ook een tijdje geleden SSD defect en toen gewoon Proxmox er op gezet en de licentie geupdate, was nog geen 15 minuten werk. (3 Nodes in cluster).htca schreef op vrijdag 10 mei 2024 @ 18:08:
sow... afgelopen donderdag update en reboot van mijn server (NUC) uitgevoerd... kwam niet meer op.... SSD vervangen, wekelijkse backup teruggezet... binnen een uurtje was alles weer draaiend.
Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8
Ik heb 2 Proxmox servers in gebruik - een voor wat prutswerk en een als productie.
Wel zijn ze zoveel mogelijk gelijk ingericht - alleen een ander systemboard:
De prutsserver heeft een Asus TUF B550-Pro en de productieserver heeft hiervan de M variant.
Als ik op de prutsserver NUT installeer werkt het prima.
Als ik dezelfde installatiestappen uitvoer voor de productieserver werkt het voor geen meter.
Het gaat steevast mis bij upsdrvctl start:
De rechten op het betreffende USB device en de NUT folders is in beide gevallen gelijk.
Ook het uitlezen met lsusb en nut-scanner -U werkt zonder problemen - zie ook hieronder.
Ik heb al anders kabels en andere USB poorten geprobeerd.
Maar tot nu allemaal zonder resultaat.
Iemand een idee wat er aan de hand kan zijn?
* De parameters voor de prutsserver
De output van lsusb:
De output van nut-scanner -U:
* De parameters voor de productieserver
De output van lsusb:
De output van nut-scanner -U:
Bij de productieserver gaat het steevast mis bij upsdrvctl start:
Wel zijn ze zoveel mogelijk gelijk ingericht - alleen een ander systemboard:
De prutsserver heeft een Asus TUF B550-Pro en de productieserver heeft hiervan de M variant.
Als ik op de prutsserver NUT installeer werkt het prima.
Als ik dezelfde installatiestappen uitvoer voor de productieserver werkt het voor geen meter.
Het gaat steevast mis bij upsdrvctl start:
code:
1
2
3
4
5
6
7
| Network UPS Tools - UPS driver controller 2.8.0 Network UPS Tools - Generic HID driver 0.47 (2.8.0) USB communication driver (libusb 1.0) 0.43 libusb1: Could not open any HID devices: insufficient permissions on everything No matching HID UPS found Driver failed to start (exit status=1) Network UPS Tools - Generic HID driver 0.47 (2.8.0) |
De rechten op het betreffende USB device en de NUT folders is in beide gevallen gelijk.
Ook het uitlezen met lsusb en nut-scanner -U werkt zonder problemen - zie ook hieronder.
Ik heb al anders kabels en andere USB poorten geprobeerd.
Maar tot nu allemaal zonder resultaat.
Iemand een idee wat er aan de hand kan zijn?
* De parameters voor de prutsserver
De output van lsusb:
code:
1
2
3
4
5
6
7
| Bus 004 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub Bus 003 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub Bus 002 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub Bus 001 Device 004: ID 05e3:0608 Genesys Logic, Inc. Hub Bus 001 Device 003: ID 0b05:1939 ASUSTek Computer, Inc. AURA LED Controller Bus 001 Device 002: ID 0764:0601 Cyber Power System, Inc. PR1500LCDRT2U UPS Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub |
De output van nut-scanner -U:
code:
1
2
3
4
5
6
7
8
9
| [nutdev1] driver = "usbhid-ups" port = "auto" vendorid = "0764" productid = "0601" product = " 800" serial = "" vendor = "1" bus = "001" |
* De parameters voor de productieserver
De output van lsusb:
code:
1
2
3
4
5
6
7
| Bus 004 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub Bus 003 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub Bus 002 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub Bus 001 Device 004: ID 0764:0601 Cyber Power System, Inc. PR1500LCDRT2U UPS Bus 001 Device 003: ID 05e3:0608 Genesys Logic, Inc. Hub Bus 001 Device 002: ID 0b05:1939 ASUSTek Computer, Inc. AURA LED Controller Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub |
De output van nut-scanner -U:
code:
1
2
3
4
5
6
7
8
9
| [nutdev1] driver = "usbhid-ups" port = "auto" vendorid = "0764" productid = "0601" product = "2200" serial = "" vendor = "1" bus = "001" |
Bij de productieserver gaat het steevast mis bij upsdrvctl start:
code:
1
2
3
4
5
6
7
| Network UPS Tools - UPS driver controller 2.8.0 Network UPS Tools - Generic HID driver 0.47 (2.8.0) USB communication driver (libusb 1.0) 0.43 libusb1: Could not open any HID devices: insufficient permissions on everything No matching HID UPS found Driver failed to start (exit status=1) Network UPS Tools - Generic HID driver 0.47 (2.8.0) |
makes it run like clockwork
+1 dat zou ik ook wel eens willen weten. Een windows box imagen is redelijk simpel. Echter een linux server (liefst zonder downtime) imagen lijkt mij niet zo simpel. Lees veel over rsync, maar ook over clonezilla, wat echter niet kan zonder te booten.John245 schreef op vrijdag 10 mei 2024 @ 18:16:
[...]
Wat gebruik jij om een image van je SSD te maken. Hier ook een tijdje geleden SSD defect en toen gewoon Proxmox er op gezet en de licentie geupdate, was nog geen 15 minuten werk. (3 Nodes in cluster).
Proxmox met ZFS gebruiken? Snapshotten en send & receiven op een ander systeem (of senden naar een file die je ergens anders opslaat).m.eddy schreef op vrijdag 10 mei 2024 @ 20:17:
[...]
+1 dat zou ik ook wel eens willen weten. Een windows box imagen is redelijk simpel. Echter een linux server (liefst zonder downtime) imagen lijkt mij niet zo simpel. Lees veel over rsync, maar ook over clonezilla, wat echter niet kan zonder te booten.
Moet je alleen even klussen met de bootpartitie.
Mijn situatie.RobertMe schreef op vrijdag 10 mei 2024 @ 20:40:
[...]
Proxmox met ZFS gebruiken? Snapshotten en send & receiven op een ander systeem (of senden naar een file die je ergens anders opslaat).
Moet je alleen even klussen met de bootpartitie.
Proxmox cluster bestaande uit 3 Nodes. Iedere Node:
1) Boot SSD waar Proxmox op draait
2) ZFS mirror (2 SSD's)
Verder backups m.b.v. PBS. En de belangrijkste VM's worden gerepliceerd naar de andere 2 Nodes.
Herstel is snel (op de primaire server/Node kan ik makkelijk met IPMI Proxmox op de bootdisk zetten). Zou dit handiger met een image zijn? En wat kan ik daar dan voor gebruiken? Je bedoelt een snapshot maken naar bijvoorbeeld een NAS (en wat is daar een handige applicatie voor)?
[ Voor 5% gewijzigd door John245 op 10-05-2024 21:40 ]
Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8
Ik maak geen backup van proxmox zelf, ik maak wekelijks een backup van alle vm en lxc die er op draaien naar mijn Qnap. Stickje gemaakt met 8.2 erop, daarna de share geconnect en de vm en lxc restored. Stickje downloaden en flashen duurde lange dan het restoren.John245 schreef op vrijdag 10 mei 2024 @ 18:16:
[...]
Wat gebruik jij om een image van je SSD te maken. Hier ook een tijdje geleden SSD defect en toen gewoon Proxmox er op gezet en de licentie geupdate, was nog geen 15 minuten werk. (3 Nodes in cluster).
Duidelijk. Hier gewoon een clean install. Via IPMI zo gebeurd. De licentie in orde maken kost nog het meeste tijd. Hier dagelijkse back-up van kritische VM's en wekelijks van de niet kritische VM's.htca schreef op vrijdag 10 mei 2024 @ 22:34:
[...]
Ik maak geen backup van proxmox zelf, ik maak wekelijks een backup van alle vm en lxc die er op draaien naar mijn Qnap. Stickje gemaakt met 8.2 erop, daarna de share geconnect en de vm en lxc restored. Stickje downloaden en flashen duurde lange dan het restoren.
Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8
Ik denk dat ik ook naar dagelijkse backup ga, mis nu toch een dag of 6John245 schreef op vrijdag 10 mei 2024 @ 22:41:
[...]
Duidelijk. Hier gewoon een clean install. Via IPMI zo gebeurd. De licentie in orde maken kost nog het meeste tijd. Hier dagelijkse back-up van kritische VM's en wekelijks van de niet kritische VM's.
voor de mensen met interesse / toekomstige lezers.
Eindelijk met wat hulp van Wim van 't Hoog, https://wvthoog.nl/proxmox-vgpu-v3/
de Tesla p4 Vgpu + licentie werkend gekregen in proxmox.
Had wat problemen met ubuntu / plex en de vgpu. alles was juist ingesteld.
behalve dat ik bij mdev type = P4-2B4 geselecteerd had.
als ik het juist heb zijn B + Q profiles voor linux. en A voor windows
om transcoding in plex werkend te krijgen had ik het Q profile nodig.
dit werkt blijkbaar niet op een B profiel.
na een week stoeien werkt hardware transcoding nu eindelijk in Plex met de VGPU
Eindelijk met wat hulp van Wim van 't Hoog, https://wvthoog.nl/proxmox-vgpu-v3/
de Tesla p4 Vgpu + licentie werkend gekregen in proxmox.
Had wat problemen met ubuntu / plex en de vgpu. alles was juist ingesteld.
behalve dat ik bij mdev type = P4-2B4 geselecteerd had.
als ik het juist heb zijn B + Q profiles voor linux. en A voor windows
om transcoding in plex werkend te krijgen had ik het Q profile nodig.
dit werkt blijkbaar niet op een B profiel.
na een week stoeien werkt hardware transcoding nu eindelijk in Plex met de VGPU
Leuk nieuws van Veeam!
https://www.veeam.com/new...pport-for-proxmox-ve.htmlGeneral availability for Proxmox VE support is expected in Q3 2024
wat zou de licentie kosten?GoBieN-Be schreef op dinsdag 14 mei 2024 @ 22:18:
Leuk nieuws van Veeam!
[...]
https://www.veeam.com/new...pport-for-proxmox-ve.html
Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8
Community editie is gratis tot 10 VM's.
Hopelijk geldt dat ook voor Proxmox VE support.
Hopelijk geldt dat ook voor Proxmox VE support.
PBS voldoet voor mij op dit moment en zie vooralsnog geen toegevoegde waarde.Integratie van PBS binnen Proxmox is ook uitstekend.GoBieN-Be schreef op woensdag 15 mei 2024 @ 01:20:
Community editie is gratis tot 10 VM's.
Hopelijk geldt dat ook voor Proxmox VE support.
en overall: gratis
There are no secrets, only information you do not yet have
Ik heb op mijn NAS de PBS als container draaien en de backups komen dus gelijk op mijn NAS terecht. Werkt perfect.zeroday schreef op vrijdag 17 mei 2024 @ 07:55:
[...]
PBS voldoet voor mij op dit moment en zie vooralsnog geen toegevoegde waarde.Integratie van PBS binnen Proxmox is ook uitstekend.
en overall: gratis
PSN: PcDCch
Al opgelost, had op de synology geen admin rechten blijkbaar. "map all users to admin" heeft het probleem opgelost
Ik probeer een externe NFS toe te voegen aan mijn LCX container voor Jellyfin.
in de Datacenter 2 NFS paths aangemaakt. Naar de LCX doorgezet (en nfstools geinstalleerd) en als ik dan de directory bekijk lijkt dat goed.
:fill(white):strip_exif()/f/image/VB4rqV2hiW2PLuu1xLhX9qHj.png?f=user_large)
Zowel de map "arr" heeft de nas content, en de "homevideos" laat ook alles zien.
Echter in Jellyfin zie ik de "arr" wél de content, maar van de "homevideos" zie ik wel het pad maar niet de onderliggende mappen/files
/f/image/X3WscFc9Tcce7qj77BmweOEM.png?f=fotoalbum_large)
de homevideos-map blijft dus leeg:
/f/image/Qr2Jztb6WkIsC51byXIcJXxu.png?f=fotoalbum_large)
Config:
/f/image/UPkwYEdOAx1zrSgS1k4zZ35J.png?f=fotoalbum_large)
Wat doe ik hier nu fout?
Ik probeer een externe NFS toe te voegen aan mijn LCX container voor Jellyfin.
in de Datacenter 2 NFS paths aangemaakt. Naar de LCX doorgezet (en nfstools geinstalleerd) en als ik dan de directory bekijk lijkt dat goed.
:fill(white):strip_exif()/f/image/VB4rqV2hiW2PLuu1xLhX9qHj.png?f=user_large)
Zowel de map "arr" heeft de nas content, en de "homevideos" laat ook alles zien.
Echter in Jellyfin zie ik de "arr" wél de content, maar van de "homevideos" zie ik wel het pad maar niet de onderliggende mappen/files
/f/image/X3WscFc9Tcce7qj77BmweOEM.png?f=fotoalbum_large)
de homevideos-map blijft dus leeg:
/f/image/Qr2Jztb6WkIsC51byXIcJXxu.png?f=fotoalbum_large)
Config:
/f/image/UPkwYEdOAx1zrSgS1k4zZ35J.png?f=fotoalbum_large)
Wat doe ik hier nu fout?
[ Voor 3% gewijzigd door Waah op 17-05-2024 14:27 ]
Sinds vandaag is 1 van mijn VM's (waar home assistant op draait, 10GB) extreem traag met backuppen naar mijn NAS. De andere VM's gaan prima.
Geen idee waar het aan ligt, iemand een idee?
Geen idee waar het aan ligt, iemand een idee?
Staan ze allemaal op dezelfde storage?
Heb je de betreffende VM als eens uit gezet en weer gestart?
Heb je de betreffende VM als eens uit gezet en weer gestart?
Professioneel bij klanten willen we kunnen specifieke items terug zetten. Bijvoorbeeld bestanden, maar ook een gebruiker op Active Directory of een SQL tabel. Dat kan met Veeam, niet met PBS.zeroday schreef op vrijdag 17 mei 2024 @ 07:55:
[...]
PBS voldoet voor mij op dit moment en zie vooralsnog geen toegevoegde waarde.Integratie van PBS binnen Proxmox is ook uitstekend.
en overall: gratis
En nog veel meer mogelijkheden zoals back-up copies, imutability, offload naar object storage in de cloud, block checksum controle, surebackup die backups van VM's controleert op boot baarheid enzv...
Ben benieuwd of dat straks voor proxmox ook geldt .. btw individuele bestanden kun je gewoon vanuit een backup terug zetten.GoBieN-Be schreef op vrijdag 17 mei 2024 @ 18:17:
[...]
Professioneel bij klanten willen we kunnen specifieke items terug zetten. Bijvoorbeeld bestanden, maar ook een gebruiker op Active Directory of een SQL tabel. Dat kan met Veeam, niet met PBS.
En nog veel meer mogelijkheden zoals back-up copies, imutability, offload naar object storage in de cloud, block checksum controle, surebackup die backups van VM's controleert op boot baarheid enzv...
Ach wat maakt het uit, als je datgeen maar kan gebruiken wat je nodig hebt
There are no secrets, only information you do not yet have
Bij LXC containers kun je individuele bestanden eruit halen.zeroday schreef op zondag 19 mei 2024 @ 21:42:
[...]
Ben benieuwd of dat straks voor proxmox ook geldt .. btw individuele bestanden kun je gewoon vanuit een backup terug zetten.
Ach wat maakt het uit, als je datgeen maar kan gebruiken wat je nodig hebt
Bij VM's kun je ook individuele bestanden terugzetten.zx9r_mario schreef op zondag 19 mei 2024 @ 21:44:
[...]
Bij LXC containers kun je individuele bestanden eruit halen.
Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8
Gisteren mijn thuis-’server’ vervangen door een andere. Van een i5-7500t naar een i5-12500t dus dan kan ik er weer even tegenaan. Beide met Proxmox overigens. Na lang beraad met mezelf heb ik gekozen voor een USSF met dus maar plek voor 1 M.2 disk. Mijn vorige server had Proxmox op een aparte SSD staan, maar puntje bij paaltje maakte dat voor de betrouwbaarheid in mijn ogen niets uit. Ging de SSD kapot dan deed proxmox het niet en dus functioneerde mijn huis niet, bij de M.2 SSD gold hetzelfde want daarvandaan draaide alle containers/VM’s. Even bezig geweest met de voor mij meest logische verdeling van de partities maar dat viel niets tegen. Overzetten is wel echt heerlijk eenvoudig.
Maak een backup
Kopieer naar nieuwe server
Zet oude VM/LXC uit
Restore op nieuwe server
Klaar
Meteen ook de stap gemaakt om van o.a. één privileged LXC met Docker containers over te stappen naar dedicated unprivileged LXC’s per applicatie. Kostte me wel heel veel tijd omdat ik 0 kaas van lxc.idmap had gegeten maar nu het draait voelt het een stuk prettiger
Maak een backup
Kopieer naar nieuwe server
Zet oude VM/LXC uit
Restore op nieuwe server
Klaar
Meteen ook de stap gemaakt om van o.a. één privileged LXC met Docker containers over te stappen naar dedicated unprivileged LXC’s per applicatie. Kostte me wel heel veel tijd omdat ik 0 kaas van lxc.idmap had gegeten maar nu het draait voelt het een stuk prettiger
[ Voor 6% gewijzigd door lolgast op 22-05-2024 20:36 ]
Mag ik vragen wat dan een "logische" indeling van de partities is? En hoe groot is de SSD? Via welke weg heb je de containers/VM's overgezet? Zelf lees ik dat je gemakkelijk de backup functie kunt gebruiken en dan met SCP de bestanden over kunt zetten van host, maar ik ben benieuwd of er nog alternatieven zijn welke misschien via de GUI kunnenlolgast schreef op woensdag 22 mei 2024 @ 20:34:
Gisteren mijn thuis-’server’ vervangen door een andere. Van een i5-7500t naar een i5-12500t dus dan kan ik er weer even tegenaan. Beide met Proxmox overigens. Na lang beraad met mezelf heb ik gekozen voor een USSF met dus maar plek voor 1 M.2 disk. Mijn vorige server had Proxmox op een aparte SSD staan, maar puntje bij paaltje maakte dat voor de betrouwbaarheid in mijn ogen niets uit. Ging de SSD kapot dan deed proxmox het niet en dus functioneerde mijn huis niet, bij de M.2 SSD gold hetzelfde want daarvandaan draaide alle containers/VM’s. Even bezig geweest met de voor mij meest logische verdeling van de partities maar dat viel niets tegen. Overzetten is wel echt heerlijk eenvoudig.
Maak een backup
Kopieer naar nieuwe server
Zet oude VM/LXC uit
Restore op nieuwe server
Klaar
Meteen ook de stap gemaakt om van o.a. één privileged LXC met Docker containers over te stappen naar dedicated unprivileged LXC’s per applicatie. Kostte me wel heel veel tijd omdat ik 0 kaas van lxc.idmap had gegeten maar nu het draait voelt het een stuk prettiger
Hoi
@TheBrones De indeling ging vooral over ‘wat heb ik nodig en wat verwacht ik dat er komende paar jaar bij komt’.
Ik heb een 2TB disk met een 32GB proxmox-/root partitie, een 250GB lvm-thin partitie voor de containers/VM’s en Proxmox backups daarvan met 3 versies als retentie. De rest is ext4 voor data. Dat is voor mijn situatie zat. Paar films en een paar series die worden verwijderd na kijken en de rest is vooral data en foto’s. Die data en foto’s worden elke dag gesynced naar een aangesloten USB-disk en elke 2 dagen naar Backblaze gestuurd.
Kopieren van de containers heb ik inderdaad via SCP gedaan. Ik zou niet weten welk alternatief je zoekt, dit is vrij recht toe recht aan zonder poespas
Ik heb een 2TB disk met een 32GB proxmox-/root partitie, een 250GB lvm-thin partitie voor de containers/VM’s en Proxmox backups daarvan met 3 versies als retentie. De rest is ext4 voor data. Dat is voor mijn situatie zat. Paar films en een paar series die worden verwijderd na kijken en de rest is vooral data en foto’s. Die data en foto’s worden elke dag gesynced naar een aangesloten USB-disk en elke 2 dagen naar Backblaze gestuurd.
Kopieren van de containers heb ik inderdaad via SCP gedaan. Ik zou niet weten welk alternatief je zoekt, dit is vrij recht toe recht aan zonder poespas
Kijk eens naar FileZillaTheBrones schreef op woensdag 22 mei 2024 @ 20:44:
[...]
Mag ik vragen wat dan een "logische" indeling van de partities is? En hoe groot is de SSD? Via welke weg heb je de containers/VM's overgezet? Zelf lees ik dat je gemakkelijk de backup functie kunt gebruiken en dan met SCP de bestanden over kunt zetten van host, maar ik ben benieuwd of er nog alternatieven zijn welke misschien via de GUI kunnen. Ik ook al aan een USB-disk te gebruiken als tussenopslag medium en dan simpelweg een move te doen.
PSN: PcDCch
ja ze staan op dezelfde storage en aan uit ook gedaan. vreemd genoeg gaat het nu sneller. alleen de eerste 10% niet snel.GoBieN-Be schreef op vrijdag 17 mei 2024 @ 18:13:
Staan ze allemaal op dezelfde storage?
Heb je de betreffende VM als eens uit gezet en weer gestart?
Ik draai 7.1.10 proxmox. voor windows 11 2023H2 moet ik upgraden las ik. Ik las dat er best veel mensen problemen hebben met upgraden.
Kan ik als het volledig mis gaat een nieuwe proxmox installeren en dan de backup share gebruiken om simpel de machines te importeren? (zijn er 15)? Of gaat dat niet zo makkelijk? Ik las dat ik in 2 stappen kan upgraden.
update:
toch maar risico genomen. eerst netjes via de GUI geupdate naar 7.4-18. en toen via dit script https://smarthomescene.co...-8-0-without-losing-data/
naar 8.2.2
werkt perfect
Kan je altijd via de gui packages updaten zonder problemen?
[ Voor 52% gewijzigd door TweakerVincent op 24-05-2024 20:34 ]
Ik kan met windows 11 docker met WSL2 niet meer draaien, ik gebruik x86-64-v2-AES, maar krijg een foutmelding dat ik bios moet instellen, nested hyperv werkt wss niet meer. met cpu host kan ik niet meer booten
. Is er een fix voor? proxmox 8.2.2
Toen ik 7.1 draaide kon ik windows 11 op host draaien en werkte nested virtualization gewoon.
Toen ik 7.1 draaide kon ik windows 11 op host draaien en werkte nested virtualization gewoon.
[ Voor 30% gewijzigd door TweakerVincent op 24-05-2024 22:13 ]
als ik mijn notities erop nasla dan moet ik het volgende doen in de config van de VMTweakerVincent schreef op vrijdag 24 mei 2024 @ 21:47:
Ik kan met windows 11 docker met WSL2 niet meer draaien, ik gebruik x86-64-v2-AES, maar krijg een foutmelding dat ik bios moet instellen, nested hyperv werkt wss niet meer. met cpu host kan ik niet meer booten. Is er een fix voor? proxmox 8.2.2
Toen ik 7.1 draaide kon ik windows 11 op host draaien en werkte nested virtualization gewoon.
code:
1
| args: -cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx |
en dan de CPU weer op 'host'
edit: net even snel voor je getest, idd dit zijn de opties die je moet hebben en kan je weer WSL, HyperV of Sandbox gebruiken in de VM
succes ermee!
[ Voor 10% gewijzigd door Zwelgje op 25-05-2024 06:20 ]
A wise man's life is based around fuck you
Thanks!Zwelgje schreef op zaterdag 25 mei 2024 @ 06:08:
[...]
als ik mijn notities erop nasla dan moet ik het volgende doen in de config van de VM
code:
1 args: -cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx
en dan de CPU weer op 'host'
edit: net even snel voor je getest, idd dit zijn de opties die je moet hebben en kan je weer WSL, HyperV of Sandbox gebruiken in de VM![]()
succes ermee!
Als ik in de shell dit command run krijg ik een error:Zwelgje schreef op zaterdag 25 mei 2024 @ 06:08:
[...]
als ik mijn notities erop nasla dan moet ik het volgende doen in de config van de VM
code:
1 args: -cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx
en dan de CPU weer op 'host'
edit: net even snel voor je getest, idd dit zijn de opties die je moet hebben en kan je weer WSL, HyperV of Sandbox gebruiken in de VM![]()
succes ermee!
qm set 151 —args -cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx
error:
400 too many arguments?
die argumenten kan ik niet in de GUI instellen zeker?
[ Voor 4% gewijzigd door TweakerVincent op 25-05-2024 13:50 ]
Moet je niet qm set 151 -cpu ..... doen?TweakerVincent schreef op zaterdag 25 mei 2024 @ 13:50:
[...]
Als ik in de shell dit command run krijg ik een error:
qm set 151 —args -cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx
error:
400 too many arguments?
die argumenten kan ik niet in de GUI instellen zeker?
net getest, maar werkt helaas niet. dan krijg ik een andere error:
400 parameter verification failed
En --cpu ...(dus 2 x -)?TweakerVincent schreef op zaterdag 25 mei 2024 @ 14:52:
[...]
net getest, maar werkt helaas niet. dan krijg ik een andere error:
400 parameter verification failed
zelfde error. ik denk dat ik echt —args moet gebruiken maar hoe?
Als ik een voorbeeld bekijk op proxmox wiki zie ik dit:TweakerVincent schreef op zaterdag 25 mei 2024 @ 15:01:
[...]
zelfde error. ik denk dat ik echt —args moet gebruiken maar hoe?
Probeer dus je args met 1 - en misschien dat je commando tussen aanhalingstekens moet zetten. Alhoewel mijn tab completion op proxmox bak --args aangeeft.qm set 804 -args "-device nec-usb-xhci,id=xhci,addr=0x1b,bus=pci.1 -device usb-host,bus=xhci.0,vendorid=0x0480,productid=0xa007"
Toevoeging:
je zou die args: .... ook in je conf ( /etc/pve/qemu-server/151.conf ) moeten kunnen toevoegen. Dus daar een regel met:
toevoegen (gok ik).args: -cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx
[ Voor 18% gewijzigd door krijn1985 op 25-05-2024 15:07 ]
TOP! thankskrijn1985 schreef op zaterdag 25 mei 2024 @ 15:05:
[...]
Als ik een voorbeeld bekijk op proxmox wiki zie ik dit:
[...]
Probeer dus je args met 1 - en misschien dat je commando tussen aanhalingstekens moet zetten. Alhoewel mijn tab completion op proxmox bak --args aangeeft.
Toevoeging:
je zou die args: .... ook in je conf ( /etc/pve/qemu-server/151.conf ) moeten kunnen toevoegen. Dus daar een regel met:
[...]
toevoegen (gok ik).
dit werkte idd
qm set 150 -args "-cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx"
ik kan docker weer draaien, mooi
Ik had de arr apps voorheen draaien op unRAID maar ik ben nu aan het experimenteren om ze op Proxmox te draaien. Ik gebruik de helper scripts hiervoor. Nu mijn vraag hoe kan ik bijvoorbeeld sabnznd met shared storage laten samenwerken. Ik heb nu een nfs share gekoppeld via de webui storage --> nfs en dan "mp0:/mnt/pve/data,mp=/data" in de container. Tijdens het downloaden zakt de snelheid op een gegeven moment in en restart Sabnzbd en gaat dan weer verder. Wat doe ik fout?
even de config van de VM editten met nano/viTweakerVincent schreef op zaterdag 25 mei 2024 @ 13:50:
[...]
Als ik in de shell dit command run krijg ik een error:
qm set 151 —args -cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx
error:
400 too many arguments?
die argumenten kan ik niet in de GUI instellen zeker?
staat in /etc/pve/qemu-server/110.conf (nummer van de VM moet je zelf even opzoeken)
en hem daarin toevoegen
A wise man's life is based around fuck you
yes het werkt nu met qu set.Zwelgje schreef op zaterdag 25 mei 2024 @ 17:05:
[...]
even de config van de VM editten met nano/vi
staat in /etc/pve/qemu-server/110.conf (nummer van de VM moet je zelf even opzoeken)
en hem daarin toevoegen
thanks!
Ik gebruik sabnzbd ook via de Helper-scripts. Toevallig nu net aan het omzetten naar LXC, is de laatste die ik in Docker had draaien. Ik draai welliswaar naar local mapped storage, geen NFS, maar geen performance problemen. Ik zou dus verwachten dat het in de throughput/resources van de LXC fout gaat. Download net een testbestand van 10GB en die gaat over de gehele duur met 1gbit/sec hier.MvL schreef op zaterdag 25 mei 2024 @ 16:10:
Ik had de arr apps voorheen draaien op unRAID maar ik ben nu aan het experimenteren om ze op Proxmox te draaien. Ik gebruik de helper scripts hiervoor. Nu mijn vraag hoe kan ik bijvoorbeeld sabnznd met shared storage laten samenwerken. Ik heb nu een nfs share gekoppeld via de webui storage --> nfs en dan "mp0:/mnt/pve/data,mp=/data" in de container. Tijdens het downloaden zakt de snelheid op een gegeven moment in en restart Sabnzbd en gaat dan weer verder. Wat doe ik fout?
Ik draai Deluge en kan zonder issues met dezelfde NFS mount point zonder issues 60MB/s halen.lolgast schreef op maandag 27 mei 2024 @ 09:56:
[...]
Ik gebruik sabnzbd ook via de Helper-scripts. Toevallig nu net aan het omzetten naar LXC, is de laatste die ik in Docker had draaien. Ik draai welliswaar naar local mapped storage, geen NFS, maar geen performance problemen. Ik zou dus verwachten dat het in de throughput/resources van de LXC fout gaat. Download net een testbestand van 10GB en die gaat over de gehele duur met 1gbit/sec hier.
Ik maak op de hosts alleen wel gebruik van autofs, maar dat is nagenoeg hetzelfde als dan het in fstab staat.
Nu moet ik wel zeggen dat het uitpakken en op de plek zetten met *arr wel een aardig stuk langer duurt, dan toen het in docker op m'n Synology draaide.
Anders dan dat, draait het allemaal super met LXC's en een OpenWrt VM voor VPN.
Ik wist niet dat je in de GUI de packages kan updaten. Tijdens de upgrade vrijdag kwam ik daar pas achter.
Kan ik altijd veilig via de GUI -> PVE/upgrades de packages upgraden? Of kan dat problemen opleveren?
Kan ik altijd veilig via de GUI -> PVE/upgrades de packages upgraden? Of kan dat problemen opleveren?
Hoe doe jij het normaal dan?TweakerVincent schreef op dinsdag 28 mei 2024 @ 22:53:
Ik wist niet dat je in de GUI de packages kan updaten. Tijdens de upgrade vrijdag kwam ik daar pas achter.
Kan ik altijd veilig via de GUI -> PVE/upgrades de packages upgraden? Of kan dat problemen opleveren?
"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron
Het is gewoon Debian?
ssh proxmox.host tmux sudo apt update sudo apt dist-upgrade exit exit
tmux voor de vorm. Zelf gebruik ik het de helft van de tijd niet

ja precies, maar GUI kan dus ook gewoon. handig om te weten. en dus gewoon updaten wanneer het kan. topRobertMe schreef op dinsdag 28 mei 2024 @ 23:09:
[...]
Het is gewoon Debian?
ssh proxmox.host tmux sudo apt update sudo apt dist-upgrade exit exit
tmux voor de vorm. Zelf gebruik ik het de helft van de tijd niet. Wel al eens gehad dat tijdens een update de verbinding verbroken werd (was vua apparaat verbonden via wifi, en de wifi verbinding daarop viel even uit). Denk dat apt daar intussen wel tegen kan. Alleen zie je geen output wat dus knap lastig is. Maar in /var/log/apt/term.log kun je ook de terminal output zien.
[ Voor 3% gewijzigd door TweakerVincent op 28-05-2024 23:10 ]