Acties:
  • +1 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Sp33dFr34k schreef op zondag 21 april 2024 @ 16:49:
EDIT: gelukt, lag aan de DKMS versie van Wireguard. Die uninstalled, nog een keer de upgrade gedaan, toen liep alles door en nu boot ie ook met de juiste kernel. Raar dat de 7 naar 8 check dit niet opgevangen heeft, maar I guess dat het niet alles kan checken.
De check gaat vooral configuratiepunten af die eerst logisch en/of ondersteund waren, maar onlogisch en/of niet ondersteund worden met de upgraden. Hoe meer je zelf aanpast aan het OS, hoe meer kans je loopt dat een wijziging ook een raar effect introduceert met een upgrade, maar daarop testen wordt voor de ontwikkelaars van Proxmox lastig. Als ik zo spiek zal de wireguard-package waarschijnlijk aannemen dat de kernel van Debian gebruikt wordt, niet die van Proxmox.

Acties:
  • +1 Henk 'm!

  • Room42
  • Registratie: September 2001
  • Niet online
Sp33dFr34k schreef op zondag 21 april 2024 @ 16:49:
[...]

EDIT2: wat doen jullie om ruimte vrij te maken? Ik heb nog maar 12% vrij van mijn 60GB bootdisk. Er lijkt veel data in var (/var/cache en /var/log) en usr te zitten. Wat is het makkelijkste om op te ruimen naar jullie mening?
Daar zal wel aardig wat APT cache in zitten. Je kunt eens `apt autoremove && apt autoclean` draaien. Als je vooraf en achteraf even een `df -h` draait, weet je hoeveel het opgeschoten heeft.

"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron


Acties:
  • +5 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 08:19
Sp33dFr34k schreef op zondag 21 april 2024 @ 16:49:
Maar eens de update van 7 naar 8 gedaan, van tevoren de repo's aangepast en de check gedaan volgens Proxmox instructies. Na een reboot van de node kwam ie niet meer up. Bij de kernel proxmox-kernel-6.5.13-5-pve-signed krijg ik kernel panic. Als ik doorboot met een oude kernel (5.15.149-1-pve) boot ie wel door... Enig idee hoe ik dit op kan lossen?

EDIT: gelukt, lag aan de DKMS versie van Wireguard. Die uninstalled, nog een keer de upgrade gedaan, toen liep alles door en nu boot ie ook met de juiste kernel. Raar dat de 7 naar 8 check dit niet opgevangen heeft, maar I guess dat het niet alles kan checken.

EDIT2: wat doen jullie om ruimte vrij te maken? Ik heb nog maar 12% vrij van mijn 60GB bootdisk. Er lijkt veel data in var (/var/cache en /var/log) en usr te zitten. Wat is het makkelijkste om op te ruimen naar jullie mening?
ah je had Wireguard geïnstalleerd op de host zelf :?

ik installeer dat soort kleine zaken gewoon lekker in een container, van de host blijf je gewoon af O+

[ Voor 5% gewijzigd door Zwelgje op 22-04-2024 06:23 ]

A wise man's life is based around fuck you


Acties:
  • +2 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 08:43
Zwelgje schreef op maandag 22 april 2024 @ 06:22:
[...]


ah je had Wireguard geïnstalleerd op de host zelf :?

ik installeer dat soort kleine zaken gewoon lekker in een container, van de host blijf je gewoon af O+
En Wireguard zit in de kernel, al heel war jaren en afaik toch ook in bullseye en wellicht ook al in buster. (Met DKMS) een module er voor installeren had dus al niet nodig hoeven te zijn AFAIK.

Edit:
Alhoewel Proxmox natuurlijk een Ubuntu based kernel gebruikt met een wat aangepaste config. Dus wellicht dat WG uit stond? Maar dan installeren (met DKMS) lijkt me dan ook vragen om problemen. Wat dan dus ook fout is gegaan.

[ Voor 19% gewijzigd door RobertMe op 22-04-2024 06:41 ]


Acties:
  • +1 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Zwelgje schreef op maandag 22 april 2024 @ 06:22:
[...]


ah je had Wireguard geïnstalleerd op de host zelf :?

ik installeer dat soort kleine zaken gewoon lekker in een container, van de host blijf je gewoon af O+
Ik gebruik LXC's, waardoor ik afhankelijk ben van mijn Proxmox kernel. Iets mistte daar voor Wireguard, vandaar dat ik dit toendertijd gedaan heb, na wat googlen. Achteraf geen goeie beslissing, maarja met beperkte kennis kom je maar tot een bepaald punt. Toen werkte het in ieder geval prima. Nu zit Wireguard idd gewoon in de kernel, dus sowieso niet meer nodig. Dat is wel het nadeel van LXC's gebruiken, de Proxmox kernel ligt wat achter. @Room42 dankje ik zal het eens proberen.

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +3 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 08:43
Sp33dFr34k schreef op maandag 22 april 2024 @ 11:12:
Dat is wel het nadeel van LXC's gebruiken, de Proxmox kernel ligt wat achter.
De Proxmox kernel ligt AFAIK juist voor op Debian. Ze gebruiken een kernel van Ubuntu die nieuwer is dan van Debian. Het probleem in deze zal naar mijn idee eerder zijn geweest dat ze toentertijd besloten hebben Wireguard support uit te zetten (/niet mee te compileren).

Acties:
  • +3 Henk 'm!

  • smesjz
  • Registratie: Juli 2002
  • Niet online
Sp33dFr34k schreef op maandag 22 april 2024 @ 11:12:
[...]


Ik gebruik LXC's, waardoor ik afhankelijk ben van mijn Proxmox kernel. Iets mistte daar voor Wireguard, vandaar dat ik dit toendertijd gedaan heb, na wat googlen. Achteraf geen goeie beslissing, maarja met beperkte kennis kom je maar tot een bepaald punt. Toen werkte het in ieder geval prima. Nu zit Wireguard idd gewoon in de kernel, dus sowieso niet meer nodig. Dat is wel het nadeel van LXC's gebruiken, de Proxmox kernel ligt wat achter. @Room42 dankje ik zal het eens proberen.
Proxmox volgt Ubuntu, je kan nu 6.8.4 gebruiken. Zit wel in test maar de huidige stable is 6.8.7 maar mijn ervaring is dat je zelden een super recente kernel nodig hebt tenzij je latest gen hw hebt.

E.e.a. is hier uitgelegd: https://pve.proxmox.com/wiki/Proxmox_VE_Kernel

Ik kijk meestal hier wat meest recente is: https://git.proxmox.com/?p=pve-kernel.git;a=summary en hun forum is ook erg goed

Acties:
  • 0 Henk 'm!

  • smesjz
  • Registratie: Juli 2002
  • Niet online
Net even Ubuntu 24.04 in een LXC container geprobeerd op Promox.


code:
1
2
3
4
root@nuc:/var/log# pct start 105
run_buffer: 571 Script exited with status 255
lxc_init: 845 Failed to run lxc.hook.pre-start for container "105"
__lxc_start: 2034 Failed to initialize container "105"


Alleen "lxc-start -F -l DEBUG --logfile /tmp/105.log 105" geeft dit aan:

code:
1
lxc-start 105 20240424120044.369 DEBUG    utils - ../src/lxc/utils.c:run_buffer:560 - Script exec /usr/share/lxc/hooks/lxc-pve-prestart-hook 105 lxc pre-start produced output: unsupported Ubuntu version '24.04'


Weer simpel op te lossen door 24.04 toe te voegen "/usr/share/perl5/PVE/LXC/Setup/Ubuntu.pm" , wel opvallend dat dit niet door Proxmox - met 1 dag voor release van 24.04 - al is uitgeleverd.

Ik had hier al 2 keer eerder last van.

Acties:
  • +2 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Zojuist is Proxmox 8.2 uitgekomen, met als optionele kernel nu versie 6.8 (loopt dus echt nauwelijks nog achter). Misschien ook met support voor Ubuntu 24.04?

Wel mooi met de timing dat ik vanochtend net een nieuw cluster aan het bouwen was. Loop ik meteen weer achter :P

Acties:
  • 0 Henk 'm!

  • smesjz
  • Registratie: Juli 2002
  • Niet online
dcm360 schreef op woensdag 24 april 2024 @ 15:33:
Zojuist is Proxmox 8.2 uitgekomen, met als optionele kernel nu versie 6.8 (loopt dus echt nauwelijks nog achter). Misschien ook met support voor Ubuntu 24.04?

Wel mooi met de timing dat ik vanochtend net een nieuw cluster aan het bouwen was. Loop ik meteen weer achter :P
Nope, zit er nog niet in. 23.10 is de laatste hier: https://github.com/proxmo...VE/LXC/Setup/Ubuntu.pm#L4

Acties:
  • 0 Henk 'm!

  • John245
  • Registratie: Januari 2020
  • Laatst online: 08:46
We hebben ook nog ff tot juni. Ubuntu pusht niet gelijk de 1ste stabiele versie.

Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8


Acties:
  • +1 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 08:30
dcm360 schreef op woensdag 24 april 2024 @ 15:33:
Zojuist is Proxmox 8.2 uitgekomen, met als optionele kernel nu versie 6.8 (loopt dus echt nauwelijks nog achter). Misschien ook met support voor Ubuntu 24.04?

Wel mooi met de timing dat ik vanochtend net een nieuw cluster aan het bouwen was. Loop ik meteen weer achter :P
Net geupdate, had wel dat de netwerk interface namen van de Intel X710 waren veranderd.
Gelukkig heb ik een direct touwtje tussen mijn NAS en de server zitten en kon ik via de NAS in de server SSH'en om de interface configuratie te updaten.

Acties:
  • +1 Henk 'm!

  • John245
  • Registratie: Januari 2020
  • Laatst online: 08:46
maxxie85 schreef op woensdag 24 april 2024 @ 18:20:
[...]


Net geupdate, had wel dat de netwerk interface namen van de Intel X710 waren veranderd.
Gelukkig heb ik een direct touwtje tussen mijn NAS en de server zitten en kon ik via de NAS in de server SSH'en om de interface configuratie te updaten.
Ik gebruik hiervoor IPMI. Vind ik persoonlijk prettiger.

Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8


Acties:
  • 0 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 08:30
John245 schreef op woensdag 24 april 2024 @ 18:23:
[...]

Ik gebruik hiervoor IPMI. Vind ik persoonlijk prettiger.
Dat had ik ook op mijn vorige server. Nu heb ik een MS-01, heeft wel vPro maar dat heb ik niet geconfigureerd.

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

maxxie85 schreef op woensdag 24 april 2024 @ 18:20:
[...]


Net geupdate, had wel dat de netwerk interface namen van de Intel X710 waren veranderd.
Gelukkig heb ik een direct touwtje tussen mijn NAS en de server zitten en kon ik via de NAS in de server SSH'en om de interface configuratie te updaten.
Ook maar even de update gedraaid thuis, en hetzelfde probleem met de X710 (staat nu np0/np1 achter de interface naam). Bij gebrek aan handige planning (ik had de overgebleven netwerkpoort even kunnen verbinden aan een switch) werd dat even een monitor en toetsenbord verslepen, maar het was wel makkelijk oplossen met het idee dat ik al wist waar ik naar zou moeten kijken.

Acties:
  • +1 Henk 'm!

  • smesjz
  • Registratie: Juli 2002
  • Niet online
dcm360 schreef op vrijdag 26 april 2024 @ 15:57:
[...]

Ook maar even de update gedraaid thuis, en hetzelfde probleem met de X710 (staat nu np0/np1 achter de interface naam). Bij gebrek aan handige planning (ik had de overgebleven netwerkpoort even kunnen verbinden aan een switch) werd dat even een monitor en toetsenbord verslepen, maar het was wel makkelijk oplossen met het idee dat ik al wist waar ik naar zou moeten kijken.
Draadje op Proxmox forum over 6.8 laat zien dat er meerdere mensen al tegenaan liepen: https://forum.proxmox.com...144557/page-5#post-657263 en er is ook een oplossing voor (mac address matching).

Acties:
  • 0 Henk 'm!

  • stormfly
  • Registratie: Juli 2001
  • Laatst online: 08:43
maxxie85 schreef op woensdag 24 april 2024 @ 18:20:
[...]


Net geupdate, had wel dat de netwerk interface namen van de Intel X710 waren veranderd.
Gelukkig heb ik een direct touwtje tussen mijn NAS en de server zitten en kon ik via de NAS in de server SSH'en om de interface configuratie te updaten.
Klopt staat ook in de releasenotes vermeld, dat maakte het moment voor de update even afhankelijk van hersteltijd ruimte in de werkagenda. Mijn NICs werden niet omgenummerd, binnen een paar minuten weer up _/-\o_

Hoe doen jullie dat met kernelupdates? Draai je dit altijd dezelfde week, eens per maand, per jaar?

[ Voor 8% gewijzigd door stormfly op 26-04-2024 16:30 ]


Acties:
  • +1 Henk 'm!

  • John245
  • Registratie: Januari 2020
  • Laatst online: 08:46
stormfly schreef op vrijdag 26 april 2024 @ 16:29:
[...]


Klopt staat ook in de releasenotes vermeld, dat maakte het moment voor de update even afhankelijk van hersteltijd ruimte in de werkagenda. Mijn NICs werden niet omgenummerd, binnen een paar minuten weer up _/-\o_

Hoe doen jullie dat met kernelupdates? Draai je dit altijd dezelfde week, eens per maand, per jaar?
Ik heb enterprise en draai deze indien beschikbaar.

Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8


Acties:
  • +1 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 08:30
stormfly schreef op vrijdag 26 april 2024 @ 16:29:
[...]


Klopt staat ook in de releasenotes vermeld, dat maakte het moment voor de update even afhankelijk van hersteltijd ruimte in de werkagenda. Mijn NICs werden niet omgenummerd, binnen een paar minuten weer up _/-\o_

Hoe doen jullie dat met kernelupdates? Draai je dit altijd dezelfde week, eens per maand, per jaar?
Ondertussen staat het in de release notes :+

Acties:
  • +1 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 08:19
stormfly schreef op vrijdag 26 april 2024 @ 16:29:
[...]


Klopt staat ook in de releasenotes vermeld, dat maakte het moment voor de update even afhankelijk van hersteltijd ruimte in de werkagenda. Mijn NICs werden niet omgenummerd, binnen een paar minuten weer up _/-\o_

Hoe doen jullie dat met kernelupdates? Draai je dit altijd dezelfde week, eens per maand, per jaar?
direct erop, ik check elke week naar updates en installeer alles gewoon. beetje risico moet je nemen in het leven en ach als het fout gaat krijg je weer een kans om iets te leren :*)

A wise man's life is based around fuck you


Acties:
  • +1 Henk 'm!

  • eehbiertje
  • Registratie: Oktober 2009
  • Laatst online: 03-10 11:44
Ik heb een vraag over Proxmox en een Gpu

Voorheen altijd een pc draaien met windows erop wat smb shares
en plex / sickchill etc..

voor de specs zie
https://tweakers.net/gall...nventaris/?inv_id=1160681

Nu heb ik een GTX1050 die ik will gebruiken in zowel plex als voor frigate.
Ik begrijp dat je Vgpu dan moet aanzetten om hem te kunnen delen. (ben basic in linux)

Nu volg ik deze "guide" na dagen van alles geprobeerd te hebben.
om de gpu werkend te krijgen in Frigate.

https://gitlab.com/polloloco/vgpu-proxmox

Maar blijf ik steken op het gedeelte voor de drivers. (aangezien je met bedrijfsmail moet aanmelden voor de vgpu drivers 16.4 (535.161.05) voor de gtx1050 als ik het goed heb

Is er een andere manier om of weet iemand hoe? de GPU werkend te krijgen onder zowel frigate als plex?


heb de link op deze pagina gebruikt om de drivers binnen te halen _/-\o_

https://wvthoog.nl/proxmox-vgpu-v3/

[ Voor 6% gewijzigd door eehbiertje op 28-04-2024 19:08 ]


Acties:
  • +1 Henk 'm!

  • mekonghigh
  • Registratie: Juli 2019
  • Laatst online: 02-10 17:54
eehbiertje schreef op zondag 28 april 2024 @ 18:58:

Is er een andere manier om of weet iemand hoe? de GPU werkend te krijgen onder zowel frigate als plex?[/s]
Check dit: https://github.com/tteck/Proxmox/discussions/2850

En hier staan de scripts: https://tteck.github.io/Proxmox/

Acties:
  • 0 Henk 'm!

  • eehbiertje
  • Registratie: Oktober 2009
  • Laatst online: 03-10 11:44
@mekonghigh

bedankt de scripts had ik al.

Volgens mij ben ik hier de afgelopen dagen mee bezig geweest.
Bij de plex LXC kreeg ik continu een foutmelding (en wou deze niet starten)

volgens mij een Render128 fout dat de kaart niet aanwezig was.
maar heb zoveel lopen vogelen op den duur dat ik nu maar een verse installatie gedaan heb.

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 08:06
Ik ben aan het oriënteren naar een nieuwe zelfbouw NAS / VM server. Naast ProxMox wordt XEN ook wel veel genoemd maar denk dat mijn keuze toch op ProxMox gaat vallen ivm container support.
Maar voordat ik allerlei hardware ga aanschaffen wil ik eerst mijn "plan" een beetje toetsen op haalbaarheid ;)
Doel:
Vervangen van Windows domotica server *1, nu een gewone installatie, wil dat naar VM brengen. Alternatief is docker container maar zit met behoorlijk wat windows .NET scripts in huidige setup.
Vervangen van Windows based NAS server, (is nu nog WHS 2 welke gebaseerd is op Server 2008 :X )
Vervangen van Raspberry pi 3, deze heeft nu alleen nog een pi-hole actief > container pi-hole

*1 domotica server heeft diverse USB dongles voor Z-wave, Zigbee en P1 monitoring, deze kunnen fysiek wel op een raspberry pi 5 aangesloten worden. Maar dan moet ik nog even wat knutselen voor TCP conversie. (is een andere uitdaging ;) )

Wat wil ik gaan bereiken/ wat ik in gedachte heb:
1 grote storage pool waarbij ik denk aan RAID 6 of ZFS (beide hebben de voor en nadelen)
Raid 6 : voordeel 2 disks kunnen kapot gaan zonder data loss, nadelen?
ZFS: voordeel veel additionele voordelen zoals o.a. duplicaat detectie, maar hoe robuust tegen disk failure?
ECC RAM is aanbevolen == duurder

Wat mij dus heel erg duidelijk is, of Proxmox nu mijn data storage "beheert" op disk niveau / filesystem?
Dus zou het volgende mogelijke zijn waarbij ik in ProxMox bepaal of ik RAID 6 of ZFS ga draaien?
ProxMox
-<dynamische hoeveelheid TB, bepaald door PM>-- Truenas / FreeNAS / anders NAS georiënteerd OS
-<50GB>-- Windows VM
-<1GB>-- Pi-Hole container
--- etc etc

Hardware wordt waarschijnlijk AMD 8700G, 32 of 64GB ECC RAM (bij ZFS), mobo welke ook ECC doet, op dit moment 4 disk maar toekomst plek voor 15

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • +3 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

De keuze tussen raid6 en ZFS zou een eenvoudige moeten zijn: met een ZFS-pool in raid-z2 krijg je hetzelfde redundantieniveau als bij raid6, maar dan met alle features van ZFS erbij. Voor raid6 zal je (voor Proxmox) echter nog wel een hardware-raid-kaart moeten toevoegen.

Of je ECC wil is vooral een kwestie van bedenken hoe belangrijk jij de data in het RAM vindt. De koppeling aan de 'aanbeveling/eis' van ZFS vind ik altijd onzinnig: waarom is ZFS wel belangrijk genoeg voor ECC, maar alle andere data in het geheugen niet? Om die reden maak ik onafhankelijk van de keuze voor ZFS al de keuze om voor ECC-RAM te gaan in mijn servers, en zou ik het ook altijd aanbevelen, maar uiteraard ben je vrij in jouw eigen keuze.

Het inrichten van een NAS-OS bovenop Proxmox is wel iets complexer helaas. Idealiter zou je een ZFS-dataset kunnen doorgeven voor gebruik, maar in het geval van VM's zit je vast aan virtuele disks die minder flexibel zijn. Er bestaat ook wel NAS-software die je in een container kan installeren en dan kan je wel een dataset koppelen. Mijn ervaring op dit punt is echter vrij beperkt (ik regel samba via Yast in een container met OpenSuse, en los daarvan draai ik nog Nextcloud).

Acties:
  • 0 Henk 'm!

  • Jorco
  • Registratie: September 2005
  • Laatst online: 22:48
Wellicht eenvoudig op te lossen maar sinds een wijziging in mijn setup kan ik de Proxmox-interface alleen bereiken wanneer ik eerst een ping via de command-shell heb gedaan.

Situatie voorheen:
KPN Experiabox --> NUC met Proxmox

Sinds kort:
Ziggo modem (in bridge-modus) --> Deco --> NUC met Proxmox

IP-adres Proxmox klopt, Gateway IP verwijst Deco.
Andere interne IP adressen van dockers/containers werken wel meteen.

Zodra ik via de command shell een ping naar Proxmox heb gedaan en vervolgens IP weer invoer in de browser opent de interface zich meteen.

Wat zie ik mogelijk over het hoofd/ben ik vergeten?

PSN ID = Jorco


Acties:
  • 0 Henk 'm!

  • klokslag
  • Registratie: Juli 2012
  • Laatst online: 21:16
Goedemiddag,

Ik ben een server aan het bouwen.

Zal een AMD ryzen 5 5600G worden met 64 GB RAM.

Ik moet in mijn huidge set-up af en toe mijn OS herinstalleren omdat ik iets verknal en hoop met virtualisatie en proxmox dat te vergemakkelijken.

Doel van de server is
-NAS waar ik al mijn opslag centraliseer en ook een kopie bewaar van mijn cloud opslag.
-Media server met plex
-Docker met Photoprism als zwaarste container.
-SQL met enkele training databases.
-Een virtuele windows 11 Pro omgeving voor homelab dev taken die ik opspin wanneer nodig.
-Een virtuele Ubuntu 24.04 desktop omgeving voor homelab dev taken die ik opspin wanneer nodig.

Hoe lus ik het gemakkelijkst de storage door, zou de bedoeling zijn dat photoprism aan de foto's op mijn NAS kan alsook plex.

Creer ik een virtuele machine met enig doel opslag? En creer ik voor de andere taken ook iedere keer een eigen virtuele machine met toegang tot de VM opslag/NAS? Omdat alles op dezelfde hypervisor loopt zou dit supersnel moeten gaan volgens mij. Of is er een eenvoudigere optie om de storage in proxmox te beheren?

Bedankt voor input alvast,

Acties:
  • +1 Henk 'm!

  • ZatarraNL
  • Registratie: Mei 2015
  • Laatst online: 07-10 23:17
klokslag schreef op zaterdag 4 mei 2024 @ 11:31:
Goedemiddag,

Ik ben een server aan het bouwen.

Zal een AMD ryzen 5 5600G worden met 64 GB RAM.

Ik moet in mijn huidge set-up af en toe mijn OS herinstalleren omdat ik iets verknal en hoop met virtualisatie en proxmox dat te vergemakkelijken.

Doel van de server is
-NAS waar ik al mijn opslag centraliseer en ook een kopie bewaar van mijn cloud opslag.
-Media server met plex
-Docker met Photoprism als zwaarste container.
-SQL met enkele training databases.
-Een virtuele windows 11 Pro omgeving voor homelab dev taken die ik opspin wanneer nodig.
-Een virtuele Ubuntu 24.04 desktop omgeving voor homelab dev taken die ik opspin wanneer nodig.

Hoe lus ik het gemakkelijkst de storage door, zou de bedoeling zijn dat photoprism aan de foto's op mijn NAS kan alsook plex.

Creer ik een virtuele machine met enig doel opslag? En creer ik voor de andere taken ook iedere keer een eigen virtuele machine met toegang tot de VM opslag/NAS? Omdat alles op dezelfde hypervisor loopt zou dit supersnel moeten gaan volgens mij. Of is er een eenvoudigere optie om de storage in proxmox te beheren?

Bedankt voor input alvast,
Allereerst, ik heb een proxmox cluster met AMD Ryzen. Werkt prima, maar ik krijg hem niet zuinig genoeg naar mijn zin. De node met 4 WD schijven en een paar ssds doet toch 80 Watt continu. Idle blijkt Intel toch beter te scoren. Neem dat tenminste mee in je overweging. Als ik het opnieuw zou doen, zou ik voor Intel gaan.

Wat betreft je opslag, er zijn een heleboel wegen naar rome. Ik heb een tijdje gewoon een smb op de host gedraaid. Het is tenslotte gewoon debian. Plex draai ik in een LXC container. Werkt prima. Maar het is chiquer om de host zoveel mogelijk met rust te laten. Kan er ook niks fout gaan. Daarom draai ik nu een apparte SMB container met opslag op mijn zfs pool. De Plex container haalt daar zijn data vanaf. Je kan beide containers eenvoudig backuppen en eenvoudig een snapshot van maken als je gaat klooien. En als het mis gaat heb je alles binnen een minuut weer terug.

Acties:
  • +1 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 22:28

Cyphax

Moderator LNX
klokslag schreef op zaterdag 4 mei 2024 @ 11:31:
Goedemiddag,

Ik ben een server aan het bouwen.

Zal een AMD ryzen 5 5600G worden met 64 GB RAM.

Ik moet in mijn huidge set-up af en toe mijn OS herinstalleren omdat ik iets verknal en hoop met virtualisatie en proxmox dat te vergemakkelijken.

Doel van de server is
-NAS waar ik al mijn opslag centraliseer en ook een kopie bewaar van mijn cloud opslag.
-Media server met plex
-Docker met Photoprism als zwaarste container.
-SQL met enkele training databases.
-Een virtuele windows 11 Pro omgeving voor homelab dev taken die ik opspin wanneer nodig.
-Een virtuele Ubuntu 24.04 desktop omgeving voor homelab dev taken die ik opspin wanneer nodig.

Hoe lus ik het gemakkelijkst de storage door, zou de bedoeling zijn dat photoprism aan de foto's op mijn NAS kan alsook plex.

Creer ik een virtuele machine met enig doel opslag? En creer ik voor de andere taken ook iedere keer een eigen virtuele machine met toegang tot de VM opslag/NAS? Omdat alles op dezelfde hypervisor loopt zou dit supersnel moeten gaan volgens mij. Of is er een eenvoudigere optie om de storage in proxmox te beheren?

Bedankt voor input alvast,
Een centrale vm die als nas dient kan op zich wel, ik heb dat een tijd lang gedaan met een vm die openmediavault draaide. Daar had ik de sata controller naartoe doorgelust en dan kon ik het lvm-volume in de vm importeren en via samba ontsluiten aan de rest van het netwerk (en dus ook de andere guests).
Ik kreeg af en toe sata-errors in de console van die vm, en toen ik daarop ging zoeken kwam ik ook posts van mensen tegen waarbij de boel crashte. Wat nu echt de beste manier is om storage door te lussen naar een vm weet ik zo niet. Die vm draait nu ook niet meer, de data voor nextcloud, jellyfin en proxmox-backup komt vanaf de host, maar nu via een mount point, en voor nu heb ik even geen smb-shares meer. Ik gebruik verder zoveel mogelijk containers (lxc ipv docker vanwege de proxmox-ondersteuning voor alleen lxc), mijn server heeft maar 16GB en die gaan heel snel op met vm's. :)

Misschien is het wel een idee om een lxc-container op te zetten met iets als openmediavault (er zijn alternatieven voor), die je dan via een mount point/bind mount doorgeeft vanaf de host.

[ Voor 4% gewijzigd door Cyphax op 04-05-2024 19:38 ]

Saved by the buoyancy of citrus


Acties:
  • +1 Henk 'm!

  • ZatarraNL
  • Registratie: Mei 2015
  • Laatst online: 07-10 23:17
Cyphax schreef op zaterdag 4 mei 2024 @ 19:34:
[...]

Een centrale vm die als nas dient kan op zich wel, ik heb dat een tijd lang gedaan met een vm die openmediavault draaide. Daar had ik de sata controller naartoe doorgelust en dan kon ik het lvm-volume in de vm importeren en via samba ontsluiten aan de rest van het netwerk (en dus ook de andere guests).
Ik kreeg af en toe sata-errors in de console van die vm, en toen ik daarop ging zoeken kwam ik ook posts van mensen tegen waarbij de boel crashte. Wat nu echt de beste manier is om storage door te lussen naar een vm weet ik zo niet. Die vm draait nu ook niet meer, de data voor nextcloud, jellyfin en proxmox-backup komt vanaf de host, maar nu via een mount point, en voor nu heb ik even geen smb-shares meer. Ik gebruik verder zoveel mogelijk containers (lxc ipv docker vanwege de proxmox-ondersteuning voor alleen lxc), mijn server heeft maar 16GB en die gaan heel snel op met vm's. :)

Misschien is het wel een idee om een lxc-container op te zetten met iets als openmediavault (er zijn alternatieven voor), die je dan via een mount point/bind mount doorgeeft vanaf de host.
LXC-container met OMV kan, maar wel alleen een privileged container, en dat wil je liever niet. Ik heb zelf een VM met OMV en een LXC op basis van een TurnKey template voor fileshare. Dit kan wel unprivileged.

Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 22:28

Cyphax

Moderator LNX
ZatarraNL schreef op zaterdag 4 mei 2024 @ 19:51:
[...]


LXC-container met OMV kan, maar wel alleen een privileged container, en dat wil je liever niet.
Waarom kan dat niet met een unprivileged container? Wil omv zelf dan niet werken?

Saved by the buoyancy of citrus


Acties:
  • +2 Henk 'm!

  • ZatarraNL
  • Registratie: Mei 2015
  • Laatst online: 07-10 23:17
Cyphax schreef op zaterdag 4 mei 2024 @ 20:38:
[...]

Waarom kan dat niet met een unprivileged container? Wil omv zelf dan niet werken?
Geen idee precies, maar iets met rechten om samba te kunnen runnen. Een samba server draait in beginsel niet in een unprivileged LXC.

Acties:
  • +1 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 22:28

Cyphax

Moderator LNX
ZatarraNL schreef op zaterdag 4 mei 2024 @ 20:57:
[...]

Geen idee precies, maar iets met rechten om samba te kunnen runnen. Een samba server draait in beginsel niet in een unprivileged LXC.
Dat is met smb shares mounten in een unprivileged container ook een issue, dat is misschien dan niet zo handig. Het is ergens wel jammer, de overhead van een vm zou je er niet nodig voor moeten hebben, zou je denken. :)

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • ZatarraNL
  • Registratie: Mei 2015
  • Laatst online: 07-10 23:17
Cyphax schreef op zaterdag 4 mei 2024 @ 21:16:
[...]

Dat is met smb shares mounten in een unprivileged container ook een issue, dat is misschien dan niet zo handig. Het is ergens wel jammer, de overhead van een vm zou je er niet nodig voor moeten hebben, zou je denken. :)
Precies de reden dat ik daarvoor op onderzoek ben geweest. De Turnkey fileserver template kan het blijkbaar wel. Waarom dat bij deze template wel kan is mij niet helder. Iemand die weet waarom?

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

ZatarraNL schreef op zaterdag 4 mei 2024 @ 16:06:
[...]


Allereerst, ik heb een proxmox cluster met AMD Ryzen. Werkt prima, maar ik krijg hem niet zuinig genoeg naar mijn zin. De node met 4 WD schijven en een paar ssds doet toch 80 Watt continu. Idle blijkt Intel toch beter te scoren. Neem dat tenminste mee in je overweging. Als ik het opnieuw zou doen, zou ik voor Intel gaan.
Ook voor een AMD-systeem is 80W veel. Sub-15W (zonder HDD's dan wel) is met de juiste keuzes ook met een AMD-systeem haalbaar.

Acties:
  • +1 Henk 'm!

  • ZatarraNL
  • Registratie: Mei 2015
  • Laatst online: 07-10 23:17
dcm360 schreef op zondag 5 mei 2024 @ 11:32:
[...]

Ook voor een AMD-systeem is 80W veel. Sub-15W (zonder HDD's dan wel) is met de juiste keuzes ook met een AMD-systeem haalbaar.
Dat vraag ik me af. In het grote zuinige server topic gaat het ook vooral om intel.

Ik heb het geprobeerd. En ik krijg hem niet lager. Heb de 10GBaseT al vervangen door SPF+ met een X710, wat de node met zon 20Watt verlaagd heeft naar 80Watt. Er zitten verder 4 WD 8TB, 4 sata enterprise ssd's en twee NVME ssd's in. En dan draaien de containers en VM 's op een andere node. Dus deze is aardig idle, maar wel met Ceph.

Uiteraard draait powertop --autotune. En ik heb in de bios wat zaken uitgezet. Maar verder is het me niet gelukt e.e.a. te verlagen.

[ Voor 7% gewijzigd door ZatarraNL op 05-05-2024 19:34 ]


Acties:
  • +1 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

ZatarraNL schreef op zondag 5 mei 2024 @ 19:31:
[...]

Dat vraag ik me af. In het grote zuinige server topic gaat het ook vooral om intel.
Nouja, het kan. Mijn eigen metingen zijn iets terug in dat topic te vinden. Dat systeem ziet er tegenwoordig zo uit:
#CategoryProductPrijsSubtotaal
1ProcessorsAMD Ryzen 5 Pro 5650GE Tray€ 0,-€ 0,-
1MoederbordenBiostar Racing B350GTN€ 0,-€ 0,-
1NetwerkadaptersIntel X710-DA2€ 0,-€ 0,-
1ProcessorkoelingArctic Alpine AM4 Passive€ 0,-€ 0,-
2VentilatorsNoctua NF-R8 redux 1800 PWM, 80mm€ 12,90€ 25,80
2Geheugen internCrucial CT8G4WFD8266€ 0,-€ 0,-
1VoedingenMini-box picoPSU 90€ 36,68€ 36,68
1Solid state drivesIntel 600p 512GB€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 62,48

Met een paar VM's, een paar containers en een XGS-PON-SFP+-module draait dat nu 'idle' (de router-VM heeft meestal wel wat te doen) tussen de 20W a 23W. Zonder de XGS-PON-module kwam ik onder de 20W uit.
Ik heb het geprobeerd. En ik krijg hem niet lager. Heb de 10GBaseT al vervangen door SPF+ met een X710, wat de node met zon 20Watt verlaagd heeft naar 80Watt. Er zitten verder 4 WD 8TB, 4 sata enterprise ssd's en twee NVME ssd's in. En dan draaien de containers en VM 's op een andere node. Dus deze is aardig idle, maar wel met Ceph.

Uiteraard draait powertop --autotune. En ik heb in de bios wat zaken uitgezet. Maar verder is het me niet gelukt e.e.a. te verlagen.
Wat betreft opzet komt mijn andere systeem hier misschien beter bij in de buurt:
#CategoryProductPrijsSubtotaal
1ProcessorsAMD Ryzen 7 3700X Boxed€ 0,-€ 0,-
1MoederbordenAsrock Rack X470D4U€ 362,40€ 362,40
3Interne harde schijvenSeagate Barracuda Compute 3,5", 8TB€ 132,16€ 396,48
3Interne harde schijvenToshiba MG07ACA14TE (512e), 14TB€ 234,-€ 702,-
1ControllersAsus HYPER M.2 X16 CARD V2€ 41,71€ 41,71
1BehuizingenFractal Design Define Mini€ 0,-€ 0,-
1KabelsDelock 0.75m, SFF-8643/U.2 SFF-8639+SATA€ 0,-€ 0,-
1NetwerkadaptersASUS XG-C100F€ 87,27€ 87,27
4Geheugen internKingston KSM26ED8/16ME€ 0,-€ 0,-
1VoedingenSeasonic Focus Gold 450W€ 0,-€ 0,-
3Solid state drivesIntel 660p 2TB€ 228,69€ 686,07
1Solid state drivesIntel DC P4510 1TB€ 106,95€ 106,95
1Overige componentenAsus Hyper Kit M.2 To U.2 (Mini SAS) Adapter€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 2.382,88

De Seagate-schijven staan eigenlijk altijd in spindown (tenzij ik backups aan het schrijven ben of met de maandelijkse scrub), de Toshiba-schijven staan altijd aan (iets te veel access er op voor spindown). Met een paar VM's en een twintigtal containers heeft ook deze machine altijd wel iets te doen, maar zit idle zo tussen de 55W a 60W.

Acties:
  • 0 Henk 'm!

  • ZatarraNL
  • Registratie: Mei 2015
  • Laatst online: 07-10 23:17
dcm360 schreef op zondag 5 mei 2024 @ 20:53:
[...]

Nouja, het kan. Mijn eigen metingen zijn iets terug in dat topic te vinden. Dat systeem ziet er tegenwoordig zo uit:
#CategoryProductPrijsSubtotaal
1ProcessorsAMD Ryzen 5 Pro 5650GE Tray€ 0,-€ 0,-
1MoederbordenBiostar Racing B350GTN€ 0,-€ 0,-
1NetwerkadaptersIntel X710-DA2€ 0,-€ 0,-
1ProcessorkoelingArctic Alpine AM4 Passive€ 0,-€ 0,-
2VentilatorsNoctua NF-R8 redux 1800 PWM, 80mm€ 12,90€ 25,80
2Geheugen internCrucial CT8G4WFD8266€ 0,-€ 0,-
1VoedingenMini-box picoPSU 90€ 36,68€ 36,68
1Solid state drivesIntel 600p 512GB€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 62,48

Met een paar VM's, een paar containers en een XGS-PON-SFP+-module draait dat nu 'idle' (de router-VM heeft meestal wel wat te doen) tussen de 20W a 23W. Zonder de XGS-PON-module kwam ik onder de 20W uit.

[...]

Wat betreft opzet komt mijn andere systeem hier misschien beter bij in de buurt:
#CategoryProductPrijsSubtotaal
1ProcessorsAMD Ryzen 7 3700X Boxed€ 0,-€ 0,-
1MoederbordenAsrock Rack X470D4U€ 362,40€ 362,40
3Interne harde schijvenSeagate Barracuda Compute 3,5", 8TB€ 132,16€ 396,48
3Interne harde schijvenToshiba MG07ACA14TE (512e), 14TB€ 234,-€ 702,-
1ControllersAsus HYPER M.2 X16 CARD V2€ 41,71€ 41,71
1BehuizingenFractal Design Define Mini€ 0,-€ 0,-
1KabelsDelock 0.75m, SFF-8643/U.2 SFF-8639+SATA€ 0,-€ 0,-
1NetwerkadaptersASUS XG-C100F€ 87,27€ 87,27
4Geheugen internKingston KSM26ED8/16ME€ 0,-€ 0,-
1VoedingenSeasonic Focus Gold 450W€ 0,-€ 0,-
3Solid state drivesIntel 660p 2TB€ 228,69€ 686,07
1Solid state drivesIntel DC P4510 1TB€ 106,95€ 106,95
1Overige componentenAsus Hyper Kit M.2 To U.2 (Mini SAS) Adapter€ 0,-€ 0,-
Bekijk collectie
Importeer producten
Totaal€ 2.382,88

De Seagate-schijven staan eigenlijk altijd in spindown (tenzij ik backups aan het schrijven ben of met de maandelijkse scrub), de Toshiba-schijven staan altijd aan (iets te veel access er op voor spindown). Met een paar VM's en een twintigtal containers heeft ook deze machine altijd wel iets te doen, maar zit idle zo tussen de 55W a 60W.
Deze heb ik. 80 Watt idle. 95W bij wat activiteit. De andere nodes zijn ook AMD, maar zonder hdd's en vragen 40-50 Watt. Ik zou niet weten hoe ik die richting de 20 Watt moet krijgen.
#CategoryProductPrijsSubtotaal
1ProcessorsAMD Ryzen 7 5800X Boxed€ 189,-€ 189,-
1MoederbordenASRock B550 Steel Legend€ 173,-€ 173,-
1VideokaartenMSI GeForce GT 710 2GD3H LP€ 47,18€ 47,18
4Interne harde schijvenWD Red Plus "5400rpm class", 8TB€ 366,99€ 1.467,96
1ControllersDelock 8Port SATA PCIe€ 0,-€ 0,-
1BehuizingenInter-Tech IPC 3U-30255€ 129,49€ 129,49
1NetwerkadaptersIntel Ethernet Converged Network Adapter X710-DA2€ 208,-€ 208,-
1ProcessorkoelingNoctua NH-L12S€ 59,90€ 59,90
1VentilatorsNoctua NF-A12x25 PWM Bruin, 120mm€ 29,25€ 29,25
2Geheugen internKingston KSM26ED8/32ME€ 0,-€ 0,-
1VoedingenCorsair RM550x (2018) (EU-model) Zwart€ 0,-€ 0,-
1Solid state drivesCrucial MX500 2,5" 500GB€ 53,90€ 53,90
1Solid state drivesIntel DC D3-S4510 2,5" 1,92TB€ 379,64€ 379,64
1Solid state drivesSamsung 970 EVO 500GB€ 0,-€ 0,-
2Solid state drivesSamsung PM893 240GB€ 70,95€ 141,90
Totaal€ 2.879,22

Acties:
  • +1 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:05
@ZatarraNL - maar vele kleine beetjes maken ook een groot... :+

De 4 SSD's zijn samen goed voor zo een 10 Watt
De 4 WD-RED's zijn samen goed voor nog eens 30-plus Watt
Van de de videokaart weet ik het niet - maar zal ook iets van 3 W zijn (aanname!).

Maak je gebruik van de scaling governer?
Iets wat tijdens boot wordt uitgevoerd via crontab - hieronder twee voorbeelden.
.
Zuinigste maar gaat ten koste van prestaties:
@reboot echo "powersave" | tee /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor

Iets minder zuinig maar met weinig performance impact:
@reboot echo "conservative" | tee /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor

Met de laatste zit ie bij mij tussen de 65 en 70W bij minimale belasting.
Bij vlagen kan dit oplopen naar 85-90 Watt.
Bij intensieve CPU- en schijfoperaties zit ie al snel over de 100 Watt

Het systeem is aangesloten op een kleine UPS.

Bovenstaande waardes zijn gemeten met een Tapo Smart Plug en via de UPS.
Wat wil zeggen dat een klein deel van het vermogen voor rekening van de UPS komt..

Ik gebruik dezelfde CPU met 2x 32-GBytes geheugen en zonder videokaart.
Het systemboard is een TUF Gaming B550-Plus in powersave mode - een bios instelling.

Wel heb ik er veel minder disken in zitten - drie SSD's (boot en VM's) en een 5400 rpm spindle voor snapshots.

[ Voor 5% gewijzigd door Airw0lf op 05-05-2024 23:12 ]

makes it run like clockwork


Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 08:43
Airw0lf schreef op zondag 5 mei 2024 @ 23:09:
Het systeem is aangesloten op een kleine UPS.

Bovenstaande waardes zijn gemeten met een Tapo Smart Plug en via de UPS.
Wat wil zeggen dat een klein deel van het vermogen voor rekening van de UPS komt..
Dat denk je, of dat heb je gemeten (just checking)? Ik heb een 4W systeem dat met UPS ik meen in de 20W gebruikte aan het stopcontact, UPS vervangen en toen was het verbruik nog maar 8W aan het stopcontact.
In het kort: er zijn drie soorten UPS met andere "types" beveiliging, en hoe "zwakker" de beveiliging hoe minder de overhead. En met het Nederlandse stroomzet zie ik geen nut om een UPS te hebben die exact 230V in een perfecte sinus output, zogezegd. Een UPS die de netstroom 1-op-1 doorgeeft en wel gewoon een stroomuitval opvangt is ook prima.

En ~20W overhead vind ik dus geen "klein deel", niet bij 70W (50 vs 70) systeem en al helemaal niet bij een 4W (4 vs 24) systeem.

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:05
RobertMe schreef op maandag 6 mei 2024 @ 00:12:
[...]

Dat denk je, of dat heb je gemeten (just checking)? Ik heb een 4W systeem dat met UPS ik meen in de 20W gebruikte aan het stopcontact, UPS vervangen en toen was het verbruik nog maar 8W aan het stopcontact.
In het kort: er zijn drie soorten UPS met andere "types" beveiliging, en hoe "zwakker" de beveiliging hoe minder de overhead. En met het Nederlandse stroomzet zie ik geen nut om een UPS te hebben die exact 230V in een perfecte sinus output, zogezegd. Een UPS die de netstroom 1-op-1 doorgeeft en wel gewoon een stroomuitval opvangt is ook prima.

En ~20W overhead vind ik dus geen "klein deel", niet bij 70W (50 vs 70) systeem en al helemaal niet bij een 4W (4 vs 24) systeem.
Das een aanname inderdaad - nooit gemeten.

Hoe weet je dat de UPS de stroom een-op-een doorgeeft?
Danwel dat die mogelijkheid er is?

Ik heb me nooit echt in UPS-en verdiept - er staat een Powerwalker tussen met het idee dat er bij stroomuitval een accu is om een shutdown uit te kunnen voeren. Verder heb ik er nooit naar om gekeken.

Het is in ieder geval nooit de bedoeling geweest hier iets met beveiliging te doen of een "schone" sinus te doen - leek me overbodig.
Maar eigenlijk heb ik daar bij de aankoop en installatie niet op gelet.

makes it run like clockwork


Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 08:43
Airw0lf schreef op maandag 6 mei 2024 @ 07:48:
[...]


Das een aanname inderdaad - nooit gemeten.

Hoe weet je dat de UPS de stroom een-op-een doorgeeft?
Danwel dat die mogelijkheid er is?
Zoals gezegd zijn er drie soorten, in de pricewatch te filteren op "UPS topologie", waarbij je een "Standby (offline)" model wilt hebben voor de meest basic variant met de minste overhead: categorie: UPS en stekkerdozen

En Eaton heeft er ook over geschreven: https://www.eaton.com/my/...ptimal-ups-topology-.html

Acties:
  • +2 Henk 'm!

  • stormfly
  • Registratie: Juli 2001
  • Laatst online: 08:43
Airw0lf schreef op maandag 6 mei 2024 @ 07:48:
[...]


Das een aanname inderdaad - nooit gemeten.

Hoe weet je dat de UPS de stroom een-op-een doorgeeft?
Danwel dat die mogelijkheid er is?

Ik heb me nooit echt in UPS-en verdiept - er staat een Powerwalker tussen met het idee dat er bij stroomuitval een accu is om een shutdown uit te kunnen voeren. Verder heb ik er nooit naar om gekeken.

Het is in ieder geval nooit de bedoeling geweest hier iets met beveiliging te doen of een "schone" sinus te doen - leek me overbodig.
Maar eigenlijk heb ik daar bij de aankoop en installatie niet op gelet.
RobertMe heeft inderdaad gelijk. Ik had ook een full sinus UPS en die verbruikte 15 watt idle. Ik ging toen terug naar een APC 700GR iets met een transformator, alsnog veel warmte. Toen lanceerde ze de BE850GR2 een UPS met geschakelde voeding zonder transformator. Resultaat bijna geen warme die je accu laat uitdrogen en idle rond de 1-2 watt. Heb er 3 van in huis echt hele fijne units, Pi Zero erop en met de NUT client kan ik ze uitlezen als een volwaardige SMART UPS.

Die 850 is ook heel erg efficiënt ook bij lage er load. Zie efficiëntie grafiek.

https://www.apc.com/gr/en...-User-Replaceable-Battery

[ Voor 13% gewijzigd door stormfly op 06-05-2024 08:26 ]


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:05
Afgaande op het Eaton artikel (waarvoor dank) en de specsheet van de Powerwalker lijkt het erop dat ik de line-interactive variant heb staan. Er zit wel iets aan overspanningbeveiliging in - maar het lijkt geen full-sinus ding - er wordt gesproken over sinus simulatie.

Maar ik ga hier zeker nog eens naar kijken => toegevoegd aan ToDo-uitzoek lijstje. :)

[ Voor 8% gewijzigd door Airw0lf op 06-05-2024 08:41 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:05
stormfly schreef op maandag 6 mei 2024 @ 08:20:
[...]

Pi Zero erop en met de NUT client kan ik ze uitlezen als een volwaardige SMART UPS.

Die 850 is ook heel erg efficiënt ook bij lage er load. Zie efficiëntie grafiek.

https://www.apc.com/gr/en...-User-Replaceable-Battery
Wat bedoel je precies met "Pi Zero erop"?

Is die NUT client ook in te zetten via Proxmox - bijvoorbeeld via een container?
Iemand daar ervaring mee?

makes it run like clockwork


Acties:
  • +2 Henk 'm!

  • BHQ
  • Registratie: November 2003
  • Laatst online: 05-10 22:16

BHQ

stormfly schreef op maandag 6 mei 2024 @ 08:20:
[...]
Toen lanceerde ze de BE850GR2 een UPS met geschakelde voeding zonder transformator. Resultaat bijna geen warme die je accu laat uitdrogen en idle rond de 1-2 watt. Heb er 3 van in huis echt hele fijne units, Pi Zero erop en met de NUT client kan ik ze uitlezen als een volwaardige SMART UPS.

Die 850 is ook heel erg efficiënt ook bij lage er load. Zie efficiëntie grafiek.

https://www.apc.com/gr/en...-User-Replaceable-Battery
Die efficiëntie zal er meer aan liggen dat het een offline UPS is, niet dat er geen transformator in zit.

Maar ik heb gelijkende dingen gezien met b.v. een Eaton line interactive UPS die rond de 15W (idle!) deed. Die APC 850 is een stuk zuiniger.

De Back-UPS CS (die witte, ook offline) zouden ook wat zuiniger moeten zijn dan de meeste line interactive modellen.

Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 08:43
Airw0lf schreef op maandag 6 mei 2024 @ 08:46:
[...]


Wat bedoel je precies met "Pi Zero erop"?

Is die NUT client ook in te zetten via Proxmox - bijvoorbeeld via een container?
Iemand daar ervaring mee?
Ik neem aan dat @stormfly bedoelt "RPi Zero erbij, USB van de UPS naar de RPi, met apcupsd er op die ook op netwerk publiceert".

En ja, de APC software kan ook op Proxmox (/is gewoon open source software). Maar jij hebt geen APC UPS? :p

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 08:43
stormfly schreef op maandag 6 mei 2024 @ 08:20:
Heb er 3 van in huis echt hele fijne units, Pi Zero erop en met de NUT client kan ik ze uitlezen als een volwaardige SMART UPS.
Ook rekening er mee gehouden dat als de stroom er uit ligt dat de communicatie dan nog werkt? Niet dat er een switch tussen zit die niet via UPS van stroom wordt voorzien / lege UPS daar de rest sloopt / ....

Acties:
  • 0 Henk 'm!

  • stormfly
  • Registratie: Juli 2001
  • Laatst online: 08:43
RobertMe schreef op maandag 6 mei 2024 @ 09:09:
[...]

Ik neem aan dat @stormfly bedoelt "RPi Zero erbij, USB van de UPS naar de RPi, met apcupsd er op die ook op netwerk publiceert".

En ja, de APC software kan ook op Proxmox (/is gewoon open source software). Maar jij hebt geen APC UPS? :p
Jeps inderdaad dat bedoelde ik. Zijn diverse guides hoe te installeren.

Acties:
  • 0 Henk 'm!

  • stormfly
  • Registratie: Juli 2001
  • Laatst online: 08:43
BHQ schreef op maandag 6 mei 2024 @ 09:00:
[...]


Die efficiëntie zal er meer aan liggen dat het een offline UPS is, niet dat er geen transformator in zit.
Hij is flink zuiniger dan de 700 serie met transformator. Beide offline UPS architectuur van +/- 100euro.

Uit mijn herinnering is dat 5 versus 1 watt voor het 850 model wat ik noemde. Met mijn kennis denk ik dat het echt aan de architectuur ligt.

[ Voor 11% gewijzigd door stormfly op 06-05-2024 09:28 ]


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

RobertMe schreef op maandag 6 mei 2024 @ 09:09:
[...]

Ik neem aan dat @stormfly bedoelt "RPi Zero erbij, USB van de UPS naar de RPi, met apcupsd er op die ook op netwerk publiceert".

En ja, de APC software kan ook op Proxmox (/is gewoon open source software). Maar jij hebt geen APC UPS? :p
Ook de PowerWalkers (als je een model hebt met iets aan connectiviteit) kan je uitlezen met NUT, toevallig elders heb ik een setup waar dat prima werkt.

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:05
RobertMe schreef op maandag 6 mei 2024 @ 09:09:
[...]

Ik neem aan dat @stormfly bedoelt "RPi Zero erbij, USB van de UPS naar de RPi, met apcupsd er op die ook op netwerk publiceert".

En ja, de APC software kan ook op Proxmox (/is gewoon open source software). Maar jij hebt geen APC UPS? :p
Nee - inderdaad - bij mij heet dat Powerwalker Manager.
En die heeft ook netwerk functies - vergelijkbaar met APC.

Die functies gebruik ik op dit moment niet omdat niet alle switches op een UPS zijn aangesloten - zonder dat lijkt het me weinig zinvol om daar iets mee te gaan doen.

makes it run like clockwork


Acties:
  • +2 Henk 'm!

  • stormfly
  • Registratie: Juli 2001
  • Laatst online: 08:43
RobertMe schreef op maandag 6 mei 2024 @ 09:12:
[...]

Ook rekening er mee gehouden dat als de stroom er uit ligt dat de communicatie dan nog werkt? Niet dat er een switch tussen zit die niet via UPS van stroom wordt voorzien / lege UPS daar de rest sloopt / ....
Zeker alle IT is UPS covered, ten tijde van KPN XGSPON glasvezel. Wat geen stroom uit de wijk nodig heeft in tegenstelling tot de huidige Ziggo aansluiting. Haalde ik een enorme hoge uptime.

Met Ziggo nu zie je dat als een tussenliggende wijk een power outage heeft het impact heeft op je verbinding. Dan is de wijknode offline of verderop staande groepsversterkers.

XGSPON van KPN is over 3,8kilometer passief naar een oude telefooncentrale met aggregaat :) perfect in balans met mijn 3 UPS-en🤣

[ Voor 8% gewijzigd door stormfly op 06-05-2024 11:24 ]


Acties:
  • +2 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 07:57
sow... afgelopen donderdag update en reboot van mijn server (NUC) uitgevoerd... kwam niet meer op.... SSD vervangen, wekelijkse backup teruggezet... binnen een uurtje was alles weer draaiend.

Acties:
  • 0 Henk 'm!

  • John245
  • Registratie: Januari 2020
  • Laatst online: 08:46
htca schreef op vrijdag 10 mei 2024 @ 18:08:
sow... afgelopen donderdag update en reboot van mijn server (NUC) uitgevoerd... kwam niet meer op.... SSD vervangen, wekelijkse backup teruggezet... binnen een uurtje was alles weer draaiend.
Wat gebruik jij om een image van je SSD te maken. Hier ook een tijdje geleden SSD defect en toen gewoon Proxmox er op gezet en de licentie geupdate, was nog geen 15 minuten werk. (3 Nodes in cluster).

Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:05
Ik heb 2 Proxmox servers in gebruik - een voor wat prutswerk en een als productie.
Wel zijn ze zoveel mogelijk gelijk ingericht - alleen een ander systemboard:
De prutsserver heeft een Asus TUF B550-Pro en de productieserver heeft hiervan de M variant.

Als ik op de prutsserver NUT installeer werkt het prima.
Als ik dezelfde installatiestappen uitvoer voor de productieserver werkt het voor geen meter.
Het gaat steevast mis bij upsdrvctl start:
code:
1
2
3
4
5
6
7
Network UPS Tools - UPS driver controller 2.8.0
Network UPS Tools - Generic HID driver 0.47 (2.8.0)
USB communication driver (libusb 1.0) 0.43
libusb1: Could not open any HID devices: insufficient permissions on everything
No matching HID UPS found
Driver failed to start (exit status=1)
Network UPS Tools - Generic HID driver 0.47 (2.8.0)


De rechten op het betreffende USB device en de NUT folders is in beide gevallen gelijk.
Ook het uitlezen met lsusb en nut-scanner -U werkt zonder problemen - zie ook hieronder.

Ik heb al anders kabels en andere USB poorten geprobeerd.
Maar tot nu allemaal zonder resultaat.

Iemand een idee wat er aan de hand kan zijn?


* De parameters voor de prutsserver

De output van lsusb:
code:
1
2
3
4
5
6
7
Bus 004 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Bus 003 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 002 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Bus 001 Device 004: ID 05e3:0608 Genesys Logic, Inc. Hub
Bus 001 Device 003: ID 0b05:1939 ASUSTek Computer, Inc. AURA LED Controller
Bus 001 Device 002: ID 0764:0601 Cyber Power System, Inc. PR1500LCDRT2U UPS
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub



De output van nut-scanner -U:
code:
1
2
3
4
5
6
7
8
9
[nutdev1]
        driver = "usbhid-ups"
        port = "auto"
        vendorid = "0764"
        productid = "0601"
        product = " 800"
        serial = ""
        vendor = "1"
        bus = "001"



* De parameters voor de productieserver

De output van lsusb:
code:
1
2
3
4
5
6
7
Bus 004 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Bus 003 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 002 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Bus 001 Device 004: ID 0764:0601 Cyber Power System, Inc. PR1500LCDRT2U UPS
Bus 001 Device 003: ID 05e3:0608 Genesys Logic, Inc. Hub
Bus 001 Device 002: ID 0b05:1939 ASUSTek Computer, Inc. AURA LED Controller
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub


De output van nut-scanner -U:
code:
1
2
3
4
5
6
7
8
9
[nutdev1]
        driver = "usbhid-ups"
        port = "auto"
        vendorid = "0764"
        productid = "0601"
        product = "2200"
        serial = ""
        vendor = "1"
        bus = "001"


Bij de productieserver gaat het steevast mis bij upsdrvctl start:
code:
1
2
3
4
5
6
7
Network UPS Tools - UPS driver controller 2.8.0
Network UPS Tools - Generic HID driver 0.47 (2.8.0)
USB communication driver (libusb 1.0) 0.43
libusb1: Could not open any HID devices: insufficient permissions on everything
No matching HID UPS found
Driver failed to start (exit status=1)
Network UPS Tools - Generic HID driver 0.47 (2.8.0)

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • m.eddy
  • Registratie: Juni 2007
  • Laatst online: 08:46
John245 schreef op vrijdag 10 mei 2024 @ 18:16:
[...]

Wat gebruik jij om een image van je SSD te maken. Hier ook een tijdje geleden SSD defect en toen gewoon Proxmox er op gezet en de licentie geupdate, was nog geen 15 minuten werk. (3 Nodes in cluster).
+1 dat zou ik ook wel eens willen weten. Een windows box imagen is redelijk simpel. Echter een linux server (liefst zonder downtime) imagen lijkt mij niet zo simpel. Lees veel over rsync, maar ook over clonezilla, wat echter niet kan zonder te booten.

Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 08:43
m.eddy schreef op vrijdag 10 mei 2024 @ 20:17:
[...]


+1 dat zou ik ook wel eens willen weten. Een windows box imagen is redelijk simpel. Echter een linux server (liefst zonder downtime) imagen lijkt mij niet zo simpel. Lees veel over rsync, maar ook over clonezilla, wat echter niet kan zonder te booten.
Proxmox met ZFS gebruiken? Snapshotten en send & receiven op een ander systeem (of senden naar een file die je ergens anders opslaat).
Moet je alleen even klussen met de bootpartitie.

Acties:
  • 0 Henk 'm!

  • John245
  • Registratie: Januari 2020
  • Laatst online: 08:46
RobertMe schreef op vrijdag 10 mei 2024 @ 20:40:
[...]

Proxmox met ZFS gebruiken? Snapshotten en send & receiven op een ander systeem (of senden naar een file die je ergens anders opslaat).
Moet je alleen even klussen met de bootpartitie.
Mijn situatie.

Proxmox cluster bestaande uit 3 Nodes. Iedere Node:
1) Boot SSD waar Proxmox op draait
2) ZFS mirror (2 SSD's)

Verder backups m.b.v. PBS. En de belangrijkste VM's worden gerepliceerd naar de andere 2 Nodes.

Herstel is snel (op de primaire server/Node kan ik makkelijk met IPMI Proxmox op de bootdisk zetten). Zou dit handiger met een image zijn? En wat kan ik daar dan voor gebruiken? Je bedoelt een snapshot maken naar bijvoorbeeld een NAS (en wat is daar een handige applicatie voor)?

[ Voor 5% gewijzigd door John245 op 10-05-2024 21:40 ]

Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8


Acties:
  • +1 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 07:57
John245 schreef op vrijdag 10 mei 2024 @ 18:16:
[...]

Wat gebruik jij om een image van je SSD te maken. Hier ook een tijdje geleden SSD defect en toen gewoon Proxmox er op gezet en de licentie geupdate, was nog geen 15 minuten werk. (3 Nodes in cluster).
Ik maak geen backup van proxmox zelf, ik maak wekelijks een backup van alle vm en lxc die er op draaien naar mijn Qnap. Stickje gemaakt met 8.2 erop, daarna de share geconnect en de vm en lxc restored. Stickje downloaden en flashen duurde lange dan het restoren.

Acties:
  • +1 Henk 'm!

  • John245
  • Registratie: Januari 2020
  • Laatst online: 08:46
htca schreef op vrijdag 10 mei 2024 @ 22:34:
[...]

Ik maak geen backup van proxmox zelf, ik maak wekelijks een backup van alle vm en lxc die er op draaien naar mijn Qnap. Stickje gemaakt met 8.2 erop, daarna de share geconnect en de vm en lxc restored. Stickje downloaden en flashen duurde lange dan het restoren.
Duidelijk. Hier gewoon een clean install. Via IPMI zo gebeurd. De licentie in orde maken kost nog het meeste tijd. Hier dagelijkse back-up van kritische VM's en wekelijks van de niet kritische VM's.

Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8


Acties:
  • 0 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 07:57
John245 schreef op vrijdag 10 mei 2024 @ 22:41:
[...]

Duidelijk. Hier gewoon een clean install. Via IPMI zo gebeurd. De licentie in orde maken kost nog het meeste tijd. Hier dagelijkse back-up van kritische VM's en wekelijks van de niet kritische VM's.
Ik denk dat ik ook naar dagelijkse backup ga, mis nu toch een dag of 6

Acties:
  • +5 Henk 'm!

  • eehbiertje
  • Registratie: Oktober 2009
  • Laatst online: 03-10 11:44
voor de mensen met interesse / toekomstige lezers.

Eindelijk met wat hulp van Wim van 't Hoog, https://wvthoog.nl/proxmox-vgpu-v3/

de Tesla p4 Vgpu + licentie werkend gekregen in proxmox.

Had wat problemen met ubuntu / plex en de vgpu. alles was juist ingesteld.
behalve dat ik bij mdev type = P4-2B4 geselecteerd had.

als ik het juist heb zijn B + Q profiles voor linux. en A voor windows
om transcoding in plex werkend te krijgen had ik het Q profile nodig.
dit werkt blijkbaar niet op een B profiel.

na een week stoeien werkt hardware transcoding nu eindelijk in Plex met de VGPU _/-\o_

Acties:
  • +4 Henk 'm!

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 08-10 22:33
Leuk nieuws van Veeam!
General availability for Proxmox VE support is expected in Q3 2024
https://www.veeam.com/new...pport-for-proxmox-ve.html

Acties:
  • +1 Henk 'm!

  • John245
  • Registratie: Januari 2020
  • Laatst online: 08:46

Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8


Acties:
  • +2 Henk 'm!

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 08-10 22:33
Community editie is gratis tot 10 VM's.
Hopelijk geldt dat ook voor Proxmox VE support.

Acties:
  • +3 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 07-10 15:15

zeroday

There is no alternative!

GoBieN-Be schreef op woensdag 15 mei 2024 @ 01:20:
Community editie is gratis tot 10 VM's.
Hopelijk geldt dat ook voor Proxmox VE support.
PBS voldoet voor mij op dit moment en zie vooralsnog geen toegevoegde waarde.Integratie van PBS binnen Proxmox is ook uitstekend.

en overall: gratis

There are no secrets, only information you do not yet have


Acties:
  • +2 Henk 'm!

  • Mozart
  • Registratie: September 2001
  • Laatst online: 06:48
zeroday schreef op vrijdag 17 mei 2024 @ 07:55:
[...]


PBS voldoet voor mij op dit moment en zie vooralsnog geen toegevoegde waarde.Integratie van PBS binnen Proxmox is ook uitstekend.

en overall: gratis
Ik heb op mijn NAS de PBS als container draaien en de backups komen dus gelijk op mijn NAS terecht. Werkt perfect.

PSN: PcDCch


Acties:
  • +2 Henk 'm!

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 07:00
Al opgelost, had op de synology geen admin rechten blijkbaar. "map all users to admin" heeft het probleem opgelost _/-\o_

Ik probeer een externe NFS toe te voegen aan mijn LCX container voor Jellyfin.

in de Datacenter 2 NFS paths aangemaakt. Naar de LCX doorgezet (en nfstools geinstalleerd) en als ik dan de directory bekijk lijkt dat goed.
Afbeeldingslocatie: https://tweakers.net/i/uVdn08autqx36zwVtId4dpt_8eM=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/VB4rqV2hiW2PLuu1xLhX9qHj.png?f=user_large

Zowel de map "arr" heeft de nas content, en de "homevideos" laat ook alles zien.

Echter in Jellyfin zie ik de "arr" wél de content, maar van de "homevideos" zie ik wel het pad maar niet de onderliggende mappen/files
Afbeeldingslocatie: https://tweakers.net/i/1lxmFujrgakfQZ4PTkAwuyifKVc=/800x/filters:strip_exif()/f/image/X3WscFc9Tcce7qj77BmweOEM.png?f=fotoalbum_large

de homevideos-map blijft dus leeg:
Afbeeldingslocatie: https://tweakers.net/i/wvuht5rbFWUd9c8T6oCCw94vhmM=/800x/filters:strip_exif()/f/image/Qr2Jztb6WkIsC51byXIcJXxu.png?f=fotoalbum_large

Config:
Afbeeldingslocatie: https://tweakers.net/i/uaHrQIriOafynvIBKLEuMaX61Kg=/800x/filters:strip_exif()/f/image/UPkwYEdOAx1zrSgS1k4zZ35J.png?f=fotoalbum_large

Wat doe ik hier nu fout?

[ Voor 3% gewijzigd door Waah op 17-05-2024 14:27 ]


Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Nu online
Sinds vandaag is 1 van mijn VM's (waar home assistant op draait, 10GB) extreem traag met backuppen naar mijn NAS. De andere VM's gaan prima.

Geen idee waar het aan ligt, iemand een idee?

Acties:
  • 0 Henk 'm!

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 08-10 22:33
Staan ze allemaal op dezelfde storage?
Heb je de betreffende VM als eens uit gezet en weer gestart?

Acties:
  • +1 Henk 'm!

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 08-10 22:33
zeroday schreef op vrijdag 17 mei 2024 @ 07:55:
[...]

PBS voldoet voor mij op dit moment en zie vooralsnog geen toegevoegde waarde.Integratie van PBS binnen Proxmox is ook uitstekend.

en overall: gratis
Professioneel bij klanten willen we kunnen specifieke items terug zetten. Bijvoorbeeld bestanden, maar ook een gebruiker op Active Directory of een SQL tabel. Dat kan met Veeam, niet met PBS.

En nog veel meer mogelijkheden zoals back-up copies, imutability, offload naar object storage in de cloud, block checksum controle, surebackup die backups van VM's controleert op boot baarheid enzv...

Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 07-10 15:15

zeroday

There is no alternative!

GoBieN-Be schreef op vrijdag 17 mei 2024 @ 18:17:
[...]


Professioneel bij klanten willen we kunnen specifieke items terug zetten. Bijvoorbeeld bestanden, maar ook een gebruiker op Active Directory of een SQL tabel. Dat kan met Veeam, niet met PBS.

En nog veel meer mogelijkheden zoals back-up copies, imutability, offload naar object storage in de cloud, block checksum controle, surebackup die backups van VM's controleert op boot baarheid enzv...
Ben benieuwd of dat straks voor proxmox ook geldt .. btw individuele bestanden kun je gewoon vanuit een backup terug zetten.

Ach wat maakt het uit, als je datgeen maar kan gebruiken wat je nodig hebt ;)

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • zx9r_mario
  • Registratie: Oktober 2004
  • Laatst online: 08:02
zeroday schreef op zondag 19 mei 2024 @ 21:42:
[...]


Ben benieuwd of dat straks voor proxmox ook geldt .. btw individuele bestanden kun je gewoon vanuit een backup terug zetten.

Ach wat maakt het uit, als je datgeen maar kan gebruiken wat je nodig hebt ;)
Bij LXC containers kun je individuele bestanden eruit halen.

Acties:
  • +1 Henk 'm!

  • John245
  • Registratie: Januari 2020
  • Laatst online: 08:46
zx9r_mario schreef op zondag 19 mei 2024 @ 21:44:
[...]


Bij LXC containers kun je individuele bestanden eruit halen.
Bij VM's kun je ook individuele bestanden terugzetten.

Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8


Acties:
  • +1 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Nu online
Gisteren mijn thuis-’server’ vervangen door een andere. Van een i5-7500t naar een i5-12500t dus dan kan ik er weer even tegenaan. Beide met Proxmox overigens. Na lang beraad met mezelf heb ik gekozen voor een USSF met dus maar plek voor 1 M.2 disk. Mijn vorige server had Proxmox op een aparte SSD staan, maar puntje bij paaltje maakte dat voor de betrouwbaarheid in mijn ogen niets uit. Ging de SSD kapot dan deed proxmox het niet en dus functioneerde mijn huis niet, bij de M.2 SSD gold hetzelfde want daarvandaan draaide alle containers/VM’s. Even bezig geweest met de voor mij meest logische verdeling van de partities maar dat viel niets tegen. Overzetten is wel echt heerlijk eenvoudig.
Maak een backup
Kopieer naar nieuwe server
Zet oude VM/LXC uit
Restore op nieuwe server
Klaar :D

Meteen ook de stap gemaakt om van o.a. één privileged LXC met Docker containers over te stappen naar dedicated unprivileged LXC’s per applicatie. Kostte me wel heel veel tijd omdat ik 0 kaas van lxc.idmap had gegeten maar nu het draait voelt het een stuk prettiger :)

[ Voor 6% gewijzigd door lolgast op 22-05-2024 20:36 ]


Acties:
  • 0 Henk 'm!

  • TheBrones
  • Registratie: November 2013
  • Laatst online: 21:05
lolgast schreef op woensdag 22 mei 2024 @ 20:34:
Gisteren mijn thuis-’server’ vervangen door een andere. Van een i5-7500t naar een i5-12500t dus dan kan ik er weer even tegenaan. Beide met Proxmox overigens. Na lang beraad met mezelf heb ik gekozen voor een USSF met dus maar plek voor 1 M.2 disk. Mijn vorige server had Proxmox op een aparte SSD staan, maar puntje bij paaltje maakte dat voor de betrouwbaarheid in mijn ogen niets uit. Ging de SSD kapot dan deed proxmox het niet en dus functioneerde mijn huis niet, bij de M.2 SSD gold hetzelfde want daarvandaan draaide alle containers/VM’s. Even bezig geweest met de voor mij meest logische verdeling van de partities maar dat viel niets tegen. Overzetten is wel echt heerlijk eenvoudig.
Maak een backup
Kopieer naar nieuwe server
Zet oude VM/LXC uit
Restore op nieuwe server
Klaar :D

Meteen ook de stap gemaakt om van o.a. één privileged LXC met Docker containers over te stappen naar dedicated unprivileged LXC’s per applicatie. Kostte me wel heel veel tijd omdat ik 0 kaas van lxc.idmap had gegeten maar nu het draait voelt het een stuk prettiger :)
Mag ik vragen wat dan een "logische" indeling van de partities is? En hoe groot is de SSD? Via welke weg heb je de containers/VM's overgezet? Zelf lees ik dat je gemakkelijk de backup functie kunt gebruiken en dan met SCP de bestanden over kunt zetten van host, maar ik ben benieuwd of er nog alternatieven zijn welke misschien via de GUI kunnen :) . Ik ook al aan een USB-disk te gebruiken als tussenopslag medium en dan simpelweg een move te doen.

Hoi


Acties:
  • +2 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Nu online
@TheBrones De indeling ging vooral over ‘wat heb ik nodig en wat verwacht ik dat er komende paar jaar bij komt’.
Ik heb een 2TB disk met een 32GB proxmox-/root partitie, een 250GB lvm-thin partitie voor de containers/VM’s en Proxmox backups daarvan met 3 versies als retentie. De rest is ext4 voor data. Dat is voor mijn situatie zat. Paar films en een paar series die worden verwijderd na kijken en de rest is vooral data en foto’s. Die data en foto’s worden elke dag gesynced naar een aangesloten USB-disk en elke 2 dagen naar Backblaze gestuurd.

Kopieren van de containers heb ik inderdaad via SCP gedaan. Ik zou niet weten welk alternatief je zoekt, dit is vrij recht toe recht aan zonder poespas

Acties:
  • +1 Henk 'm!

  • Mozart
  • Registratie: September 2001
  • Laatst online: 06:48
TheBrones schreef op woensdag 22 mei 2024 @ 20:44:
[...]


Mag ik vragen wat dan een "logische" indeling van de partities is? En hoe groot is de SSD? Via welke weg heb je de containers/VM's overgezet? Zelf lees ik dat je gemakkelijk de backup functie kunt gebruiken en dan met SCP de bestanden over kunt zetten van host, maar ik ben benieuwd of er nog alternatieven zijn welke misschien via de GUI kunnen :) . Ik ook al aan een USB-disk te gebruiken als tussenopslag medium en dan simpelweg een move te doen.
Kijk eens naar FileZilla

PSN: PcDCch


Acties:
  • +1 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Nu online
GoBieN-Be schreef op vrijdag 17 mei 2024 @ 18:13:
Staan ze allemaal op dezelfde storage?
Heb je de betreffende VM als eens uit gezet en weer gestart?
ja ze staan op dezelfde storage en aan uit ook gedaan. vreemd genoeg gaat het nu sneller. alleen de eerste 10% niet snel.

Ik draai 7.1.10 proxmox. voor windows 11 2023H2 moet ik upgraden las ik. Ik las dat er best veel mensen problemen hebben met upgraden.

Kan ik als het volledig mis gaat een nieuwe proxmox installeren en dan de backup share gebruiken om simpel de machines te importeren? (zijn er 15)? Of gaat dat niet zo makkelijk? Ik las dat ik in 2 stappen kan upgraden.


update:

toch maar risico genomen. eerst netjes via de GUI geupdate naar 7.4-18. en toen via dit script https://smarthomescene.co...-8-0-without-losing-data/

naar 8.2.2

werkt perfect :D

Kan je altijd via de gui packages updaten zonder problemen?

[ Voor 52% gewijzigd door TweakerVincent op 24-05-2024 20:34 ]


Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Nu online
Ik kan met windows 11 docker met WSL2 niet meer draaien, ik gebruik x86-64-v2-AES, maar krijg een foutmelding dat ik bios moet instellen, nested hyperv werkt wss niet meer. met cpu host kan ik niet meer booten :(. Is er een fix voor? proxmox 8.2.2

Toen ik 7.1 draaide kon ik windows 11 op host draaien en werkte nested virtualization gewoon.

[ Voor 30% gewijzigd door TweakerVincent op 24-05-2024 22:13 ]


Acties:
  • +2 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 08:19
TweakerVincent schreef op vrijdag 24 mei 2024 @ 21:47:
Ik kan met windows 11 docker met WSL2 niet meer draaien, ik gebruik x86-64-v2-AES, maar krijg een foutmelding dat ik bios moet instellen, nested hyperv werkt wss niet meer. met cpu host kan ik niet meer booten :(. Is er een fix voor? proxmox 8.2.2

Toen ik 7.1 draaide kon ik windows 11 op host draaien en werkte nested virtualization gewoon.
als ik mijn notities erop nasla dan moet ik het volgende doen in de config van de VM

code:
1
args: -cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx


en dan de CPU weer op 'host'

edit: net even snel voor je getest, idd dit zijn de opties die je moet hebben en kan je weer WSL, HyperV of Sandbox gebruiken in de VM :)

succes ermee!

[ Voor 10% gewijzigd door Zwelgje op 25-05-2024 06:20 ]

A wise man's life is based around fuck you


Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Nu online
Zwelgje schreef op zaterdag 25 mei 2024 @ 06:08:
[...]


als ik mijn notities erop nasla dan moet ik het volgende doen in de config van de VM

code:
1
args: -cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx


en dan de CPU weer op 'host'

edit: net even snel voor je getest, idd dit zijn de opties die je moet hebben en kan je weer WSL, HyperV of Sandbox gebruiken in de VM :)

succes ermee!
Thanks!

Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Nu online
Zwelgje schreef op zaterdag 25 mei 2024 @ 06:08:
[...]


als ik mijn notities erop nasla dan moet ik het volgende doen in de config van de VM

code:
1
args: -cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx


en dan de CPU weer op 'host'

edit: net even snel voor je getest, idd dit zijn de opties die je moet hebben en kan je weer WSL, HyperV of Sandbox gebruiken in de VM :)

succes ermee!
Als ik in de shell dit command run krijg ik een error:

qm set 151 —args -cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx

error:
400 too many arguments?

die argumenten kan ik niet in de GUI instellen zeker?

[ Voor 4% gewijzigd door TweakerVincent op 25-05-2024 13:50 ]


Acties:
  • 0 Henk 'm!

  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 08:26
TweakerVincent schreef op zaterdag 25 mei 2024 @ 13:50:
[...]


Als ik in de shell dit command run krijg ik een error:

qm set 151 —args -cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx

error:
400 too many arguments?

die argumenten kan ik niet in de GUI instellen zeker?
Moet je niet qm set 151 -cpu ..... doen?

Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Nu online
krijn1985 schreef op zaterdag 25 mei 2024 @ 14:49:
[...]


Moet je niet qm set 151 -cpu ..... doen?
net getest, maar werkt helaas niet. dan krijg ik een andere error:

400 parameter verification failed

Acties:
  • 0 Henk 'm!

  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 08:26
TweakerVincent schreef op zaterdag 25 mei 2024 @ 14:52:
[...]


net getest, maar werkt helaas niet. dan krijg ik een andere error:

400 parameter verification failed
En --cpu ...(dus 2 x -)?

Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Nu online
zelfde error. ik denk dat ik echt —args moet gebruiken maar hoe?

Acties:
  • +2 Henk 'm!

  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 08:26
TweakerVincent schreef op zaterdag 25 mei 2024 @ 15:01:
[...]


zelfde error. ik denk dat ik echt —args moet gebruiken maar hoe?
Als ik een voorbeeld bekijk op proxmox wiki zie ik dit:
qm set 804 -args "-device nec-usb-xhci,id=xhci,addr=0x1b,bus=pci.1 -device usb-host,bus=xhci.0,vendorid=0x0480,productid=0xa007"
Probeer dus je args met 1 - en misschien dat je commando tussen aanhalingstekens moet zetten. Alhoewel mijn tab completion op proxmox bak --args aangeeft.

Toevoeging:

je zou die args: .... ook in je conf ( /etc/pve/qemu-server/151.conf ) moeten kunnen toevoegen. Dus daar een regel met:
args: -cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx
toevoegen (gok ik).

[ Voor 18% gewijzigd door krijn1985 op 25-05-2024 15:07 ]


Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Nu online
krijn1985 schreef op zaterdag 25 mei 2024 @ 15:05:
[...]


Als ik een voorbeeld bekijk op proxmox wiki zie ik dit:

[...]

Probeer dus je args met 1 - en misschien dat je commando tussen aanhalingstekens moet zetten. Alhoewel mijn tab completion op proxmox bak --args aangeeft.

Toevoeging:

je zou die args: .... ook in je conf ( /etc/pve/qemu-server/151.conf ) moeten kunnen toevoegen. Dus daar een regel met:

[...]

toevoegen (gok ik).
TOP! thanks :)

dit werkte idd

qm set 150 -args "-cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx"

ik kan docker weer draaien, mooi :)

Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 09-10 17:41

MvL

Ik had de arr apps voorheen draaien op unRAID maar ik ben nu aan het experimenteren om ze op Proxmox te draaien. Ik gebruik de helper scripts hiervoor. Nu mijn vraag hoe kan ik bijvoorbeeld sabnznd met shared storage laten samenwerken. Ik heb nu een nfs share gekoppeld via de webui storage --> nfs en dan "mp0:/mnt/pve/data,mp=/data" in de container. Tijdens het downloaden zakt de snelheid op een gegeven moment in en restart Sabnzbd en gaat dan weer verder. Wat doe ik fout?

Acties:
  • 0 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 08:19
TweakerVincent schreef op zaterdag 25 mei 2024 @ 13:50:
[...]


Als ik in de shell dit command run krijg ik een error:

qm set 151 —args -cpu Cooperlake-v2,hv_relaxed,hv_spinlocks=0x1fff,hv_vapic,hv_time,+vmx

error:
400 too many arguments?

die argumenten kan ik niet in de GUI instellen zeker?
even de config van de VM editten met nano/vi

staat in /etc/pve/qemu-server/110.conf (nummer van de VM moet je zelf even opzoeken)

en hem daarin toevoegen

A wise man's life is based around fuck you


Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Nu online
Zwelgje schreef op zaterdag 25 mei 2024 @ 17:05:
[...]


even de config van de VM editten met nano/vi

staat in /etc/pve/qemu-server/110.conf (nummer van de VM moet je zelf even opzoeken)

en hem daarin toevoegen
yes het werkt nu met qu set.

thanks!

Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Nu online
MvL schreef op zaterdag 25 mei 2024 @ 16:10:
Ik had de arr apps voorheen draaien op unRAID maar ik ben nu aan het experimenteren om ze op Proxmox te draaien. Ik gebruik de helper scripts hiervoor. Nu mijn vraag hoe kan ik bijvoorbeeld sabnznd met shared storage laten samenwerken. Ik heb nu een nfs share gekoppeld via de webui storage --> nfs en dan "mp0:/mnt/pve/data,mp=/data" in de container. Tijdens het downloaden zakt de snelheid op een gegeven moment in en restart Sabnzbd en gaat dan weer verder. Wat doe ik fout?
Ik gebruik sabnzbd ook via de Helper-scripts. Toevallig nu net aan het omzetten naar LXC, is de laatste die ik in Docker had draaien. Ik draai welliswaar naar local mapped storage, geen NFS, maar geen performance problemen. Ik zou dus verwachten dat het in de throughput/resources van de LXC fout gaat. Download net een testbestand van 10GB en die gaat over de gehele duur met 1gbit/sec hier.

Acties:
  • 0 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 21:44
lolgast schreef op maandag 27 mei 2024 @ 09:56:
[...]

Ik gebruik sabnzbd ook via de Helper-scripts. Toevallig nu net aan het omzetten naar LXC, is de laatste die ik in Docker had draaien. Ik draai welliswaar naar local mapped storage, geen NFS, maar geen performance problemen. Ik zou dus verwachten dat het in de throughput/resources van de LXC fout gaat. Download net een testbestand van 10GB en die gaat over de gehele duur met 1gbit/sec hier.
Ik draai Deluge en kan zonder issues met dezelfde NFS mount point zonder issues 60MB/s halen.
Ik maak op de hosts alleen wel gebruik van autofs, maar dat is nagenoeg hetzelfde als dan het in fstab staat.

Nu moet ik wel zeggen dat het uitpakken en op de plek zetten met *arr wel een aardig stuk langer duurt, dan toen het in docker op m'n Synology draaide.

Anders dan dat, draait het allemaal super met LXC's en een OpenWrt VM voor VPN.

Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Nu online
Ik wist niet dat je in de GUI de packages kan updaten. Tijdens de upgrade vrijdag kwam ik daar pas achter.

Kan ik altijd veilig via de GUI -> PVE/upgrades de packages upgraden? Of kan dat problemen opleveren?

Acties:
  • 0 Henk 'm!

  • Room42
  • Registratie: September 2001
  • Niet online
TweakerVincent schreef op dinsdag 28 mei 2024 @ 22:53:
Ik wist niet dat je in de GUI de packages kan updaten. Tijdens de upgrade vrijdag kwam ik daar pas achter.

Kan ik altijd veilig via de GUI -> PVE/upgrades de packages upgraden? Of kan dat problemen opleveren?
Hoe doe jij het normaal dan?

"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron


Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Nu online
Room42 schreef op dinsdag 28 mei 2024 @ 23:03:
[...]

Hoe doe jij het normaal dan?
via shell en dan normale linux commando’s.

Acties:
  • +2 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 08:43
Room42 schreef op dinsdag 28 mei 2024 @ 23:03:
[...]

Hoe doe jij het normaal dan?
Het is gewoon Debian?
ssh proxmox.host
tmux
sudo apt update
sudo apt dist-upgrade
exit
exit


tmux voor de vorm. Zelf gebruik ik het de helft van de tijd niet :X. Wel al eens gehad dat tijdens een update de verbinding verbroken werd (was via apparaat verbonden via wifi, en de wifi verbinding daarop viel even uit). Denk dat apt daar intussen wel tegen kan. Alleen zie je geen output wat dus knap lastig is. Maar in /var/log/apt/term.log kun je ook de terminal output zien.

Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Nu online
RobertMe schreef op dinsdag 28 mei 2024 @ 23:09:
[...]

Het is gewoon Debian?
ssh proxmox.host
tmux
sudo apt update
sudo apt dist-upgrade
exit
exit


tmux voor de vorm. Zelf gebruik ik het de helft van de tijd niet :X. Wel al eens gehad dat tijdens een update de verbinding verbroken werd (was vua apparaat verbonden via wifi, en de wifi verbinding daarop viel even uit). Denk dat apt daar intussen wel tegen kan. Alleen zie je geen output wat dus knap lastig is. Maar in /var/log/apt/term.log kun je ook de terminal output zien.
ja precies, maar GUI kan dus ook gewoon. handig om te weten. en dus gewoon updaten wanneer het kan. top

[ Voor 3% gewijzigd door TweakerVincent op 28-05-2024 23:10 ]

Pagina: 1 ... 45 ... 62 Laatste