Het grote Proxmox VE topic

Pagina: 1 ... 57 58 Laatste
Acties:

Acties:
  • +2 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Nu online
orvintax schreef op vrijdag 23 mei 2025 @ 16:39:
[...]

Interessant om te lezen, vind het heel vreemd gedrag. Achja, Windows he ;) (Kon deze kans natuurlijk niet laten liggen als Linux man)
Er is een chinees die een technische analyse heeft gedaan: https://www.reddit.com/r/...formance_of_windows_when/

Post bevat een link naar een chinese blog die je door google translate moet halen.

Komt erop neer dat Windows met cpu=host bepaalde beveiligingsmaatregelen neemt tegen de vele CPU bugs van de laatste jaren. L1TF en md_clear zijn de schuldige flags. Wat Windows alleen niet weet is dat linux op de achtergrond ook al maatregelen neemt.

Acties:
  • 0 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 31-05 01:30
_JGC_ schreef op vrijdag 23 mei 2025 @ 16:50:
[...]

Er is een chinees die een technische analyse heeft gedaan: https://www.reddit.com/r/...formance_of_windows_when/

Post bevat een link naar een chinese blog die je door google translate moet halen.

Komt erop neer dat Windows met cpu=host bepaalde beveiligingsmaatregelen neemt tegen de vele CPU bugs van de laatste jaren. L1TF en md_clear zijn de schuldige flags. Wat Windows alleen niet weet is dat linux op de achtergrond ook al maatregelen neemt.
klopt, als ik hem op 'hosts' heb staan en ik pas de Microsoft Security Toolkit security templates toe (die doen wat met VBS etc) dan start de VM niet meer op.. zet ik de VM op x86-x64-v2 (of hoger) dan loopt ie wel goed door

A wise man's life is based around fuck you


Acties:
  • 0 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Nu online
Zwelgje schreef op vrijdag 23 mei 2025 @ 19:36:
[...]


klopt, als ik hem op 'hosts' heb staan en ik pas de Microsoft Security Toolkit security templates toe (die doen wat met VBS etc) dan start de VM niet meer op.. zet ik de VM op x86-x64-v2 (of hoger) dan loopt ie wel goed door
Met "host" heb je ook nested virtualisatie, met x86-x64-v2 heb je dat niet en werkt VBS niet.

Ik heb gisteren nog een 2019 VM op een Ryzen 9 7900 op EPYC-v4 gezet. Had 'm op EPYC-Genoa willen zetten maar de desktop ryzens missen 2 extensies die de EPYC wel heeft. Misschien een custom CPU aanmaken zonder die 2 extensies. Had vandaag het idee dat die VM onder load een stuk beter presteerde.
(als ik dit eerder geweten had zou die klant nu nog op een E-2236 draaien, die was nml niet vooruit te branden).

Andere VM was een Windows 2022 VM op een Xeon E3 v5, die heb ik op Skylake-Client-IBRS-NoTSX gezet, dat presteerde ook direct een stuk beter.

Acties:
  • 0 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 31-05 01:30
_JGC_ schreef op vrijdag 23 mei 2025 @ 19:54:
[...]

Met "host" heb je ook nested virtualisatie, met x86-x64-v2 heb je dat niet en werkt VBS niet.

Ik heb gisteren nog een 2019 VM op een Ryzen 9 7900 op EPYC-v4 gezet. Had 'm op EPYC-Genoa willen zetten maar de desktop ryzens missen 2 extensies die de EPYC wel heeft. Misschien een custom CPU aanmaken zonder die 2 extensies. Had vandaag het idee dat die VM onder load een stuk beter presteerde.
(als ik dit eerder geweten had zou die klant nu nog op een E-2236 draaien, die was nml niet vooruit te branden).

Andere VM was een Windows 2022 VM op een Xeon E3 v5, die heb ik op Skylake-Client-IBRS-NoTSX gezet, dat presteerde ook direct een stuk beter.
Het is niet specifiek VBS want dat kan je ook uitzetten maar ook dan start de VM niet op. het is dus 'iets' anders maar wat het is ben ik (nog niet) uit

A wise man's life is based around fuck you


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Ik heb een probleem bij het installeren van Proxmox op mijn nieuwe AI bak. De machine waar ik Proxmox op wil installeren hangt steeds bij het volgende scherm:
Afbeeldingslocatie: https://rotjes.bangblog.eu/tweakers/gathering/1725945_Proxmox/20250521_proxmox_installer_hang.jpg
De hardware is als volgt:
AMD Ryzen 5800X
ASUS ProArt X570 Creator WiFi
64GB DDR4 @3600MT/s CL17
GPU 1 en 2: 2x AMD Radeon Pro W6800 (t.z.t. te gebruiken als AI accelerator in een VM)
GPU3: Zotac GeForce GT 710 1GB PCIE x 1
SSD: Samsung 970 Epo Plus 2TB
KVM: PiKVM v4 Plus

De KVM hangt aan de GT 710 omdat dit de enige kaart is met een HDMI-uitgang.

Ik heb het zowel met de virtuele media van de PiKVM als met een losse USB-stick geprobeerd.
OpenSUSE Tumbleweed wil wel installeren, dus het lijkt me een probleem met de installer.

Ik weet nu niet zo goed hoe ik hier verder mee moet, dus als iemand mij van advies kan voorzien dan hoor ik dat graag!

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | <X> as a Service --> making you a poor & dependent slave


Acties:
  • 0 Henk 'm!

  • stormfly
  • Registratie: Juli 2001
  • Laatst online: 23:32
ocf81 schreef op zaterdag 24 mei 2025 @ 09:17:
Ik heb een probleem bij het installeren van Proxmox op mijn nieuwe AI bak. De machine waar ik Proxmox op wil installeren hangt steeds bij het volgende scherm:
[Afbeelding]
De hardware is als volgt:
AMD Ryzen 5800X
ASUS ProArt X570 Creator WiFi
64GB DDR4 @3600MT/s CL17
GPU 1 en 2: 2x AMD Radeon Pro W6800 (t.z.t. te gebruiken als AI accelerator in een VM)
GPU3: Zotac GeForce GT 710 1GB PCIE x 1
SSD: Samsung 970 Epo Plus 2TB
KVM: PiKVM v4 Plus

De KVM hangt aan de GT 710 omdat dit de enige kaart is met een HDMI-uitgang.

Ik heb het zowel met de virtuele media van de PiKVM als met een losse USB-stick geprobeerd.
OpenSUSE Tumbleweed wil wel installeren, dus het lijkt me een probleem met de installer.

Ik weet nu niet zo goed hoe ik hier verder mee moet, dus als iemand mij van advies kan voorzien dan hoor ik dat graag!
<duplicate>

[ Voor 8% gewijzigd door stormfly op 24-05-2025 09:32 ]


Acties:
  • +1 Henk 'm!

  • stormfly
  • Registratie: Juli 2001
  • Laatst online: 23:32
ocf81 schreef op zaterdag 24 mei 2025 @ 09:17:
Ik heb een probleem bij het installeren van Proxmox op mijn nieuwe AI bak. De machine waar ik Proxmox op wil installeren hangt steeds bij het volgende scherm:
[Afbeelding]
De hardware is als volgt:
AMD Ryzen 5800X
ASUS ProArt X570 Creator WiFi
64GB DDR4 @3600MT/s CL17
GPU 1 en 2: 2x AMD Radeon Pro W6800 (t.z.t. te gebruiken als AI accelerator in een VM)
GPU3: Zotac GeForce GT 710 1GB PCIE x 1
SSD: Samsung 970 Epo Plus 2TB
KVM: PiKVM v4 Plus

De KVM hangt aan de GT 710 omdat dit de enige kaart is met een HDMI-uitgang.

Ik heb het zowel met de virtuele media van de PiKVM als met een losse USB-stick geprobeerd.
OpenSUSE Tumbleweed wil wel installeren, dus het lijkt me een probleem met de installer.

Ik weet nu niet zo goed hoe ik hier verder mee moet, dus als iemand mij van advies kan voorzien dan hoor ik dat graag!
Staat je Zotac kaart als primair in je BIOS misschien struikelt hij daarover? Weet niet wat je bios mogelijkheden zijn. Wat doet hij als je de andere video kaarten verwijdert, loopt het dan wel door?|

Je kunt nog in GRUB met de volgende parameters spelen.

nomodeset -> Voorkomt dat de kernel direct controle neemt over de GPU's tijdens boot
acpi=off -> Schakelt Advanced Configuration and Power Interface (ACPI) volledig uit

Ervaringen met zelf gehoste AI assistenten ter info.

Acties:
  • +1 Henk 'm!

  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 23:01
Het kan zijn dat de installer dus andere kaart pakt voor het beeld. Sluit scherm even op andere kaart aan. Of je haalt de andere kaarten eruit en installeert eerst proxmox zonder die kaarten.

Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Ik ben er uit, maar het was wel even zoeken. De nvidiafb driver schijnt de GT710 niet zo fijn te vinden en gaat kennelijk op zijn bek. De suggestie van @stormfly was daarin wel enigszins behulpzaam. De oplossing was een obscure forum post met een vergelijkbare aanpak. Bedankt voor de suggestie! Dank ook aan @krijn1985 voor het meedenken :)

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | <X> as a Service --> making you a poor & dependent slave


Acties:
  • 0 Henk 'm!

  • Ruitenwisser
  • Registratie: April 2025
  • Laatst online: 05-07 19:48
Even een vraagje voor verduidelijking. Ik heb 3 containers (Samba, NFS en Syncthing) en alle 3 zou ik toegang willen geven tot eenzelfde directory die gemount is op de host. Samba voor Windows shares, NFS voor Linux shares en Syncthing om bepaalde directories te kunnen mirroren (ala dropbox/onedrive). Het liefst zou ik nog verschillende samba share users hebben, een read-only public user en dan verschillende private users met hun eigen share directory.

```
/mnt/share/media
/mnt/personal/jan
/mnt/personal/piet
```

Wat is het beste qua user management? Voor bv de Samba container, maak ik dan 3 users aan op de Samba container, en 3 users op de host en map die naar elkaar? En zet bijhorend de ownership van die folders op de host naar die users. Map ik dan de user op de NFS container naar user op de host of maak ik een nieuwe aan en voeg de nieuwe user toe aan de groep van de eerdere user.

Het is mij niet volledig duidelijk wat de beste manier is om dit te doen.

Acties:
  • +1 Henk 'm!

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 11-07 15:25
NFS sharing kan alleen vanuit privileged LXC (want kernel-space) dus de vraag is of je dat wil. Alternatief is evt. VM (met eigen kernel), of gewoon op de host. (Los daarvan; als de directory al gemount is vanaf een andere share is het niet zo zinnig om hem nog een keer te sharen?)

Uitgangspunt zijn verder inderdaad de users, groups en permissions op de host. Daar moet je configuratie zijn zoals je hem wil. Om de services vervolgens in LXC's te draaien met de user/groups van de host zul je de betreffende users moeten idmappen naar de LXC's, en daarna aanmaken in de LXC. (In die volgorde anders gaat het fout en krijgen de users een id/gid +100000 op de host.)

Samba users werkt verder hetzelfde als zonder LXC. Je kunt virtuele users aanmaken met aparte rechten per share (valid users), zolang de onderliggende rechten (force user/group) maar kloppen met je filesysteem in de LXC (en via idmap dus ook op de host).

Zie ook:
https://pve.proxmox.com/w...rectory_bind_mount_points

Handig tooltje om de idmap config te genereren:
https://github.com/ddimick/proxmox-lxc-idmapper

[ Voor 8% gewijzigd door d3vlin op 27-05-2025 12:25 ]

Leaping Lab Rats!


Acties:
  • 0 Henk 'm!

  • Ruitenwisser
  • Registratie: April 2025
  • Laatst online: 05-07 19:48
d3vlin schreef op dinsdag 27 mei 2025 @ 12:17:
(Los daarvan; als de directory al gemount is vanaf een andere share is het niet zo zinnig om hem nog een keer te sharen?)
Samba voor er op te geraken via Windows/GSM, NFS via Linux. Dus 2 containers die dezelfde mappen gemount heeft. (Zo zag ik het toch, mss ben ik verkeerd)
d3vlin schreef op dinsdag 27 mei 2025 @ 12:17:
Uitgangspunt zijn verder inderdaad de users, groups en permissions op de host. Daar moet je configuratie zijn zoals je hem wil. Om de services vervolgens in LXC's te draaien met de user/groups van de host zul je de betreffende users moeten idmappen naar de LXC's, en daarna aanmaken in de LXC. (In die volgorde anders gaat het fout en krijgen de users een id/gid +100000 op de host.)

Samba users werkt verder hetzelfde als zonder LXC. Je kunt virtuele users aanmaken met aparte rechten per share (valid users), zolang de onderliggende rechten (force user/group) maar kloppen met je filesysteem in de LXC (en via idmap dus ook op de host).

Zie ook:
https://pve.proxmox.com/w...rectory_bind_mount_points

Handig tooltje om de idmap config te genereren:
https://github.com/ddimick/proxmox-lxc-idmapper
Ondertussen heb ik dat id mappen al tig keer gedaan dus kan het zowat vanbuiten :P, maar dat tooltje ziet er wel handig uit.

De id's enzo probeer ik logisch te houden.
Bv. LXC samba heeft id 210. IP is dan .21 en users starten vanaf 2100 die ik dan aanmaak op zowel de host als de LXC.

En aha, misschien is het beter om via die force en valid users te werken. Moet ik maar 1 user mappen ipv ze allemaal. Dank, ik zal het eens bekijken maar zit nu eerst terug met Immich te klooien want ik ben met een herinstall van Proxmox begonnen en ik krijg mijn library niet maar in gang.

Acties:
  • +1 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 14:21

Harmen

⭐⭐⭐⭐⭐⭐

Sinds de upgrade naar 8.4 heb ik last van random reboots, kwam er per toeval achter. Interval varieerd, voor de upgrade had ik 30+ dagen uptime. In logs zie ik dan het volgende:

code:
1
2
3
4
5
May 30 18:10:48 pve01 pveproxy[1319]: starting 1 worker(s)
May 30 18:10:48 pve01 pveproxy[1319]: worker 483475 started
May 30 18:10:48 pve01 pveproxy[483470]: got inotify poll request in wrong process - disabling inotify
May 30 18:10:49 pve01 pveproxy[483470]: worker exit
-- Reboot --


Kwam een topic tegen op het promox forum, Proxmox Mystery Random Reboots

Heb deze regel toegevoegd aan de cmdline: quiet pci=assign-busses apicmaintimer idle=poll reboot=cold,hard
Iemand tegen dezelfde issues aangelopen?

Edit, "idle=poll" er maar even uitgehaald, wattage ging van 10W naar 30W idle
Edit2, nog geen verschil. Heb de cpu van m'n Home Assistant vm aangepast naar x86-64-v3 (was kvm64).
Edit3, tot nu toe 15u uptime. Lijkt goed :)

[ Voor 11% gewijzigd door Harmen op 31-05-2025 20:44 ]

Whatever.


Acties:
  • +1 Henk 'm!

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 11-07 15:25
lolgast schreef op woensdag 30 april 2025 @ 10:33:
Ik backup gewoon vanuit Proxmox naar een USB-disk en Backblaze. 2 VM’s en 15 LXC’s met een retentie van 3 backups, gaat om 240GB ofzo. Ik heb 1 keer moeten restoren en dat is eigenlijk ook zo simpel als importeren en starten..
Enige waar ik PBS voor zou overwegen is de deduplicatie en incremental backups, maar met de kosten van een GB ga ik de moeite niet nemen
Deduplicatie met PBS gaat hier richting factor 100. Dat is toch aardig wat extra retentie voor dezelfde hoeveelheid backup ruimte.

Daarnaast blijft ook de load op VE veel lager met incremental backups naar PBS. Met een zuinige Alder Lake mini-pc als VE kreeg ik af en toe timeouts op replicaties (voor HA) tijdens de wat langere full backups, met incremental geen enkel probleem.

Leaping Lab Rats!


Acties:
  • 0 Henk 'm!

  • GeleFles
  • Registratie: Augustus 2001
  • Niet online

GeleFles

What's in a bottle?

Ik zit met de volgende puzzel:

Ik wil op de proxmox host graag een bestandslocatie, die:
- bereikbaar is via SMB vanaf diverse clients in het netwerk
- beschikbaar is voor een aantal unprivileged containers

Als ik een lokale map mount naar de containers, moet deze rechten krijgen van de container gid, maar dan is deze niet benaderbaar voor de samba usergroup. Als ik de samba groep koppel, dan is het uiteraard weer andersom.

Ik ben vast niet de eerste met deze gewenste inrichting, echter zie ik door de bomen het bos niet meer.
Op mijn proxmox omgeving heb ik nog geen bijzondere dingen draaien, dus ik wil het graag vanaf het begin goed doen.

Moet ik soms een container in de lucht trekken die de samba service beschikbaar stelt?

Wat ik ook nog bedacht is een container met samba service te maken, en dan de andere containers een samba mount te geven naar die samba-container... Met alle data in die container ipv op de proxmox host. Echter zorgt dat mogelijk weer voor extra overhead?

Acties:
  • 0 Henk 'm!

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 11-07 15:25
Zie 5 posts terug. 😀

Folder met user/group/rechten op de host als uitgangspunt.
Mount en idmapping toevoegen aan de lxc config. Daarna de user/group aanmaken in de unpriviled LXC waarin samba draait zodat deze overeenkomt met de host.

Lijkt mij sneller/minder overhead om de host folder vervolgens ook gewoon in alle andere LXC's te mounten (met dezelfde idmapping) dan via een samba share vanuit de eerste LXC.

Data in een LXC staat overigens ook gewoon op het filesystem van de host, maar dan met afgebakende toegang vanuit de LXC. Dat is anders dan bij een VM waar het filesystem echt in de VM zit.

[ Voor 7% gewijzigd door d3vlin op 03-06-2025 19:22 ]

Leaping Lab Rats!


Acties:
  • 0 Henk 'm!

  • GeleFles
  • Registratie: Augustus 2001
  • Niet online

GeleFles

What's in a bottle?

d3vlin schreef op dinsdag 3 juni 2025 @ 17:15:
Zie 5 posts terug. 😀

Folder met user/group/rechten op de host als uitgangspunt.
Mount en idmapping toevoegen aan de lxc config. Daarna de user/group aanmaken in de unpriviled LXC waarin samba draait zodat deze overeenkomt met de host.

Lijkt mij sneller/minder overhead om de host folder vervolgens ook gewoon in alle andere LXC's te mounten (met dezelfde idmapping) dan via een samba share vanuit de eerste LXC.

Data in een LXC staat overigens ook gewoon op het filesystem van de host, maar dan met afgebakende toegang vanuit de LXC. Dat is anders dan bij een VM waar het filesystem echt in de VM zit.
Ah, ik dacht dat het net anders is dan mijn usecase... ik zie dat ik met die usermappings moet gaan klooien, maar kom er nog niet uit.

Ik heb nu een sambaserver, die netjes een user heeft, die ik met UID 101000 rechten heb gegeven op een gemounte directory op de host.
Dan dacht ik; ik koppel de root UID (0) op mijn andere containers aan UID 101000 op de host, zodat de services in die containers ook dezelfde rechten krijgen op de mount.
Helaas gooit dat de rechten in de container compleet over de zeik; ik begrijp nog niet goed waarom de mapping ook invloed heeft op de rechten binnen de container. |:(

Acties:
  • +1 Henk 'm!

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 11-07 15:25
Ik zou de idmapping voor alle LXC's gelijk houden aan de host, wel zo handig.
Dus een folder van uid/gid 1000 op de host ook idmappen naar uid/gid 1000 in alle LXC's.
Daarna dus pas de user met uid/gid 1000 in de LXC's aanmaken, anders wordt 1000 in een LXC dus 101000 ipv 1000 op de host.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
# Add to /etc/pve/lxc/<container_id>.conf:
mp0: /hostfolder,mp=/lxcfolder,size=0T
lxc.idmap: u 0 100000 1000
lxc.idmap: g 0 100000 1000
lxc.idmap: u 1000 1000 1
lxc.idmap: g 1000 1000 1
lxc.idmap: g 1001 101001 64535
lxc.idmap: u 1001 101001 64535

# Add to /etc/subuid:
root:1000:1

# Add to /etc/subgid:
root:1000:1

[ Voor 7% gewijzigd door d3vlin op 03-06-2025 21:02 ]

Leaping Lab Rats!


Acties:
  • 0 Henk 'm!

  • GeleFles
  • Registratie: Augustus 2001
  • Niet online

GeleFles

What's in a bottle?

d3vlin schreef op dinsdag 3 juni 2025 @ 20:57:
Ik zou de idmapping voor alle LXC's gelijk houden aan de host, wel zo handig.
Dus een folder van uid/gid 1000 op de host ook idmappen naar uid/gid 1000 in alle LXC's.
Daarna dus pas de user met uid/gid 1000 in de LXC's aanmaken, anders wordt 1000 in een LXC dus 101000 ipv 1000 op de host.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
# Add to /etc/pve/lxc/<container_id>.conf:
mp0: /hostfolder,mp=/lxcfolder,size=0T
lxc.idmap: u 0 100000 1000
lxc.idmap: g 0 100000 1000
lxc.idmap: u 1000 1000 1
lxc.idmap: g 1000 1000 1
lxc.idmap: g 1001 101001 64535
lxc.idmap: u 1001 101001 64535

# Add to /etc/subuid:
root:1000:1

# Add to /etc/subgid:
root:1000:1
Het probleem waar ik tegenaan loop is dat de containers die ik gebruik, hun services als root draaien. Deze services lezen en schrijven dus van de gemounte folders. Omdat het de root gebruiker is, lijkt het erop dat ik hem niet kan remappen. (of ik zie iets over het hoofd, wat natuurlijk heel goed kan :+ )

Ik zou kunnen kijken of ik de services onder een andere user kan draaien, maar dan word het wel weer veel maatwerk in elke container.

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 00:18

Quad

Doof

Je kan ook group maken en mounten, in LXC groep maken, betreffende user lid maken van de groep in LXC.

Zou moeten kunnen.

https://forum.proxmox.com...mount-cifs-shares.101795/

Bovenstaand heb ik gevolgd, omdat anders m'n Plex LXC bijvoorbeeld niet wilde functioneren. Simpelweg door het feit dat je in de LXC niet als Plexuser kan inloggen, je dus niet echt een mount bind kon toepassen. Door groups te gebruiken lukt dat wel.

[ Voor 58% gewijzigd door Quad op 03-06-2025 21:18 ]

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 11-07 15:25
Idmappen van lxc root naar host root is nou net wat je niet wil in een unprivileged container.. 😉

Leaping Lab Rats!


Acties:
  • 0 Henk 'm!

  • GeleFles
  • Registratie: Augustus 2001
  • Niet online

GeleFles

What's in a bottle?

Na een avondje lekker prutsen en proberen, heb ik het uiteindelijk opgelost door de acl functie te activeren op het filesystem, hierdoor kan je meerdere UIDs rechten geven op een folder. Op die manier heb ik zowel de 100000 en 101000 user rechten gegeven op de gedeelde map.

Acties:
  • 0 Henk 'm!

  • Leaplasher
  • Registratie: Maart 2025
  • Niet online
Na enige maanden prima te hebben gedraaid, vandaag een (geplande) power outage gehad.
Alles komt netjes weer up (gelukkig), BEHALVE.... ;)

Het feit dat ik proxmox zelf niet meer kan benaderen vanuit een ander VLAN.
Proxmox staat in VLAN1, vanaf andere devices in VLAN1 is het te benaderen (192.168.1.10:8006)
Andere devices in VLAN1 kan ik prima vanuit andere VLANs benaderen. 't is dus echt alleen de proxmox host.
Goed, gateway mis-configuration zou je denken, die staat gewoon op 192.168.1.1
Issue is ook dat wat ZFS shares nu niet meer te benaderen zijn vanaf een VM.


Via VPN (5G), kan ik wél bij de interface van proxmox, gek genoeg.

Al geprobeerd met firewall uit/aan binnen proxmox op de network config van de node, helaas ook geen succes.

De VM's zijn in hun eigen VLAN prima te benaderen, ook containers in een ander VLAN draaien prima.
't gaat dus puur om de host zelf.

Op mijn switch gekeken, native VLAN is 1, en dan twee tagged VLANs waarin de VM's / Containers draaien.
VLAN tagging er nog af gehaald, geen verandering.

Wie oh wie heeft voor mij de gouden oplossing?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
auto lo
iface lo inet loopback

iface eno1 inet manual

auto vmbr0
iface vmbr0 inet static
        address 192.168.1.10/24
        gateway 192.168.1.1
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 20,30

iface wlp58s0 inet manual

auto vmbr0.20
iface vmbr0.20 inet static
        address 192.168.20.0/24

auto vmbr0.30
iface vmbr0.30 inet static
        address 192.168.30.0/24


Switch poort van Native VLAN1, naar 'none' en dan als tagged VLAN1, 20 & 30 op de poort maakt ook niet uit.

[ Voor 26% gewijzigd door Leaplasher op 06-06-2025 14:23 ]


Acties:
  • 0 Henk 'm!

  • mfkne
  • Registratie: November 2011
  • Laatst online: 16:16
Probeer je 'm vanuit een Mac te benaderen?

Acties:
  • 0 Henk 'm!

  • Leaplasher
  • Registratie: Maart 2025
  • Niet online
Nope. Vanaf Windows, Android & Linux VM's.

Acties:
  • 0 Henk 'm!

  • sOid
  • Registratie: Maart 2004
  • Niet online
Ik ben bezig met het opbouwen van m'n eerste Proxmox-gebaseerde servertje. Werkt allemaal vrij intuïtief en ik heb wat containers en VM's draaien.

Waar ik echter niet helemaal uit kom is het volgende.
  • Ik heb een ZFS setje (2x1TB SSD in mirror) genaamd flash.
  • Ook heb ik een fileserver LXC-container met SMB. Hierop staat de share /mnt/flash en heeft wat subfolders en media-files als test.
  • Nu probeer ik in een Jellyfin LXC-container de data in /mnt/flash/* te benaderen door een mount point toe te voegen. Maar dat werkt dus niet.
Wat doe ik verkeerd? Hoe is zoiets logisch op te zetten?

Edit: Wat ik uiteindelijk wil is een share met mediabestanden die verschillende vm's/lxc-containers kunnen benaderen (Sonarr en Plex bijvoorbeeld).

[ Voor 10% gewijzigd door sOid op 06-06-2025 20:30 ]


Acties:
  • +2 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 00:18

Quad

Doof

@sOid dat is in de posts voor je net besproken. Je moet ervoor zorgen dat je correcte ID's gebruikt om te mappen.

Ik verwacht dat dit je veel gaat helpen: https://forum.proxmox.com...mount-cifs-shares.101795/

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • +1 Henk 'm!

  • sOid
  • Registratie: Maart 2004
  • Niet online
Quad schreef op vrijdag 6 juni 2025 @ 20:34:
@sOid dat is in de posts voor je net besproken. Je moet ervoor zorgen dat je correcte ID's gebruikt om te mappen.

Ik verwacht dat dit je veel gaat helpen: https://forum.proxmox.com...mount-cifs-shares.101795/
Ah overheen gelezen omdat ik de term niet kende. Ga me inlezen, dank!

Acties:
  • 0 Henk 'm!

  • nike
  • Registratie: November 2000
  • Niet online
@Leaplasher ik ga dan altijd terug naar de basis.
Met laptop in dezelfde range als pve zonder switch direct in pve. Werkt dat wel even ander switchpoort direct untagged op vlan1. Als dat werkt een router probleem.

[ Voor 3% gewijzigd door nike op 07-06-2025 14:58 ]

-edit-


Acties:
  • 0 Henk 'm!

  • Leaplasher
  • Registratie: Maart 2025
  • Niet online
nike schreef op vrijdag 6 juni 2025 @ 21:44:
@Leaplasher ik ga dan altijd terug naar de basis.
Met laptop in dezelfde range als pve zonder switch direct in pve. Werkt dat wel even ander switchpoort direct untagged op vlan1. Als dat werkt een router probleem.
Goede tip, dank. Zoals aangegeven heb ik dat echter al uitgesloten. 't ligt niet aan de switch poort/router.
't zit em echt in 'iets' in proxmox.

Ook even een oude Pi gepakt, met exact dezelfde setup. Geen issue. Ook niet bij port swap.
Kan het dus ook niet reproduceren. Blijft ook raar dat 't tot aan de power outage prima heeft gewerkt.

Acties:
  • 0 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 14:21

Harmen

⭐⭐⭐⭐⭐⭐

Helaas loopt m'n proxmox host weer tegen random reboots aan, heb helaas nog geen oorzaak gevonden.
Ging bijna 4 dagen goed, vanmorgen weer een reboot:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
Jun 08 02:17:01 pve01 CRON[2295835]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Jun 08 02:17:01 pve01 CRON[2295836]: (root) CMD (cd / && run-parts --report /etc/cron.hourly)
Jun 08 02:17:01 pve01 CRON[2295835]: pam_unix(cron:session): session closed for user root
Jun 08 03:04:36 pve01 pvedaemon[2283729]: <root@pam> successful auth for user 'ha-user@pve'
Jun 08 03:04:36 pve01 pvedaemon[2236307]: <root@pam> successful auth for user 'ha-user@pve'
Jun 08 03:10:01 pve01 CRON[2320925]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Jun 08 03:10:01 pve01 CRON[2320926]: (root) CMD (test -e /run/systemd/system || SERVICE_MODE=1 /sbin/e2scrub_all -A -r)
Jun 08 03:10:01 pve01 CRON[2320925]: pam_unix(cron:session): session closed for user root
Jun 08 03:10:46 pve01 systemd[1]: Starting e2scrub_all.service - Online ext4 Metadata Check for All Filesystems...
Jun 08 03:10:46 pve01 systemd[1]: e2scrub_all.service: Deactivated successfully.
Jun 08 03:10:46 pve01 systemd[1]: Finished e2scrub_all.service - Online ext4 Metadata Check for All Filesystems.
Jun 08 03:17:01 pve01 CRON[2324242]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Jun 08 03:17:01 pve01 CRON[2324243]: (root) CMD (cd / && run-parts --report /etc/cron.hourly)
Jun 08 03:17:01 pve01 CRON[2324242]: pam_unix(cron:session): session closed for user root
Jun 08 03:30:01 pve01 CRON[2330375]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Jun 08 03:30:01 pve01 CRON[2330376]: (root) CMD (test -e /run/systemd/system || SERVICE_MODE=1 /usr/lib/x86_64-linux-gnu/e2fsprogs/e2scrub_all_cron)
Jun 08 03:30:01 pve01 CRON[2330375]: pam_unix(cron:session): session closed for user root
Jun 08 03:43:36 pve01 pvedaemon[2236307]: worker exit
Jun 08 03:43:36 pve01 pvedaemon[1300]: worker 2236307 finished
Jun 08 03:43:36 pve01 pvedaemon[1300]: starting 1 worker(s)
Jun 08 03:43:36 pve01 pvedaemon[1300]: worker 2336802 started
-- Reboot --


Lijkt wel op een achtergrond taak welke de reboot veroorzaakt, maar welke? Heeft iemand een idee wat ik nog kan checken? :?

Whatever.


Acties:
  • 0 Henk 'm!

  • Illusion
  • Registratie: November 2000
  • Laatst online: 01:05

Illusion

(the art of)

Ik ga ook aan een Proxmox Avontuur beginnen. Ter vervanging van een DS216+II heb ik het volgende:
  • Ugreen dxp2800. Intel N100, met upgrade naar 16GB Ram (Non-ECC)
  • 2TB NVME WD Black SN770 (jong licht gebruikt)
  • 10TB WD Red+ (nieuw)
  • 250GB Crucial bx250 (oud, uit laptop)
Ik heb niet zo'n vetrouwen in een chinees OS, en het lijkt me leuk om Home-assistant als HAOS te draain ipv docker. Dus als services verwacht ik dit.
  • Home Assitant OS (vm)
  • Zigbee2mqtt lxc/docker
  • Pihole lxc/docker
  • OpenMediaVault als NAS host voor backups.
Machine is verder alleen voor backups. Geen media-library of transcoding.

Nu de vragen:
  1. OS op een oude 250GB sata ssd, of op de NVME
  2. ext4 of zfs voor single disk volume van de storage?
  3. ext4 of zfs voor single ssd volumen van proxmox os[?/li]
De meningen over ZFS voor single disk lijken nogal uiteen te lopen.. Op zich zou 16GB ram genoeg moeten zijn voor zfs lijkt me. En snapshots is ook lekker voor de VMs, maar er zijn toch nog wel veel verhalen over extreme wearout.
De vorige set (DS216) heeft ruim 8 jaar gedraaid zonder ernaar om te kijken, dus zoek nu weer iets dat vooral makkelijk/stabiel is met beperkte wear.
Er kunnen nog backups op een USB hard-disk gemaakt worden, dus zeker ivm stroomverbruik heb ik liever geen raid met dubbele disks.

Soms ben ik er wel, en soms ook weer niet.


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 14:36
@Illusion - Ik heb ook een DXP2800 - en die start niet vanaf een sata disk - foutje in de bios (zo lijkt het). Wel vanaf een nvme of een usb disk.

Maar mocht dat wel (gaan) werken (mijn 0,500 Euro):
* PVE booten vanaf sata SSD
* NVME voor de VM's en LXC's op basis van een (non-thin-)LVM volume.
* 10TB WD Red+ voor backups op basis van een EXT4 volume.

Als het NAS gedeelte inderdaad alleen is voor backups lijkt me OMV overkill.
Je zou dan kunnen volstaan met het activeren van NFS, SAMBA en/of rsync - best via een LXC.

Alle services via een LXC (al dan niet i.c.m. Docker) laten lopen heeft veruit de voorkeur - minste overhead en via PVE kan alles in een keer gebackupped kan worden naar die WD-Red (of een externe USB). Een VM gebruik ik alleen voor iets wat echt niet anders kan - zoals bijvoorbeeld HASS

Mocht booten van SATA niet gaan werken overweeg dan een tweede, kleine NVME disk om van te booten.

[ Voor 8% gewijzigd door Airw0lf op 08-06-2025 12:44 ]

makes it run like clockwork


Acties:
  • +1 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Harmen schreef op zondag 8 juni 2025 @ 10:25:
Helaas loopt m'n proxmox host weer tegen random reboots aan, heb helaas nog geen oorzaak gevonden.
Ging bijna 4 dagen goed, vanmorgen weer een reboot:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
Jun 08 02:17:01 pve01 CRON[2295835]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Jun 08 02:17:01 pve01 CRON[2295836]: (root) CMD (cd / && run-parts --report /etc/cron.hourly)
Jun 08 02:17:01 pve01 CRON[2295835]: pam_unix(cron:session): session closed for user root
Jun 08 03:04:36 pve01 pvedaemon[2283729]: <root@pam> successful auth for user 'ha-user@pve'
Jun 08 03:04:36 pve01 pvedaemon[2236307]: <root@pam> successful auth for user 'ha-user@pve'
Jun 08 03:10:01 pve01 CRON[2320925]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Jun 08 03:10:01 pve01 CRON[2320926]: (root) CMD (test -e /run/systemd/system || SERVICE_MODE=1 /sbin/e2scrub_all -A -r)
Jun 08 03:10:01 pve01 CRON[2320925]: pam_unix(cron:session): session closed for user root
Jun 08 03:10:46 pve01 systemd[1]: Starting e2scrub_all.service - Online ext4 Metadata Check for All Filesystems...
Jun 08 03:10:46 pve01 systemd[1]: e2scrub_all.service: Deactivated successfully.
Jun 08 03:10:46 pve01 systemd[1]: Finished e2scrub_all.service - Online ext4 Metadata Check for All Filesystems.
Jun 08 03:17:01 pve01 CRON[2324242]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Jun 08 03:17:01 pve01 CRON[2324243]: (root) CMD (cd / && run-parts --report /etc/cron.hourly)
Jun 08 03:17:01 pve01 CRON[2324242]: pam_unix(cron:session): session closed for user root
Jun 08 03:30:01 pve01 CRON[2330375]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Jun 08 03:30:01 pve01 CRON[2330376]: (root) CMD (test -e /run/systemd/system || SERVICE_MODE=1 /usr/lib/x86_64-linux-gnu/e2fsprogs/e2scrub_all_cron)
Jun 08 03:30:01 pve01 CRON[2330375]: pam_unix(cron:session): session closed for user root
Jun 08 03:43:36 pve01 pvedaemon[2236307]: worker exit
Jun 08 03:43:36 pve01 pvedaemon[1300]: worker 2236307 finished
Jun 08 03:43:36 pve01 pvedaemon[1300]: starting 1 worker(s)
Jun 08 03:43:36 pve01 pvedaemon[1300]: worker 2336802 started
-- Reboot --


Lijkt wel op een achtergrond taak welke de reboot veroorzaakt, maar welke? Heeft iemand een idee wat ik nog kan checken? :?
Bij een normale reboot krijg je ruim meer regels die daar op wijzen voorafgaand aan de regel met '-- Reboot --'. Op het moment dat jouw systeem herstart, is het om een reden dus al niet meer mogelijk om logs weg te schrijven. Een probleem met hardware en/of drivers ligt daarmee naar mijn idee het meest voor de hand.

Acties:
  • 0 Henk 'm!

  • Beekforel
  • Registratie: November 2001
  • Laatst online: 23:10

Beekforel

Is eigenlijk geen vis

Iemand een idee hoe ik mDNS resolving kan activeren in een LXC en/of op de Proxmox host zelf?

Ik heb op basis van dit nu wel systemd-resolved geïnstalleerd maar dit heeft nog geen verschil gemaakt, ik denk ook dat ik juist de andere kant op wil?

[ Voor 68% gewijzigd door Beekforel op 10-06-2025 22:19 ]


Acties:
  • 0 Henk 'm!

  • Acradavos
  • Registratie: September 2005
  • Laatst online: 05-07 15:40

Acradavos

Poetsfanaat

Sinds kort heb ik problemen met mijn Proxmox hypervisor, versie 8.4.1. Zo nu en dan is de webinterface totaal niet meer te bereiken en moet ik de stroom van mijn NUC er af halen. Ik zie in de logging het volgende.

Iemand een idee? NUC is voorzien van laatste bios.

Ik draai alleen VM met Home Assistant en die is ook niet meer te benaderen.

Afbeeldingslocatie: https://tweakers.net/i/h-0_YqBTWbM_e2zDS3awisnJDaM=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/atLifDTr7Jr6HQNsKKmHLqI0.png?f=user_large

[ Voor 69% gewijzigd door Acradavos op 20-06-2025 15:51 ]


Acties:
  • +2 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 14:21

Harmen

⭐⭐⭐⭐⭐⭐

@Acradavos Been there done that, zie volgende link om het op te lossen. Werkte iig bij mij. :)

https://forum.proxmox.com...ple-times-per-day.139115/

Whatever.


Acties:
  • +2 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 00:18

Quad

Doof

Can confirm, hier had ik het ook en met bovenstaande is het opgelost.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 14:21

Harmen

⭐⭐⭐⭐⭐⭐

dcm360 schreef op maandag 9 juni 2025 @ 14:14:
[...]

Bij een normale reboot krijg je ruim meer regels die daar op wijzen voorafgaand aan de regel met '-- Reboot --'. Op het moment dat jouw systeem herstart, is het om een reden dus al niet meer mogelijk om logs weg te schrijven. Een probleem met hardware en/of drivers ligt daarmee naar mijn idee het meest voor de hand.
Ben inmiddels een week verder, heb vermoedelijk de oorzaak gevonden. Machine hing achter een TP-Link HS110 welke op willekeurige momenten vastliep. Nu alweer een week uptime. :)

Whatever.


Acties:
  • +1 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 21:56
@Acradavos Had ik ook na een update, heb fix hier beschreven: ThinkPad in "Het grote Proxmox VE topic"

Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 12-07 13:01

zeroday

There is no alternative!

Harmen schreef op zondag 8 juni 2025 @ 10:25:
Helaas loopt m'n proxmox host weer tegen random reboots aan, heb helaas nog geen oorzaak gevonden.
Ging bijna 4 dagen goed, vanmorgen weer een reboot:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
Jun 08 02:17:01 pve01 CRON[2295835]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Jun 08 02:17:01 pve01 CRON[2295836]: (root) CMD (cd / && run-parts --report /etc/cron.hourly)
Jun 08 02:17:01 pve01 CRON[2295835]: pam_unix(cron:session): session closed for user root
Jun 08 03:04:36 pve01 pvedaemon[2283729]: <root@pam> successful auth for user 'ha-user@pve'
Jun 08 03:04:36 pve01 pvedaemon[2236307]: <root@pam> successful auth for user 'ha-user@pve'
Jun 08 03:10:01 pve01 CRON[2320925]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Jun 08 03:10:01 pve01 CRON[2320926]: (root) CMD (test -e /run/systemd/system || SERVICE_MODE=1 /sbin/e2scrub_all -A -r)
Jun 08 03:10:01 pve01 CRON[2320925]: pam_unix(cron:session): session closed for user root
Jun 08 03:10:46 pve01 systemd[1]: Starting e2scrub_all.service - Online ext4 Metadata Check for All Filesystems...
Jun 08 03:10:46 pve01 systemd[1]: e2scrub_all.service: Deactivated successfully.
Jun 08 03:10:46 pve01 systemd[1]: Finished e2scrub_all.service - Online ext4 Metadata Check for All Filesystems.
Jun 08 03:17:01 pve01 CRON[2324242]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Jun 08 03:17:01 pve01 CRON[2324243]: (root) CMD (cd / && run-parts --report /etc/cron.hourly)
Jun 08 03:17:01 pve01 CRON[2324242]: pam_unix(cron:session): session closed for user root
Jun 08 03:30:01 pve01 CRON[2330375]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Jun 08 03:30:01 pve01 CRON[2330376]: (root) CMD (test -e /run/systemd/system || SERVICE_MODE=1 /usr/lib/x86_64-linux-gnu/e2fsprogs/e2scrub_all_cron)
Jun 08 03:30:01 pve01 CRON[2330375]: pam_unix(cron:session): session closed for user root
Jun 08 03:43:36 pve01 pvedaemon[2236307]: worker exit
Jun 08 03:43:36 pve01 pvedaemon[1300]: worker 2236307 finished
Jun 08 03:43:36 pve01 pvedaemon[1300]: starting 1 worker(s)
Jun 08 03:43:36 pve01 pvedaemon[1300]: worker 2336802 started
-- Reboot --


Lijkt wel op een achtergrond taak welke de reboot veroorzaakt, maar welke? Heeft iemand een idee wat ik nog kan checken? :?
ik had een hele onstabiele server door thresholds qua warmte niet goed te hebben op mijn Intel NUC alsmede slechte koelpasta..
nadat dat was gefixed.. nooit meer random reboots ..

ik denk dan ook niet dat je direct bij proxmox moet gaan zoeken tenzij je van iemand met een soortegelijk systeem (geen idee wat je hebt) hetzelfde gemeld ziet worden. Soms wil een kernel ook wel eens wat veroorzaken ..

There are no secrets, only information you do not yet have


Acties:
  • +2 Henk 'm!

  • Acradavos
  • Registratie: September 2005
  • Laatst online: 05-07 15:40

Acradavos

Poetsfanaat

Dank allen. Ik had de bug ook al ergens rond Proxmox 6, maar werd met de release van 7 verholpen. Zojuist de regel aangepast. :P

Acties:
  • 0 Henk 'm!

  • Gizz
  • Registratie: Maart 2001
  • Laatst online: 23:06

Gizz

Dunder-Mifflin, Inc.

Ik ben al een paar uur met het volgende bezig, daarom maar even hier om hulp vragen :P

Mijn Truenas VM kan via passthrough bij de sata-controller. Dit werkte een paar weken goed (ben recent gestart met Proxmox). Na een reboot van mijn Proxmox-node wil de Truenas VM niet meer starten. Ik krijg verder geen foutmeldingen, de task om deze VM op te starten blijft 'gewoon' uren en uren actief zonder dat er iets gebeurt.

Uiteindelijk maar een verse Truenas VM aangemaakt, want ik kreeg de oude niet meer aan de praat. Deze start prima op, totdat ik de sata controller via passthrough weer beschikbaar maak. Dan komt ook deze VM in een never ending boot terecht.

Oftewel, sinds een reboot,: sata-controller passthrough naar VM = VM kapot.

Hoe nu verder?

Nog wat dingen op een rijtje:

Dit is mijn controller:
code:
1
00:17.0 SATA controller [0106]: Intel Corporation Raptor Lake SATA AHCI Controller [8086:7a62] (rev 11)


De passthrough doe ik zo:
Afbeeldingslocatie: https://tweakers.net/i/jrzZX2twLziZFNtN6mjTY8oyc98=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/r1pZLLUXJoFkhN96fzzyP345.png?f=user_large
(ook met All Functions aan geprobeerd, maakt geen verschil)

Op basis van PCI Passthrough (Proxmox) geverifieerd dat IOMMU enabled is en DMAR-IR: Enabled IRQ remapping in x2apic mode

Met pvesh get /nodes/pve/hardware/pci --pci-class-blacklist "" zie ik dat de controller netjes als enige in iommugroup 8 zit.

Ik probeer maar naar 1 VM de controller door te lussen.
En het werkte dus prima, tot een reboot :)

edit: nog even verder geploeterd met vriend ChatGPT o4-mini en na het toevoegen van
code:
1
intel_iommu=on iommu=pt pcie_acs_override=downstream

aan /etc/kernel/cmdline werkt alles nu weer naar behoren.

Snap alleen nog steeds niet waarom het weken heeft gewerkt zonder deze toevoeging :z

[ Voor 12% gewijzigd door Gizz op 27-06-2025 14:36 ]

Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX


Acties:
  • 0 Henk 'm!

  • Gizz
  • Registratie: Maart 2001
  • Laatst online: 23:06

Gizz

Dunder-Mifflin, Inc.

Nu de iGPU voor quicksync doorlussen van de host naar lxc en vervolgens naar de Jellyfin docker container.

Van host naar LXC gaat goed:
Afbeeldingslocatie: https://tweakers.net/i/YSgO1HYh3l-GyCqRbeEa0NmC92o=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/uuwjuZwjOlXjpYHsh9jhXGtU.png?f=user_large
Lijkt in de LXC goed aan te komen:

Bash:
1
2
3
root@yams:~# ls -l /dev/dri 
total 0
crw-rw---- 1 root 104 226, 128 Jun 27 13:12 renderD128

en
Bash:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
root@yams:~# vainfo
error: can't connect to X server!
libva info: VA-API version 1.17.0
libva info: Trying to open /usr/lib/x86_64-linux-gnu/dri/iHD_drv_video.so
libva info: Found init function __vaDriverInit_1_17
libva info: va_openDriver() returns 0
vainfo: VA-API version: 1.17 (libva 2.12.0)
vainfo: Driver version: Intel iHD driver for Intel(R) Gen Graphics - 23.1.1 ()
vainfo: Supported profile and entrypoints
      VAProfileNone                   : VAEntrypointVideoProc
      VAProfileNone                   : VAEntrypointStats
      VAProfileMPEG2Simple            : VAEntrypointVLD
      VAProfileMPEG2Main              : VAEntrypointVLD
      VAProfileH264Main               : VAEntrypointVLD
      VAProfileH264Main               : VAEntrypointEncSliceLP
      VAProfileH264High               : VAEntrypointVLD
      VAProfileH264High               : VAEntrypointEncSliceLP
      VAProfileJPEGBaseline           : VAEntrypointVLD
      VAProfileJPEGBaseline           : VAEntrypointEncPicture
      VAProfileH264ConstrainedBaseline: VAEntrypointVLD
      VAProfileH264ConstrainedBaseline: VAEntrypointEncSliceLP
      VAProfileHEVCMain               : VAEntrypointVLD
      VAProfileHEVCMain               : VAEntrypointEncSliceLP
      VAProfileHEVCMain10             : VAEntrypointVLD
      VAProfileHEVCMain10             : VAEntrypointEncSliceLP
      VAProfileVP9Profile0            : VAEntrypointVLD
      VAProfileVP9Profile0            : VAEntrypointEncSliceLP
      VAProfileVP9Profile1            : VAEntrypointVLD
      VAProfileVP9Profile1            : VAEntrypointEncSliceLP
      VAProfileVP9Profile2            : VAEntrypointVLD
      VAProfileVP9Profile2            : VAEntrypointEncSliceLP
      VAProfileVP9Profile3            : VAEntrypointVLD
      VAProfileVP9Profile3            : VAEntrypointEncSliceLP
      VAProfileHEVCMain12             : VAEntrypointVLD
      VAProfileHEVCMain422_10         : VAEntrypointVLD
      VAProfileHEVCMain422_12         : VAEntrypointVLD
      VAProfileHEVCMain444            : VAEntrypointVLD
      VAProfileHEVCMain444            : VAEntrypointEncSliceLP
      VAProfileHEVCMain444_10         : VAEntrypointVLD
      VAProfileHEVCMain444_10         : VAEntrypointEncSliceLP
      VAProfileHEVCMain444_12         : VAEntrypointVLD
      VAProfileHEVCSccMain            : VAEntrypointVLD
      VAProfileHEVCSccMain            : VAEntrypointEncSliceLP
      VAProfileHEVCSccMain10          : VAEntrypointVLD
      VAProfileHEVCSccMain10          : VAEntrypointEncSliceLP
      VAProfileHEVCSccMain444         : VAEntrypointVLD
      VAProfileHEVCSccMain444         : VAEntrypointEncSliceLP
      VAProfileAV1Profile0            : VAEntrypointVLD
      VAProfileHEVCSccMain444_10      : VAEntrypointVLD
      VAProfileHEVCSccMain444_10      : VAEntrypointEncSliceLP
Met dit een korte hardware-accelerated encode-test uitvoeren werkt ook goed:
Bash:
1
2
3
ffmpeg -hwaccel vaapi -vaapi_device /dev/dri/renderD128 \
  -f lavfi -i testsrc=size=1280x720:rate=30 \
  -vf 'format=nv12,hwupload' -c:v h264_vaapi -t 5 -y /tmp/out.mp4



Nu nog het doorspelen naar de docker container. Volgens de docs van linuxserver.io zou het zo simpel moeten zijn als:
Intel/ATI/AMD¶

To leverage hardware acceleration you will need to mount /dev/dri video device inside of the container.

--device=/dev/dri:/dev/dri

We will automatically ensure the abc user inside of the container has the proper permissions to access this device.
Helaas krijg ik in jellyfin met
--device=/dev/dri:/dev/dri op de container en hardware acceleration aan bij elke video die ik probeer te kijken een "Playback failed due to a fatal player error."

Nu klinkt --device=/dev/dri:/dev/dri wat raar, want bij mij heet dat ding duidelijk /dev/dri/renderD128. Dus ook dit gebruikt bij het starten van de container:
code:
1
--device=/dev/dri/renderD128:/dev/dri

Maar daarmee krijg ik de volgende foutmelding, dus dan maar terug naar de voorgeschreven /dev/dri:
Failed starting container: error gathering device information while adding custom device "/dev/dri/renderD128/": not a directory
Binnen Jellyfin heb ik zowel VA-API als QSV geprobeerd.
En bij QSV Device (dan wel VA-API device) drie verschillende smaken: niks, /dev/dri of /dev/dri/renderD128
Afbeeldingslocatie: https://tweakers.net/i/ekUYBHh4IViPrfKBCnd67i8tuec=/800x/filters:strip_exif()/f/image/kiPzyajueUVbKNlP0OeililW.png?f=fotoalbum_large

Welke combinatie ik ook probeer, het eindigt altijd met onspeelbare video (Playback failed due to a fatal player error). Zet ik hardware transcoding uit, dan werkt alles weer.

Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX


Acties:
  • 0 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 22:33
@Gizz

Zo simpel is het volgens mij niet, want Docker doet ook aan usermapping?
Denk dat je de UID uit de container moet mappen op een UID van de LXC (???)
https://ilya-bystrov.gith...er-daemon-remapping=.html

Om die reden heb ik mijn immich op een (unprivileged) LXC draaien.
Als het beter kan hoor ik dat graag, maar dit werkt wel.
code:
1
2
3
4
5
root@pmve:/dev/dri/by-path# ls -l /dev/dri
total 0
drwxr-xr-x 2 root root         80 May  3 08:01 by-path
crw-rw---- 1 root video  226,   1 May  3 08:01 card1
crw-rw---- 1 root render 226, 128 May  3 08:01 renderD128

code:
1
2
3
4
root@immich:/home/immich# ls -l /dev/dri
total 0
crw-rw---- 1 nobody nogroup 226,   1 May  3 06:01 card1
crw-rw---- 1 nobody render  226, 128 May  3 06:01 renderD128

Acties:
  • 0 Henk 'm!

  • Gizz
  • Registratie: Maart 2001
  • Laatst online: 23:06

Gizz

Dunder-Mifflin, Inc.

@RudolfR dank voor je reactie! Ik vermoed dat ik toch ergens in de GUI van Jellyfin iets verkeerd doe. Want als ik via de shell direct binnen de docker container een file probeer te decoden via VAAPI, dan werkt dit prima:
Bash:
1
2
3
4
5
6
7
docker exec -it jellyfin /bin/bash -c "
  /usr/lib/jellyfin-ffmpeg/ffmpeg \
    -init_hw_device vaapi=intel:/dev/dri/renderD128 \
    -f matroska -i \"/data/tvshows/onschuldige creative commons video.mkv\" \
    -vf 'format=nv12,hwupload' -c:v h264_vaapi -t 5 \
    /tmp/jf-test.mp4
"

Dan schieten er allemaal statistieken door het beeld en werkt de decoding.

Stel ik in de GUI van Jellyfin ook VAAPI met /dev/dri/renderD128 in en speel ik precies dezelfde video af, dan krijg ik direct de 'Fatal player error' voor mijn neus.

Als het goed is neemt mijn image automatisch de usermappings voor z'n rekening:
To leverage hardware acceleration you will need to mount /dev/dri video device inside of the container.

--device=/dev/dri:/dev/dri

We will automatically ensure the abc user inside of the container has the proper permissions to access this device.
Ik geloof dat ik vrij dicht bij de kern ben. Maar geen idee wat nou dat laatste dingetje is waarom dit niet werkt :P

edit: in het staartje van het ffmpeg-log binnen Jellyfin zie ik nog dit waarschijnlijk relevante stukje:
code:
1
2
3
4
5
Device creation failed: -542398533.
[vist#0:0/hevc @ 0x5bac3681fe00] [dec:hevc @ 0x5bac3682d9c0] No device available for decoder: device type vaapi needed for codec hevc.
[vist#0:0/hevc @ 0x5bac3681fe00] [dec:hevc @ 0x5bac3682d9c0] Hardware device setup failed for decoder: Generic error in an external library
Error opening output file /config/cache/transcodes/90d7365f2ab90c78cbec85fa75c31bea.m3u8.
Error opening output files: Generic error in an external library


edit 2: nog een andere suggestie van vriend GPT:
Bash:
1
2
3
4
5
6
/usr/lib/jellyfin-ffmpeg/ffmpeg \
  -hwaccel vaapi -hwaccel_device /dev/dri/renderD128 \
  -init_hw_device vaapi=va:/dev/dri/renderD128 \
  -filter_hw_device va \
  -f matroska -i "/data/tvshows/onschuldige creative commons video.mkv" \
  -c:v hevc_vaapi -t 1 -f null -


geeft:

Bash:
1
2
3
4
5
6
7
8
9
10
Impossible to convert between the formats supported by the filter 'Parsed_null_0' and the filter 'auto_scale_0'
[vf#0:0 @ 0x5896e9bb8640] Error reinitializing filters!
[vf#0:0 @ 0x5896e9bb8640] Task finished with error code: -38 (Function not implemented)
[vf#0:0 @ 0x5896e9bb8640] Terminating thread with return code -38 (Function not implemented)
[vost#0:0/hevc_vaapi @ 0x5896e9cc49c0] Could not open encoder before EOF
[vost#0:0/hevc_vaapi @ 0x5896e9cc49c0] Task finished with error code: -22 (Invalid argument)
[vost#0:0/hevc_vaapi @ 0x5896e9cc49c0] Terminating thread with return code -22 (Invalid argument)
[out#0/null @ 0x5896e9ca60c0] Nothing was written into output file, because at least one of its streams received no packets.
frame=    0 fps=0.0 q=0.0 Lsize=       0KiB time=N/A bitrate=N/A speed=N/A    
Conversion failed!

:/

[ Voor 42% gewijzigd door Gizz op 27-06-2025 17:10 ]

Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX


Acties:
  • 0 Henk 'm!

  • Ortep
  • Registratie: Maart 2000
  • Niet online

Ortep

Soylent Green is People!

Ik ben een absolute beginner met proxmox, Ik ben er net een paar dagen mee aan het spelen.

Ik heb een Beelink S13 gevonden en daar zat een 512GB disk in. Even zitten spelen en Proxmox er op gezet. dat werkte verder goed.

Maar ik vond het een beetje zonde dat ik iets van 300GB van de 512 GB aan Proxmox zou moeten geven. Dat doet hij namelijk vanzelf,

Ik had nog een 256 GB ssd liggen en die heb ik er bij geprikt om vanaf daar te booten.

Even Proxmox opnieuw installeren. Toen kreeg ik tijdens de install de melding dat er een oude Proxmox was. Ik kon maar twee dingen doen, afbreken of de andere hernoemen naar 'Old'. Zeggen gooi maar weg was niet mogelijk.

Geen probleem leek me. Maar nu alles weer draait blijft de oude ssd nog in gebruik te zijn. En er is iets van 300GB voor de oude Proxmox aanwezig. Maar dat ik ik niet, ik wil een lege schijf.

Dus selecteer ik de schijf, ik klik op wipe disk en het antwoord is:

disk/partition '/dev/sda3' has a holder (500)

En ik mag er verder niets mee.

Als ik zoek op de foutmelding vind ik vermeldingen dat Proxmox dat doet omdat hij niet zeker is dat de schijf gewist mag worden. Prima, mooi veilig, maar hoe krijg ik Proxmox zover dat hij naar me luistert als ik zeg dat ik die schijf echt leeg wil hebben?

Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 14:36
Ortep schreef op vrijdag 27 juni 2025 @ 16:41:
Ik ben een absolute beginner met proxmox, Ik ben er net een paar dagen mee aan het spelen.

Ik heb een Beelink S13 gevonden en daar zat een 512GB disk in. Even zitten spelen en Proxmox er op gezet. dat werkte verder goed.

Maar ik vond het een beetje zonde dat ik iets van 300GB van de 512 GB aan Proxmox zou moeten geven. Dat doet hij namelijk vanzelf,

Ik had nog een 256 GB ssd liggen en die heb ik er bij geprikt om vanaf daar te booten.

Even Proxmox opnieuw installeren. Toen kreeg ik tijdens de install de melding dat er een oude Proxmox was. Ik kon maar twee dingen doen, afbreken of de andere hernoemen naar 'Old'. Zeggen gooi maar weg was niet mogelijk.

Geen probleem leek me. Maar nu alles weer draait blijft de oude ssd nog in gebruik te zijn. En er is iets van 300GB voor de oude Proxmox aanwezig. Maar dat ik ik niet, ik wil een lege schijf.

Dus selecteer ik de schijf, ik klik op wipe disk en het antwoord is:

disk/partition '/dev/sda3' has a holder (500)

En ik mag er verder niets mee.

Als ik zoek op de foutmelding vind ik vermeldingen dat Proxmox dat doet omdat hij niet zeker is dat de schijf gewist mag worden. Prima, mooi veilig, maar hoe krijg ik Proxmox zover dat hij naar me luistert als ik zeg dat ik die schijf echt leeg wil hebben?
Booten vanaf een Live-USB en de beoogde schijf wipen: wipefs --all /dev/sdx.
Daarna Proxmox booten en kijken wat er gebeurd - eventueel opnieuw installeren.

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Ortep
  • Registratie: Maart 2000
  • Niet online

Ortep

Soylent Green is People!

@Airw0lf

Bedankt

Dat ga ik na het weekend wel een keer proberen. Met iets wat op Linux werkt is het nooit eenvoudig

[ Voor 4% gewijzigd door Ortep op 27-06-2025 17:31 ]

Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato


Acties:
  • 0 Henk 'm!

  • Ortep
  • Registratie: Maart 2000
  • Niet online

Ortep

Soylent Green is People!

@Airw0lf Ik had toch nog even tijd. Helaas, dat werkt niet. Ik heb een live USB van Linux mint gepakt en als ik wat dan ook met die ssd probeer te doen dan krijg ik permission denied. Sudo werkt ook niet.

Moet ik soms een speciala live USB hebben?

Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 14:36
@Ortep - ik weet niet wat de stappen precies zijn geweest.
Maar deze aanpak heeft bij mij nooit gefaald - niet met Mint en ook niet met Debian.

Linux vereist inderdaad een steile leercurve - maar eenmaal gedaan is het een life-saver! :+
Ik heb er al de nodig Windows installaties mee gerepareerd - waaronder het verwijderen van malware/ransomware. En voor zover dat toch niet lukte was ik in ieder geval in staat de gegevens eraf te krijgen.

Kan je Mint nog eens starten vanaf USB?
Wat laat gparted zien van de betreffende ssd?

Of nog beter - een sudo shell:
Wat is de output van sudo fdisk -l en sudo lsblk -f?

[ Voor 42% gewijzigd door Airw0lf op 27-06-2025 19:38 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Ortep
  • Registratie: Maart 2000
  • Niet online

Ortep

Soylent Green is People!

@Airw0lf
Ik kan mint starten, geen probleem. Gparted werkt, maar ik mag niets doen met de 512GB schijf. Hij is door Mint gelocked.
Ik heb een Terminal geopend en als ik daar wat den ook met sudo probeer, dan mag ik heel sudo niet uitvoeren.

Ik heb helaas nu geen tijd meer. Dat wordt volgende week pas weer. In ieder geval bedankt voor je hulp

Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato


Acties:
  • 0 Henk 'm!

  • ninjazx9r98
  • Registratie: Juli 2002
  • Laatst online: 23:49
@Ortep Wat bedoel je met 300GB aan Proxmox geven? Ik denk dat je je hier vergist wat er precies gebeurt en waar het voor gebruikt wordt. Binnen die 300GB zal de Proxmox installatie bestaan en draaien maar daar kun je normaal gesproken ook VM's in aanmaken.

Acties:
  • 0 Henk 'm!

  • Ortep
  • Registratie: Maart 2000
  • Niet online

Ortep

Soylent Green is People!

@ninjazx9r98
Misschien heb ik het verkeerd geformuleerd. Ik weet dat die ruimte daar voor wordt gebruikt. Maar ik vind het een tikje onzin dat Proxmox de hele 256 Disk kan gebruiken en dan ook nog 300GB op de tweede drive in gebruik houdt en die weigert vrij te geven.

Totaal heeft hij dan bijna 500GB geblokkeerd. Een tikje veel voor een stel iso's en wat VM's

Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato


Acties:
  • 0 Henk 'm!

  • Gizz
  • Registratie: Maart 2001
  • Laatst online: 23:06

Gizz

Dunder-Mifflin, Inc.

@Ortep ik snap nog niet wat je bedoelt met 500GB blokkeren. Die ruimte kun je toch voor van alles en nog wat gebruiken? Als je Windows installeert op een 512GB schijf en hij maakt daar één partitie van 512GB van, dan 'blokkeert' Windows toch ook niet 512GB? Het grootste deel is vrij beschikbare ruimte.
500GB geblokkeerd. Een tikje veel voor een stel iso's en wat VM's
Maar je kunt in die 500GB qua data neergooien wat je wilt, niet alleen iso's en VM's? Het is niet alsof bij 1 partitie van 500GB je er niks mee kunt en het opeens wel bruikbare ruimte hebt als je 1 partitie van 50GB hebt voor Proxmox/VM's en 1 partitie van 450GB voor de rest.

In die 500GB 'geblokkeerde' ruimte kun je ook prima 400GB aan films of zo zetten.

* Gizz heeft één pool/partitie van 2TB (2x 2TB nvme in mirror) waar Proxmox op staat.

[ Voor 5% gewijzigd door Gizz op 28-06-2025 10:18 ]

Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX


Acties:
  • +1 Henk 'm!

  • Ortep
  • Registratie: Maart 2000
  • Niet online

Ortep

Soylent Green is People!

@Gizz

Dat was nu juist NIET het geval, was het maar waar.. Ik mag niets doen met die tweede schijf. Proxmox blokkeert iedere toegang.

Ik kan nu niet bij het systeem. Maar het komt er op neer dat Proxmox zegt: Op die drive stond vroeger Proxmox, ik hernoem hem naar OLD en voor de rest mag je er niets mee. Niet leeg maken, niet verwijderen en opnieuw partitioneren, niets op schrijven helemaal niets.

Als je gaat zoeken op de de foutmelding die ik noemde dan vindt je verwijzingen naar andere mensen die dit ook hebben.
De verklaring schijnt te zijn: Proxmox weet niet zeker wat je miet die schijf wil en of het systeem hem misschien ooit zelf nog een keer nodig heeft. dus bijf je er van af.

Heel erg veilig en vreselijk onhandig.

Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato


Acties:
  • 0 Henk 'm!

  • Gizz
  • Registratie: Maart 2001
  • Laatst online: 23:06

Gizz

Dunder-Mifflin, Inc.

Gizz schreef op vrijdag 27 juni 2025 @ 16:23:
[...]

Ik geloof dat ik vrij dicht bij de kern ben. Maar geen idee wat nou dat laatste dingetje is waarom dit niet werkt :P
Toch niet echt. Ik heb er nu een uurtje of vijf inzitten (tutorials volgen, troubleshooten met chatGPT) om hardware acceleration aan de praat te krijgen, maar ben geen stap verder :X

Laatste poging is de route Proxmox -> LXC -> Jellyfin-docker vergeten en direct voor Jellyfin in een LXC te gaan. Hiervoor heb ik het Jellyfin Helper-script gebruikt, waar meteen ffmpeg en voorbereiding voor hardware acceleration in zou moeten zitten.

Het klopt dat in de .conf al netjes de iGPU wordt doorgegeven met dev0 en dev1, inclusief juiste gid:
Bash:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
arch: amd64
cores: 2
dev0: /dev/dri/card0,gid=44
dev1: /dev/dri/renderD128,gid=104
features: keyctl=1,nesting=1
hostname: jellyfin
memory: 2048
mp0: /mnt/truenas_media,mp=/mnt/media
net0: name=eth0,bridge=vmbr0,hwaddr=BC:24:11:0B:BF:18,ip=dhcp,type=veth
onboot: 1
ostype: ubuntu
rootfs: local-zfs:subvol-112-disk-0,size=8G
swap: 512
tags: community-script;media
unprivileged: 1


Ook vainfo laat in de LXC zien dat de VAP-API beschikbaar is en de intel driver bestaat:
Bash:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
root@jellyfin:~# vainfo
error: can't connect to X server!
libva info: VA-API version 1.20.0
libva info: Trying to open /usr/lib/x86_64-linux-gnu/dri/iHD_drv_video.so
libva info: Found init function __vaDriverInit_1_20
libva info: va_openDriver() returns 0
vainfo: VA-API version: 1.20 (libva 2.12.0)
vainfo: Driver version: Intel iHD driver for Intel(R) Gen Graphics - 24.1.0 ()
vainfo: Supported profile and entrypoints
      VAProfileNone                   : VAEntrypointVideoProc
      VAProfileNone                   : VAEntrypointStats
      VAProfileMPEG2Simple            : VAEntrypointVLD
      VAProfileMPEG2Main              : VAEntrypointVLD
      VAProfileH264Main               : VAEntrypointVLD
      VAProfileH264Main               : VAEntrypointEncSliceLP
      VAProfileH264High               : VAEntrypointVLD
      VAProfileH264High               : VAEntrypointEncSliceLP
      VAProfileJPEGBaseline           : VAEntrypointVLD
      VAProfileJPEGBaseline           : VAEntrypointEncPicture
      VAProfileH264ConstrainedBaseline: VAEntrypointVLD
      VAProfileH264ConstrainedBaseline: VAEntrypointEncSliceLP
      VAProfileHEVCMain               : VAEntrypointVLD
      VAProfileHEVCMain               : VAEntrypointEncSliceLP
      VAProfileHEVCMain10             : VAEntrypointVLD
      VAProfileHEVCMain10             : VAEntrypointEncSliceLP
      VAProfileVP9Profile0            : VAEntrypointVLD
      VAProfileVP9Profile0            : VAEntrypointEncSliceLP
      VAProfileVP9Profile1            : VAEntrypointVLD
      VAProfileVP9Profile1            : VAEntrypointEncSliceLP
      VAProfileVP9Profile2            : VAEntrypointVLD
      VAProfileVP9Profile2            : VAEntrypointEncSliceLP
      VAProfileVP9Profile3            : VAEntrypointVLD
      VAProfileVP9Profile3            : VAEntrypointEncSliceLP
      VAProfileHEVCMain12             : VAEntrypointVLD
      VAProfileHEVCMain422_10         : VAEntrypointVLD
      VAProfileHEVCMain422_12         : VAEntrypointVLD
      VAProfileHEVCMain444            : VAEntrypointVLD
      VAProfileHEVCMain444            : VAEntrypointEncSliceLP
      VAProfileHEVCMain444_10         : VAEntrypointVLD
      VAProfileHEVCMain444_10         : VAEntrypointEncSliceLP
      VAProfileHEVCMain444_12         : VAEntrypointVLD
      VAProfileHEVCSccMain            : VAEntrypointVLD
      VAProfileHEVCSccMain            : VAEntrypointEncSliceLP
      VAProfileHEVCSccMain10          : VAEntrypointVLD
      VAProfileHEVCSccMain10          : VAEntrypointEncSliceLP
      VAProfileHEVCSccMain444         : VAEntrypointVLD
      VAProfileHEVCSccMain444         : VAEntrypointEncSliceLP
      VAProfileAV1Profile0            : VAEntrypointVLD
      VAProfileHEVCSccMain444_10      : VAEntrypointVLD
      VAProfileHEVCSccMain444_10      : VAEntrypointEncSliceLP


Maar wederom, of ik in Jellyfin nou VA-API of QSV kies, elke video waar hij hardware decoding probeert toe te passen eindigt in een fatal player error.

* Gizz begint enigszins te wanhopen.

edit:
In plaats van
code:
1
2
dev0: /dev/dri/card0,gid=44
dev1: /dev/dri/renderD128,gid=104

Ook nog dit geprobeert op basis van deze tutorial, wat (bijna) hetzelfde is als de Jellyfin Proxmox documentatie:
code:
1
2
3
4
lxc.cgroup2.devices.allow: c 226:0 rwm
lxc.cgroup2.devices.allow: c 226:128 rwm
lxc.mount.entry: /dev/dri/renderD128 dev/dri/renderD128 none bind,optional,create=file
lxc.hook.pre-start: sh -c "chown 0:993 /dev/dri/renderD128"

Resultaat is hetzelfde; fatal player error bij elke video. En in de shell decoden levert nog steeds the 'impossible to convert between the formats' op, net als bij mijn docker-poging:

Bash:
1
2
3
4
5
6
7
8
9
10
Impossible to convert between the formats supported by the filter 'Parsed_null_0' and the filter 'auto_scale_0'
[vf#0:0 @ 0x5813f7670640] Error reinitializing filters!
[vf#0:0 @ 0x5813f7670640] Task finished with error code: -38 (Function not implemented)
[vf#0:0 @ 0x5813f7670640] Terminating thread with return code -38 (Function not implemented)
[vost#0:0/hevc_vaapi @ 0x5813f777cf40] Could not open encoder before EOF
[vost#0:0/hevc_vaapi @ 0x5813f777cf40] Task finished with error code: -22 (Invalid argument)
[vost#0:0/hevc_vaapi @ 0x5813f777cf40] Terminating thread with return code -22 (Invalid argument)
[out#0/null @ 0x5813f779db00] Nothing was written into output file, because at least one of its streams received no packets.
frame=    0 fps=0.0 q=0.0 Lsize=       0KiB time=N/A bitrate=N/A speed=N/A    
Conversion failed!


edit 2:
Er valt mij een verschil in drivers op.

Op de proxmox host levert
code:
1
apt install intel-media-va-driver-non-free -y

dit op:
code:
1
intel-media-va-driver-non-free is already the newest version (23.1.1+ds1-1).

terwijl ik in de LXC krijg:
code:
1
intel-media-va-driver-non-free is already the newest version (24.1.0+ds1-1).


Zou hier het probleem in kunnen zitten :?

edit 3:
Ik was er een beetje klaar mee en heb Jellyfin direct binnen Proxmox in een docker gegooid. Dus zonder LXC ertussen. Nu werkt hardware decoding direct met simpelweg --device /dev/dri:/dev/dri .

Zou het graag nog netjes in een LXC krijgen, maar ik kan nu in ieder geval video kijken.

[ Voor 20% gewijzigd door Gizz op 28-06-2025 13:23 ]

Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX


Acties:
  • 0 Henk 'm!

  • HowsMyApple
  • Registratie: November 2010
  • Laatst online: 12-07 08:29
@Gizz Ik heb volgens mij iets vergelijkbaars gehad. Meen te herinneren dat de "fatal player error" iets te maken had met welke codecs ik aan aan had gevinkt. Nu met nog slechts een beperkt aantal codecs over speelt alles weer af en gaat transcoding goed.

Kan nu op afstand even niet voor je kijken welke ik nu aan heb staan. Tweede dag op rij dat ik m'n proxmox niet meer kan benaderen, terwijl alle LXC's en VM's nog lijken te draaien aangezien ik die nog kan benaderen.

Aangezien m'n services nog online zijn zou je denken dat proxmox ook nog (deels) draait, toch? Ligt dan alleen de GUI eruit ofzo? Kan nu eigenlijk niets anders dan een harde reboot doen..

Acties:
  • 0 Henk 'm!

  • Gizz
  • Registratie: Maart 2001
  • Laatst online: 23:06

Gizz

Dunder-Mifflin, Inc.

@HowsMyApple toevallig heb ik net een derde edit toegevoegd aan mijn post. Ik heb nu dus Jellyfin direct binnen Proxmox op een docker draaien en nu werkt de hardware encoding direct met precies dezelfde videos en codecs die ik ook binnen de LXC en binnen LXC>Docker heb geprobeerd.

Ik snap er weinig van en vind het lelijk dat ik direct docker binnen Proxmox heb draaien (komt nergens mooi terug in de GUI), maar het werkt wel..

Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX


Acties:
  • 0 Henk 'm!

  • ninjazx9r98
  • Registratie: Juli 2002
  • Laatst online: 23:49
Ortep schreef op zaterdag 28 juni 2025 @ 09:59:
@ninjazx9r98
Misschien heb ik het verkeerd geformuleerd. Ik weet dat die ruimte daar voor wordt gebruikt. Maar ik vind het een tikje onzin dat Proxmox de hele 256 Disk kan gebruiken en dan ook nog 300GB op de tweede drive in gebruik houdt en die weigert vrij te geven.

Totaal heeft hij dan bijna 500GB geblokkeerd. Een tikje veel voor een stel iso's en wat VM's
Ok, begrijp nu wat je bedoelt en had misschien ook duidelijker kunnen zijn. Wat ik wilde zeggen is dat er geen reden is/was om een tweede disk te installeren voor de Proxmox installatie omdat het normaal gedrag is van Proxmox wat er gebeurde en dat je de ruimte gewoon kunt gebruiken.
Mijn vermoeden is dat de verse Proxmox installatie toch iets van de eerste disk in gebruik heeft of denkt te hebben. Dat kan een VM zijn mocht je die al geinstalleerd hebben voor je de tweede disk installeerde of dat de boot start van de eerste disk en verder gaat met de tweede.
Daarvoor zou je diep(er) in de configuratie moeten duiken en goed kunnen interpreteren wat je ziet.

Voor wat betreft de live CD/ISO, geen idee waarom dat niet zou werken en waarom sudo niet zou werken. Normaal gesproken zou dat gewoon moeten werken op een willekeurige live CD/ISO.

Acties:
  • +1 Henk 'm!

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 11-07 15:25
Ortep schreef op vrijdag 27 juni 2025 @ 16:41:
Ik heb een Beelink S13 gevonden en daar zat een 512GB disk in. Even zitten spelen en Proxmox er op gezet. dat werkte verder goed.

Maar ik vond het een beetje zonde dat ik iets van 300GB van de 512 GB aan Proxmox zou moeten geven. Dat doet hij namelijk vanzelf,

Ik had nog een 256 GB ssd liggen en die heb ik er bij geprikt om vanaf daar te booten.

Even Proxmox opnieuw installeren. Toen kreeg ik tijdens de install de melding dat er een oude Proxmox was. Ik kon maar twee dingen doen, afbreken of de andere hernoemen naar 'Old'. Zeggen gooi maar weg was niet mogelijk.

Geen probleem leek me. Maar nu alles weer draait blijft de oude ssd nog in gebruik te zijn. En er is iets van 300GB voor de oude Proxmox aanwezig. Maar dat ik ik niet, ik wil een lege schijf.

Dus selecteer ik de schijf, ik klik op wipe disk en het antwoord is:

disk/partition '/dev/sda3' has a holder (500)

En ik mag er verder niets mee.
Ik vermoed dat je Proxmox geinstalleerd hebt met LVM. In eerste instantie op de 512GB ssd en daarna nog een keer op de 256GB ssd. Bij het booten vanaf de 256GB disk doet hij een LVM scan en vind hij ook de oude volumes op de 512GB SSD die nog in het systeem zit. Je kunt een disk waarop een gekoppeld LVM volume actief is niet zomaar wipen.
Ortep schreef op vrijdag 27 juni 2025 @ 19:04:
Ik heb een live USB van Linux mint gepakt en als ik wat dan ook met die ssd probeer te doen dan krijg ik permission denied. Sudo werkt ook niet.
Mint doet waarschijnlijk hetzelfde en importeert ook automatisch de aanwezige LVM volumes als je boot vanaf een Live USB.

In short; eerst de LVM volumes op de 512GB disk deactiveren, daarna kun je de disk wipen.

Nog een paardenmiddel; het is Proxmox dus als je een backup maakt van je VMs en LXCs kun je ook vrij vlot eerst de disks helemaal leeg maken buiten Proxmox om, dan de hele hypervisor schoon opnieuw installeren en daarna de VMs en LXCs herstellen.

Daarnaast; je kunt in plaats van LVM ook ZFS gebruiken als basis voor Proxmox. Dan hoef je ook niet op voorhand een bepaalde hoeveel ruimte 'aan Proxmox te geven'. Maak je naast de rpool/ROOT en rpool/data datasets van Proxmox gewoon je eigen datasets aan en wordt de benodigde ruimte flexibel toegekend totdat de schijf vol is.

[ Voor 6% gewijzigd door d3vlin op 30-06-2025 10:26 ]

Leaping Lab Rats!


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 14:36
d3vlin schreef op maandag 30 juni 2025 @ 09:33:
[...]

Daarnaast; je kunt in plaats van LVM ook ZFS gebruiken als basis voor Proxmox. Dan hoef je ook niet op voorhand een bepaalde hoeveel ruimte 'aan Proxmox te geven'. Maak je naast de rpool/ROOT en rpool/data datasets van Proxmox gewoon je eigen datasets aan en wordt de benodigde ruimte flexibel toegekend totdat de schijf vol is.
Klopt - met die kanttekening dat je dan wel redelijk wat aan (extra?) geheugen nodig hebt.
Als er zwaar ingezet wordt op compressie is een stevige CPU op zijn minst handig.

Een compromis zou kunnen bestaan uit de inzet van lvm-thin.
Heeft niet de compressie en herstel mogelijkheden van ZFS.
Maar wel de genoemde flexibiliteit in gebruikte van diskruimte.

makes it run like clockwork


Acties:
  • +1 Henk 'm!

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 11-07 15:25
Airw0lf schreef op maandag 30 juni 2025 @ 09:50:
[...]

Klopt - met die kanttekening dat je dan wel redelijk wat aan (extra?) geheugen nodig hebt.
Als er zwaar ingezet wordt op compressie is een stevige CPU op zijn minst handig.
Ik draai Proxmox met ZFS en zstd op een Alder Lake N95 / 16GB LPDDR5 machientje en dat gaat prima. Volgens mij redelijk vergelijkbaar met de Beelink S13 van @Ortep. Enige minpunt is dat het ding non-ECC geheugen heeft, maar dat neem ik voor lief.

[ Voor 3% gewijzigd door d3vlin op 30-06-2025 10:16 ]

Leaping Lab Rats!


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 14:36
d3vlin schreef op maandag 30 juni 2025 @ 10:14:
[...]

Ik draai Proxmox met ZFS en zstd op een Alder Lake N95 / 16GB LPDDR5 machientje en dat gaat prima. Volgens mij redelijk vergelijkbaar met de Beelink S13 van @Ortep. Enige minpunt is dat het ding non-ECC geheugen heeft, maar dat neem ik voor lief.
Top - en hoeveel diskruimte hangt hier dan onder?

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • d3vlin
  • Registratie: September 2000
  • Laatst online: 11-07 15:25
Er zit een 512GB ssd in.
uitvoering: Sukotop T9Plus

[ Voor 67% gewijzigd door d3vlin op 30-06-2025 11:10 ]

Leaping Lab Rats!


Acties:
  • 0 Henk 'm!

  • Ortep
  • Registratie: Maart 2000
  • Niet online

Ortep

Soylent Green is People!

d3vlin schreef op maandag 30 juni 2025 @ 09:33:
[...]


Ik vermoed dat je Proxmox geinstalleerd hebt met LVM. In eerste instantie op de 512GB ssd en daarna nog een keer op de 256GB ssd. Bij het booten vanaf de 256GB disk doet hij een LVM scan en vind hij ook de oude volumes op de 512GB SSD die nog in het systeem zit. Je kunt een disk waarop een gekoppeld LVM volume actief is niet zomaar wipen.


[...]


Mint doet waarschijnlijk hetzelfde en importeert ook automatisch de aanwezige LVM volumes als je boot vanaf een Live USB.
Dat klinkt alsof dat bij mij zo gegaan is.
Nog een paardenmiddel; het is Proxmox dus als je een backup maakt van je VMs en LXCs kun je ook vrij vlot eerst de disks helemaal leeg maken buiten Proxmox om, dan de hele hypervisor schoon opnieuw installeren en daarna de VMs en LXCs herstellen.
Er staat nog niet echt iets op. Ik was aan het experimenteren.

Zodra ik bij het systeem kan zal ik kijken of ik alles kan wissen en gewoon een schone instal doen

Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato


Acties:
  • 0 Henk 'm!

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 15:51
RedRayMann schreef op vrijdag 23 mei 2025 @ 11:43:
[...]


Ik heb ook problemen met Immich. Immich werkt alleen met de standaard opslaglocatie. Terwijl ik JellyFin wel werkend heb met alle data op een share.
Immich werkt ook prima met External libary. Heb ik ook zo, Immich in unprivileged container op PVE, data staat op Synology. Deze wordt via bind mount vanaf de host beschikbaar gemaakt in de container.

- raid does not fix stupid -


Acties:
  • 0 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 13:36
Patatjemet schreef op maandag 30 juni 2025 @ 18:04:
[...]


Immich werkt ook prima met External libary. Heb ik ook zo, Immich in unprivileged container op PVE, data staat op Synology. Deze wordt via bind mount vanaf de host beschikbaar gemaakt in de container.
Dank, ik duik er in!

Ik heb Immich in een LXC in Docker. Heb Immich niet "kaal" in een LXC.

[ Voor 8% gewijzigd door RedRayMann op 30-06-2025 21:17 ]


Acties:
  • 0 Henk 'm!

  • Patatjemet
  • Registratie: Mei 2008
  • Laatst online: 15:51
Ah ok, met app in lxc in docker op pve heb ik zelf geen ervaring. Maar als het je bij Jellyfin wel is gelukt zal het bij Immich met flink wat Googlefu ook wel lukken :)

- raid does not fix stupid -


Acties:
  • 0 Henk 'm!

  • daily.data.inj
  • Registratie: Januari 2019
  • Niet online
RedRayMann schreef op maandag 30 juni 2025 @ 21:16:
[...]

Dank, ik duik er in!

Ik heb Immich in een LXC in Docker. Heb Immich niet "kaal" in een LXC.
Ik heb Immich wel draaien in een docker (wel in een aparte VM waar alle dockers in draaien ipv LXC).
Data mount is naar een andere Truenas VM en werkt prima met CIFS. Het is altijd even zoeken met juiste UIDs en locaties maar als je in de container inlogt kun je vrij snel zoeken of het goed gaat.

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 20:46
Gizz schreef op zaterdag 28 juni 2025 @ 11:07:
[...]

Toch niet echt. Ik heb er nu een uurtje of vijf inzitten (tutorials volgen, troubleshooten met chatGPT) om hardware acceleration aan de praat te krijgen, maar ben geen stap verder :X

Laatste poging is de route Proxmox -> LXC -> Jellyfin-docker vergeten en direct voor Jellyfin in een LXC te gaan. Hiervoor heb ik het Jellyfin Helper-script gebruikt, waar meteen ffmpeg en voorbereiding voor hardware acceleration in zou moeten zitten.

Het klopt dat in de .conf al netjes de iGPU wordt doorgegeven met dev0 en dev1, inclusief juiste gid:
Bash:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
arch: amd64
cores: 2
dev0: /dev/dri/card0,gid=44
dev1: /dev/dri/renderD128,gid=104
features: keyctl=1,nesting=1
hostname: jellyfin
memory: 2048
mp0: /mnt/truenas_media,mp=/mnt/media
net0: name=eth0,bridge=vmbr0,hwaddr=BC:24:11:0B:BF:18,ip=dhcp,type=veth
onboot: 1
ostype: ubuntu
rootfs: local-zfs:subvol-112-disk-0,size=8G
swap: 512
tags: community-script;media
unprivileged: 1


Ook vainfo laat in de LXC zien dat de VAP-API beschikbaar is en de intel driver bestaat:
Bash:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
root@jellyfin:~# vainfo
error: can't connect to X server!
libva info: VA-API version 1.20.0
libva info: Trying to open /usr/lib/x86_64-linux-gnu/dri/iHD_drv_video.so
libva info: Found init function __vaDriverInit_1_20
libva info: va_openDriver() returns 0
vainfo: VA-API version: 1.20 (libva 2.12.0)
vainfo: Driver version: Intel iHD driver for Intel(R) Gen Graphics - 24.1.0 ()
vainfo: Supported profile and entrypoints
      VAProfileNone                   : VAEntrypointVideoProc
      VAProfileNone                   : VAEntrypointStats
      VAProfileMPEG2Simple            : VAEntrypointVLD
      VAProfileMPEG2Main              : VAEntrypointVLD
      VAProfileH264Main               : VAEntrypointVLD
      VAProfileH264Main               : VAEntrypointEncSliceLP
      VAProfileH264High               : VAEntrypointVLD
      VAProfileH264High               : VAEntrypointEncSliceLP
      VAProfileJPEGBaseline           : VAEntrypointVLD
      VAProfileJPEGBaseline           : VAEntrypointEncPicture
      VAProfileH264ConstrainedBaseline: VAEntrypointVLD
      VAProfileH264ConstrainedBaseline: VAEntrypointEncSliceLP
      VAProfileHEVCMain               : VAEntrypointVLD
      VAProfileHEVCMain               : VAEntrypointEncSliceLP
      VAProfileHEVCMain10             : VAEntrypointVLD
      VAProfileHEVCMain10             : VAEntrypointEncSliceLP
      VAProfileVP9Profile0            : VAEntrypointVLD
      VAProfileVP9Profile0            : VAEntrypointEncSliceLP
      VAProfileVP9Profile1            : VAEntrypointVLD
      VAProfileVP9Profile1            : VAEntrypointEncSliceLP
      VAProfileVP9Profile2            : VAEntrypointVLD
      VAProfileVP9Profile2            : VAEntrypointEncSliceLP
      VAProfileVP9Profile3            : VAEntrypointVLD
      VAProfileVP9Profile3            : VAEntrypointEncSliceLP
      VAProfileHEVCMain12             : VAEntrypointVLD
      VAProfileHEVCMain422_10         : VAEntrypointVLD
      VAProfileHEVCMain422_12         : VAEntrypointVLD
      VAProfileHEVCMain444            : VAEntrypointVLD
      VAProfileHEVCMain444            : VAEntrypointEncSliceLP
      VAProfileHEVCMain444_10         : VAEntrypointVLD
      VAProfileHEVCMain444_10         : VAEntrypointEncSliceLP
      VAProfileHEVCMain444_12         : VAEntrypointVLD
      VAProfileHEVCSccMain            : VAEntrypointVLD
      VAProfileHEVCSccMain            : VAEntrypointEncSliceLP
      VAProfileHEVCSccMain10          : VAEntrypointVLD
      VAProfileHEVCSccMain10          : VAEntrypointEncSliceLP
      VAProfileHEVCSccMain444         : VAEntrypointVLD
      VAProfileHEVCSccMain444         : VAEntrypointEncSliceLP
      VAProfileAV1Profile0            : VAEntrypointVLD
      VAProfileHEVCSccMain444_10      : VAEntrypointVLD
      VAProfileHEVCSccMain444_10      : VAEntrypointEncSliceLP


Maar wederom, of ik in Jellyfin nou VA-API of QSV kies, elke video waar hij hardware decoding probeert toe te passen eindigt in een fatal player error.

* Gizz begint enigszins te wanhopen.

edit:
In plaats van
code:
1
2
dev0: /dev/dri/card0,gid=44
dev1: /dev/dri/renderD128,gid=104

Ook nog dit geprobeert op basis van deze tutorial, wat (bijna) hetzelfde is als de Jellyfin Proxmox documentatie:
code:
1
2
3
4
lxc.cgroup2.devices.allow: c 226:0 rwm
lxc.cgroup2.devices.allow: c 226:128 rwm
lxc.mount.entry: /dev/dri/renderD128 dev/dri/renderD128 none bind,optional,create=file
lxc.hook.pre-start: sh -c "chown 0:993 /dev/dri/renderD128"

Resultaat is hetzelfde; fatal player error bij elke video. En in de shell decoden levert nog steeds the 'impossible to convert between the formats' op, net als bij mijn docker-poging:

Bash:
1
2
3
4
5
6
7
8
9
10
Impossible to convert between the formats supported by the filter 'Parsed_null_0' and the filter 'auto_scale_0'
[vf#0:0 @ 0x5813f7670640] Error reinitializing filters!
[vf#0:0 @ 0x5813f7670640] Task finished with error code: -38 (Function not implemented)
[vf#0:0 @ 0x5813f7670640] Terminating thread with return code -38 (Function not implemented)
[vost#0:0/hevc_vaapi @ 0x5813f777cf40] Could not open encoder before EOF
[vost#0:0/hevc_vaapi @ 0x5813f777cf40] Task finished with error code: -22 (Invalid argument)
[vost#0:0/hevc_vaapi @ 0x5813f777cf40] Terminating thread with return code -22 (Invalid argument)
[out#0/null @ 0x5813f779db00] Nothing was written into output file, because at least one of its streams received no packets.
frame=    0 fps=0.0 q=0.0 Lsize=       0KiB time=N/A bitrate=N/A speed=N/A    
Conversion failed!


edit 2:
Er valt mij een verschil in drivers op.

Op de proxmox host levert
code:
1
apt install intel-media-va-driver-non-free -y

dit op:
code:
1
intel-media-va-driver-non-free is already the newest version (23.1.1+ds1-1).

terwijl ik in de LXC krijg:
code:
1
intel-media-va-driver-non-free is already the newest version (24.1.0+ds1-1).


Zou hier het probleem in kunnen zitten :?

edit 3:
Ik was er een beetje klaar mee en heb Jellyfin direct binnen Proxmox in een docker gegooid. Dus zonder LXC ertussen. Nu werkt hardware decoding direct met simpelweg --device /dev/dri:/dev/dri .

Zou het graag nog netjes in een LXC krijgen, maar ik kan nu in ieder geval video kijken.
Ik heb thuis (ben nu op het werk) LXC met Jellyfin en AMD IGPU draaien en qua stappen zal dat niet veel schelen. (dus LXC zonder docker)
Mocht je nog op zoek zijn dan kan ik er wel naar kijken maar belangrijkste stappen uit mijn hoofd was.
Op PVE IGPU in blacklist zetten.
Via lxc conf file mapping maken en ik dacht dat je daarbij ook ID's moest meegeven.
Daarna als je gewoon in de shell van je LXC het apparaat ziet wordt het vrij simpel om de rest te doen volgens de jellyfin manual.

edit: The-Source in "Het grote Proxmox VE topic" hier begon mijn avontuur. Maar hoe de status nu werkelijk is in de files weet ik niet zeker uit mijn hoofd.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Ortep
  • Registratie: Maart 2000
  • Niet online

Ortep

Soylent Green is People!

@Gizz @ninjazx9r98 @d3vlin

Ik heb een system rescue gevonden en daarmee alles leeg gemaakt. Daarna heb ik proxmox opnieuw geïnstalleerd.

Dat ging verder zonder problemen. Nu verder op weg om uit te zoeken hoe ik Docker en Home Assistant er op kan zetten en toegang kan geven tot de tweede drive

Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato


Acties:
  • 0 Henk 'm!

  • Gizz
  • Registratie: Maart 2001
  • Laatst online: 23:06

Gizz

Dunder-Mifflin, Inc.

@Ortep ben je bekend met de Proxmox VE Helper-Scripts? Daarmee installeer je bijvoorbeeld Home Assistant met een eenvoudig script waar je een paar keer op next moet klikken, meer niet :)

Voor iets als docker kun je Dockge pakken als je een simpele webbased GUI op prijs stelt.

Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX


Acties:
  • +1 Henk 'm!

  • Ortep
  • Registratie: Maart 2000
  • Niet online

Ortep

Soylent Green is People!

@Gizz
Ik ken ze. Ik heb ze ook even gebruikt. En daarna heb ik alles verwijderd. Ik wil op zijn minst een vaag idee hebben van wat ik aan het doen ben.

Home assistant draait al in de basis vorm. Nu nog de oude install die op mijn synology draait er naar over brengen.

Nu ben ik net Een Debian VM aan het maken waar ik docker en portainer op ga zetten

Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato


Acties:
  • 0 Henk 'm!

  • jaspov
  • Registratie: Januari 2000
  • Laatst online: 11-07 13:30
Illusion schreef op zondag 8 juni 2025 @ 12:13:
Ik ga ook aan een Proxmox Avontuur beginnen. Ter vervanging van een DS216+II heb ik het volgende:
  • Ugreen dxp2800. Intel N100, met upgrade naar 16GB Ram (Non-ECC)
  • 2TB NVME WD Black SN770 (jong licht gebruikt)
  • 10TB WD Red+ (nieuw)
  • 250GB Crucial bx250 (oud, uit laptop)
Ik heb niet zo'n vetrouwen in een chinees OS, en het lijkt me leuk om Home-assistant als HAOS te draain ipv docker. Dus als services verwacht ik dit.
  • Home Assitant OS (vm)
  • Zigbee2mqtt lxc/docker
  • Pihole lxc/docker
  • OpenMediaVault als NAS host voor backups.
Machine is verder alleen voor backups. Geen media-library of transcoding.

Nu de vragen:
  1. OS op een oude 250GB sata ssd, of op de NVME
  2. ext4 of zfs voor single disk volume van de storage?
  3. ext4 of zfs voor single ssd volumen van proxmox os[?/li]
De meningen over ZFS voor single disk lijken nogal uiteen te lopen.. Op zich zou 16GB ram genoeg moeten zijn voor zfs lijkt me. En snapshots is ook lekker voor de VMs, maar er zijn toch nog wel veel verhalen over extreme wearout.
De vorige set (DS216) heeft ruim 8 jaar gedraaid zonder ernaar om te kijken, dus zoek nu weer iets dat vooral makkelijk/stabiel is met beperkte wear.
Er kunnen nog backups op een USB hard-disk gemaakt worden, dus zeker ivm stroomverbruik heb ik liever geen raid met dubbele disks.
Ik overweeg naar Proxmox te gaan voor HA en Pi-Hole (voor nu). Lijkt op wat jij hebt. Ik dacht dat HAOS ook addons heeft, is er een voordeel om Zigbee2mqtt los te draaien en niet in HAOS? Verder benieuwd naar je ervaringen.

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 00:18

Quad

Doof

Met HAOS heb je zelf niet het nadenken over het onderhoud van alles binnen de VM. Daarbij is HAOS helemaal gestript en geoptimaliseerd voor gebruik van HA.

Ik draai het zo al heel lang en het werkt gewoon goed.

Voordeel van de addons als Z2M is dat het direct integreert met HA incl mqtt.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • +3 Henk 'm!

  • Illusion
  • Registratie: November 2000
  • Laatst online: 01:05

Illusion

(the art of)

@jaspov helaas te druk met werk om het helemaal te installeren. Proxmox direct op dxp2800 was een makkie. De rest dus niet aan toegekomen.
Ik blijf bij zigbee2mqtt ipv zha omdat alles daar al ingeleerd is. Dus dacht dat gewoon net als nu via docker te doen. Maar als dat via een haos plugin kan ipv docker lijkt me dat alleen maar mooi.

Soms ben ik er wel, en soms ook weer niet.


Acties:
  • +2 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 13:36
Patatjemet schreef op maandag 30 juni 2025 @ 18:04:
[...]


Immich werkt ook prima met External libary. Heb ik ook zo, Immich in unprivileged container op PVE, data staat op Synology. Deze wordt via bind mount vanaf de host beschikbaar gemaakt in de container.
Het werkt!!!
Immich blijft benaderbaar en heb een externe folder toegevoegd!
Ben nu wel benieuwd waar de database en thumbs worden opgeslagen, want de Docker LXC is maar 10gb groot (kan ik vergroter, maar heb liever alles op de SSD ipv op de NVME waar Proxmox op draait)


En tijdens het typen van het bericht zie ik de volume van de LXC vollopen. Ik moet dus ergens nog iets teaken.

--edit--

soms verder kijken dat mijn neus lang is.
https://immich.app/docs/guides/custom-locations

Systeem draait nu. Ik ga vanavond verder!
Yay, weer een stap de juiste richting op!

[ Voor 11% gewijzigd door RedRayMann op 04-07-2025 14:42 ]


Acties:
  • 0 Henk 'm!

  • sOid
  • Registratie: Maart 2004
  • Niet online
Vraagje. Hoe hebben jullie (offsite) backups van data geregeld? Ik gebruik wel ingebouwde Proxmox Backup-functionaliteit, maar die kan niet alles backuppen.

Ik heb in Proxmox een paar ZFS pools gemaakt, die ik vanuit de verschillende LXC-containers benader. Een van die containers is een SMB-fileserver, waar ik naar toe schrijf vanuit o.a. mijn macs en ubuntu VM. Voor de LXC's heb ik UID-mapping toegepast.

Op andere machines gebruik ik naar volle tevredenheid borgbackup. Ik heb geprobeerd om een simpele Debian LXC te bouwen met daarin borgbackup, die dan de data via mountpoints of SMB kan benaderen en kan wegschrijven. Maar daarmee kom ik ik de knoei met permissions, ondanks ID-mappings.

Een mogelijke oplossing is om borgbackup direct binnen proxmox te installeren, maar dat is ook niet ideaal...

Ben benieuwd hoe jullie dit oplossing.

Acties:
  • 0 Henk 'm!

  • tjanssen
  • Registratie: Augustus 2012
  • Niet online
sOid schreef op vrijdag 4 juli 2025 @ 14:22:
Vraagje. Hoe hebben jullie (offsite) backups van data geregeld? Ik gebruik wel ingebouwde Proxmox Backup-functionaliteit, maar die kan niet alles backuppen.

Ik heb in Proxmox een paar ZFS pools gemaakt, die ik vanuit de verschillende LXC-containers benader. Een van die containers is een SMB-fileserver, waar ik naar toe schrijf vanuit o.a. mijn macs en ubuntu VM. Voor de LXC's heb ik UID-mapping toegepast.

Op andere machines gebruik ik naar volle tevredenheid borgbackup. Ik heb geprobeerd om een simpele Debian LXC te bouwen met daarin borgbackup, die dan de data via mountpoints of SMB kan benaderen en kan wegschrijven. Maar daarmee kom ik ik de knoei met permissions, ondanks ID-mappings.

Een mogelijke oplossing is om borgbackup direct binnen proxmox te installeren, maar dat is ook niet ideaal...

Ben benieuwd hoe jullie dit oplossing.
Ik draai Proxmox Backup Server in een VM op mijn Synology NAS. De backup van mijn VMs en LXCs gaan dan weer dagelijks naar mijn Google Drive.

Acties:
  • 0 Henk 'm!

  • sOid
  • Registratie: Maart 2004
  • Niet online
tjanssen schreef op vrijdag 4 juli 2025 @ 14:59:
[...]


Ik draai Proxmox Backup Server in een VM op mijn Synology NAS. De backup van mijn VMs en LXCs gaan dan weer dagelijks naar mijn Google Drive.
Voor LXCs en VMs doe ik dat ook indd, maar het gaat echt om data pools die gemaakt zijn onder Proxmox. Die worden niet in die backups meegenomen.

Acties:
  • +1 Henk 'm!

  • tjanssen
  • Registratie: Augustus 2012
  • Niet online
sOid schreef op vrijdag 4 juli 2025 @ 15:03:
[...]

Voor LXCs en VMs doe ik dat ook indd, maar het gaat echt om data pools die gemaakt zijn onder Proxmox. Die worden niet in die backups meegenomen.
Ah zo. Mijn NAS gaat op gezette tijden aan, en bij opstarten draai ik een script welke een NFS mount van een VM waarvan de storage ook niet door PBS meegenomen wordt. Dit script doet dus een mount, een rsync om de files naar de NAS te kopiëren en als laatste wanneer deze klaar is een unmount. De folder op de NAS loopt ook mee in Hyper Backup sync naar mijn Google Drive.

Is dus geen rechtstreekse backup van de data pool (wat voor mij ook niet nodig is), maar wellicht is het voor jou ook een optie.

Acties:
  • +1 Henk 'm!

  • JanHenk
  • Registratie: September 2008
  • Niet online
Ik heb een PVE host met een eigen storagedisk. Van de disk heb ik een directory aangemaakt en deze is in de host gemount. Ik weet hoe ik deze (of een specifiek deel hiervan) kan doorgeven aan een unpriv. LXC met bind mounts.

Wat ik nu doe is op de host met chmod de uid:gid van de betreffende mount (map) aanpassen naar de user/group die toegang tot die map nodig heeft binnen de LXC. Dat werkt en dat vind ik al heel wat... :P Maar maakt het soms wel wat onoverzichtelijk en soms ook onpraktisch als meerdere users dezelfde content moeten kunnen benaderen. Ik doe dus niets met id mapping of iets dergelijks.

Is dit best practice? Ik lees ook wel eens iets over usergroups aanmaken op de host en id mapping gebruiken. Maar om eerlijk te zijn snap ik die concepten nog niet goed. Iemand een goed startpunt hierover? Of gewoon niet aan beginnen?

skoda enyaq 80 | holtkamper aero | fiscalist én techneut


Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 10-07 20:52

orvintax

www.fab1an.dev

sOid schreef op vrijdag 4 juli 2025 @ 14:22:
Vraagje. Hoe hebben jullie (offsite) backups van data geregeld? Ik gebruik wel ingebouwde Proxmox Backup-functionaliteit, maar die kan niet alles backuppen.

Ik heb in Proxmox een paar ZFS pools gemaakt, die ik vanuit de verschillende LXC-containers benader. Een van die containers is een SMB-fileserver, waar ik naar toe schrijf vanuit o.a. mijn macs en ubuntu VM. Voor de LXC's heb ik UID-mapping toegepast.

Op andere machines gebruik ik naar volle tevredenheid borgbackup. Ik heb geprobeerd om een simpele Debian LXC te bouwen met daarin borgbackup, die dan de data via mountpoints of SMB kan benaderen en kan wegschrijven. Maar daarmee kom ik ik de knoei met permissions, ondanks ID-mappings.

Een mogelijke oplossing is om borgbackup direct binnen proxmox te installeren, maar dat is ook niet ideaal...

Ben benieuwd hoe jullie dit oplossing.
Ik laat een combinatie van TrueNAS + PBS al mijn backups regelen. :)

Dit is totaal niet hulpvol, maar dit is dus de reden waarom ik Proxmox specifiek hypervisor laat spelen, en TrueNAS NAS/storage gerlateerde zaken.

Zelf zou ik jouw LXC oplossing met Debian + Borgbackup ook mooi vinden. Maar als je toch al hebt gekozen om Proxmox je storage te laten beheren, is het dan zo erg om Borgbackup daar naast te draaien?

Just my two cents :)

[ Voor 0% gewijzigd door orvintax op 07-07-2025 21:15 . Reden: Typo ]

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • sOid
  • Registratie: Maart 2004
  • Niet online
orvintax schreef op maandag 7 juli 2025 @ 21:15:
[...]

Ik laat een combinatie van TrueNAS + PBS al mijn backups regelen. :)

Dit is totaal niet hulpvol, maar dit is dus de reden waarom ik Proxmox specifiek hypervisor laat spelen, en TrueNAS NAS/storage gerlateerde zaken.

Zelf zou ik jouw LXC oplossing met Debian + Borgbackup ook mooi vinden. Maar als je toch al hebt gekozen om Proxmox je storage te laten beheren, is het dan zo erg om Borgbackup daar naast te draaien?

Just my two cents :)
Godver. Ik had een hele reactie getikt maar sloot toen de tab...:(

Anyway, samenvatting: die pools maken natuurlijk gebruik van native functionaliteit van het Proxmox OS. Ik heb daar alleen een paar pools/mounts gecreëerd en een user:group toegevoegd. Aangezien het native is, kan ik ervan uitgaan dat het bij een update/upgrade blijft werken. Bij borgbackup is deze garantie er niet. Op deze manier hoef ik ook geen hardware passhtrough naar een VM/LXC te doen (nog een extra laag waar het fout zou kunnen gaan).

Intussen heb ik een Alpine Linux LXC (Alpine omdat de borgbackup versie daarop veel recenter is dan bij Debian, en het is lekker lightweight) draaien. Privileged, zodat alle permissions goed worden meegenomen. Hier heb ik een test-mountpoint aan toegevoegd en een paar nachten laten backuppen met borgbackup en borgmatic. Lijkt allemaal goed te gaan.

Ik ga nog wel wat beter naar hardening van die container kijken. Privileged blijft natuurlijk een risico, al is dat aanvaardbaar voor mijn thuissituatie. Zo wil ik bijvoorbeeld alleen een outbound connectie whitelisten die direct naar de backuplocatie gaat.

[ Voor 3% gewijzigd door sOid op 08-07-2025 09:58 ]


Acties:
  • +1 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 21:56
@sOid Ik gebruik de gratis Veeam Community Edition om VM's op m'n Proxmox te backuppen naar een Synology NAS. Werkt prima. Er is nu nog een Windows VM nodig om Veeam in te draaien, maar een linux appliance zit eraan te komen begreep ik: GoBieN-Be in "Het grote Proxmox VE topic"

[ Voor 11% gewijzigd door ThinkPad op 08-07-2025 10:36 ]


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 14:36
Mja - een backup van vm's en lxc's is niet echt lastig.
Waar ik nog steeds geen goede oplossing voor heb is een backup van de PVE installatie zelf.

Mijn standaard aanpak nu is een copy van alles in /etc.
Maar ik twijfel nog steeds of dat alles is voor een werkend herstel.
En durf het daarom eigenlijk niet te testen.

Ook al omdat er nog een aantal pve-gerelateerde folders zijn in /var/lib.
Maar in hoeverre die relevant zijn voor een herstel van een pve-config... :?

Iemand nog suggesties?

[ Voor 41% gewijzigd door Airw0lf op 08-07-2025 11:00 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • sOid
  • Registratie: Maart 2004
  • Niet online
Airw0lf schreef op dinsdag 8 juli 2025 @ 10:55:
Mja - een backup van vm's en lxc's is niet echt lastig.
Waar ik nog steeds geen goede oplossing voor heb is een backup van de PVE installatie zelf.

Mijn standaard aanpak nu is een copy van alles in /etc.
Maar ik twijfel nog steeds of dat alles is voor een werkend herstel.
En durf het daarom eigenlijk niet te testen.

Ook al omdat er nog een aantal pve-gerelateerde folders zijn in /var/lib.
Maar in hoeverre die relevant zijn voor een herstel van een pve-config... :?

Iemand nog suggesties?
Backup van de PVE host dmv de ingebouwde backup-functionaliteit staat wel op de roadmap van doorontwikkeling. Dus in de toekomst zal dat de meest logische optie zijn. Maar voor nu... goede vraag. :)

Acties:
  • +1 Henk 'm!

  • nassau
  • Registratie: December 2000
  • Laatst online: 11-07 18:18
Airw0lf schreef op dinsdag 8 juli 2025 @ 10:55:
Mja - een backup van vm's en lxc's is niet echt lastig.
Waar ik nog steeds geen goede oplossing voor heb is een backup van de PVE installatie zelf.

Mijn standaard aanpak nu is een copy van alles in /etc.
Maar ik twijfel nog steeds of dat alles is voor een werkend herstel.
En durf het daarom eigenlijk niet te testen.

Ook al omdat er nog een aantal pve-gerelateerde folders zijn in /var/lib.
Maar in hoeverre die relevant zijn voor een herstel van een pve-config... :?

Iemand nog suggesties?
Dit is wat ik doe (naast PBS voor alle LXC/VM). Zijn dus 3 directories op de PVE hosts.

code:
1
proxmox-backup-client backup var.pxar:/var/lib/pve-cluster etc.pxar:/etc --include-dev /etc/pve


Ooit is ergens in het proxmox forum opgepikt, maar kan ik nu even niet vinden.

Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 10-07 20:52

orvintax

www.fab1an.dev

nassau schreef op dinsdag 8 juli 2025 @ 16:04:
[...]


Dit is wat ik doe (naast PBS voor alle LXC/VM). Zijn dus 3 directories op de PVE hosts.

code:
1
proxmox-backup-client backup var.pxar:/var/lib/pve-cluster etc.pxar:/etc --include-dev /etc/pve


Ooit is ergens in het proxmox forum opgepikt, maar kan ik nu even niet vinden.
Draai je dit commando via cron ofzo? Of hoe werkt dit. Vind het wel interessant om dit via PBS te doen :)

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • nassau
  • Registratie: December 2000
  • Laatst online: 11-07 18:18
orvintax schreef op dinsdag 8 juli 2025 @ 20:16:
[...]

Draai je dit commando via cron ofzo? Of hoe werkt dit. Vind het wel interessant om dit via PBS te doen :)
Klopt op al mijn nodes via een daily cron. Overigens authenticatie via een api token die ik zet in de environment (PBS_REPOSITORY & PBS_PASSWORD) bij elke run.

Ik heb eerst uitgebreid zitten spelen met deze tool, gewoon in de shell. Maar je krijgt gewoon snapshots van die directories in een 'Host' backup op PBS.

Je kunt het ook gebruiken voor beheer (garbage collect, prune, list, etc.)

[ Voor 23% gewijzigd door nassau op 08-07-2025 21:27 ]


Acties:
  • 0 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Nu online
Hier aan het stoeien met 3 EPYC 9455P servers. 25Gb netwerk en elk 3 NVME SSDs voor Ceph. Gisteren de eerste VM gemigreerd met VEEAM, werkt op zich prima. Vereist naderhand nog wat handwerk maar daarna draait het ook gewoon stabiel. Verder nog migration getest van ene naar andere server, die gooit ie dankzij de shared storage in 1 minuut over via gigabit :)

Had een 4TB harddisk in een van de servers gestoken om backups naartoe te kopiëren voor het restoren, maar toch maar gekozen voor een Ceph volume. Bij het restoren is die 150MB/s van die disk de beperkende factor. VM van 180GB restoren duurt 2x zo lang :X.

Acties:
  • 0 Henk 'm!

  • Signs
  • Registratie: Januari 2003
  • Laatst online: 11-07 16:37
Vanavond komt een nieuwe mini-pc binnen die mijn oude proxmox server gaat vervangen.

Ik ga Proxmox installeren en de huidige containers (LXC) overzetten.
Dit zijn home assistant, adguard, influxdb. En een nieuwe wat ik wil maken is Immich.

Ik wil onze foto's van iCloud naar Immich overzetten. Gezien deze van waarde zijn, wil ik een backup instellen.
Dat wil ik naar een 2e disk instellen. Daarvandaan encrypten en naar OneDrive (1 Tb) of een externe owncload omgeving (1Tb). Eventueel kan ik ook het e.e.a. via Proton Drive regelen.

Is dit een beetje de manier ?

Acties:
  • 0 Henk 'm!

  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 21:32
heb hier thuis een samengeraapt proxmox cluster met de volgende pc's :
  1. Gigabyte X570 AORUS MASTER, amd ryzen 5600x, 128gb ram, 2x nvidia quadro m4000, 1tb+512gb nvme, 4x 2,5gbe rtl8125 ethernet pcie kaart, 2x 6tb hdd
  2. Gigabyte Z370P D3, intel i3 9100, 64gb ram, 1tb+1tb+512gb nvme, 4x 2,5gbe rtl8125 ethernet pcie kaart
  3. CWWK N5105, 32gb ram, 512gb sata ssd+1tb nvme, 4x 2.5gbe i225 ethernet onboard
Omdat bijde gigabyte moederborden gaming moederborden zijn zijn deze niet echt energiezuinig. Nu zat ik wat op aliexpres rond te struinen en kwam ik het volgende1151 moederbord tegen. Heb zelf nog 2 spare i3 9100 intel procesoren liggen en 3x 64gb ram idem. Hebben jullie enig idee hoeveel stroom ik ongeveer zou kunnen besparen ten opzichte van mn huidige setup?

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 00:18

Quad

Doof

Belangrijkste vraag - Wat is je huidige verbruik nu?

Systeem 2-3 zijn redelijk zuinig schat ik in, verbruik beide gemiddeld 15W? Systeem 1 lijkt mij de pittigste, gebruik je de CPU power en GPU's?

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • jwvdst
  • Registratie: Augustus 2010
  • Laatst online: 21:32
Heb net even snel met een brennenstuhl meter even gekeken wat het idle verbruik is van elke server
  1. 95/100 watt
  2. 43/46 watt
  3. 17/19 watt
Dit zijn waardes zonder dat ik enige optimalisaties heb gedaan qua verbruik

Bij server 1 gebruik ik de videokaarten voor ollama. Als ik nvtop moet geloven kun je 24 watt aftrekken voor de 2 quadro's en nog een paar watt voor de hdd's maar dan kom je nooit zo laag als systeem 2. Nadeel van systeem 1 is dit moederbord geen onboard gpu output heeft dus ben je altijd een externe gpu nodig.
bij server 3 zijn de ram en uitbreidingsmogelijkheden zeer beperkt en deze maakt gebruik van de intel I225 nic welke ook niet helemaal foutloos is.

Mijn idee is dat ik een cluster wil met 3 servers waar elke server een primaire hoofdtaak heeft
1 server met de gpu's in passthrough naar de ollama vm
1 server met de hd sata controller in passthrough naar de xpenology vm
1 server met de 1tb nvme in passthrough naar de proxmox backup server vm

wat ik me ook af vroeg is of 4x 2,5gbe onboard ethernet zuiniger is dan een 4x 2,5gbe pcie ethernet?

[ Voor 70% gewijzigd door jwvdst op 09-07-2025 19:02 ]


Acties:
  • 0 Henk 'm!

  • nassau
  • Registratie: December 2000
  • Laatst online: 11-07 18:18
Signs schreef op woensdag 9 juli 2025 @ 11:41:
Vanavond komt een nieuwe mini-pc binnen die mijn oude proxmox server gaat vervangen.

Ik ga Proxmox installeren en de huidige containers (LXC) overzetten.
Dit zijn home assistant, adguard, influxdb. En een nieuwe wat ik wil maken is Immich.

Ik wil onze foto's van iCloud naar Immich overzetten. Gezien deze van waarde zijn, wil ik een backup instellen.
Dat wil ik naar een 2e disk instellen. Daarvandaan encrypten en naar OneDrive (1 Tb) of een externe owncload omgeving (1Tb). Eventueel kan ik ook het e.e.a. via Proton Drive regelen.

Is dit een beetje de manier ?
Met homelab is elke manier die voor jou werkt natuurlijk goed.

Maar je strategie met betrekking tot foto's ziet er gezond uit.

Heb er zelf voor gekozen om iCloud te blijven gebruiken als dagelijkse driver. Maar ik maak een dagelijkse export naar mijn NAS (met gebruik van snaphots). Daarvandaan een encrypted rsync naar een storagebox van Hetzner.

Mijn complete fotobibliotheek "past" ook op al mijn devices (iphone, ipad, imac) en dat zijn dan ook al 3 online copies.

Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 10-07 20:52

orvintax

www.fab1an.dev

Signs schreef op woensdag 9 juli 2025 @ 11:41:
Vanavond komt een nieuwe mini-pc binnen die mijn oude proxmox server gaat vervangen.

Ik ga Proxmox installeren en de huidige containers (LXC) overzetten.
Dit zijn home assistant, adguard, influxdb. En een nieuwe wat ik wil maken is Immich.

Ik wil onze foto's van iCloud naar Immich overzetten. Gezien deze van waarde zijn, wil ik een backup instellen.
Dat wil ik naar een 2e disk instellen. Daarvandaan encrypten en naar OneDrive (1 Tb) of een externe owncload omgeving (1Tb). Eventueel kan ik ook het e.e.a. via Proton Drive regelen.

Is dit een beetje de manier ?
Dat lijkt mij wel, dit voldoet aan de 3-2-1 regel. Welke mij voldoende lijkt voor de gemiddelde homelab. Ik zou nog kijken of je iets van regels in kan stellen dat als iets verwijderd word, het niet meteen weg is. Als voorbeeld: stel je verwijderd iets, dat het niet binnen een dag overal weg is.

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 14:36
orvintax schreef op donderdag 10 juli 2025 @ 20:52:
[...]

Dat lijkt mij wel, dit voldoet aan de 3-2-1 regel. Welke mij voldoende lijkt voor de gemiddelde homelab. Ik zou nog kijken of je iets van regels in kan stellen dat als iets verwijderd word, het niet meteen weg is. Als voorbeeld: stel je verwijderd iets, dat het niet binnen een dag overal weg is.
Lijkt me van niet... iCloud, OneDrive en Owncloud werken met sync-ing.
Als je ergens iets verwijderd is het binnen een paar minuten overal weg.
Bij de betaalde versie van OneDrive is er wellicht nog iets te redden.
Afhankelijk van de instellingen wellicht ook bij Owncloud.
Maar het blijft tricky business... :+

Mijn 0,500 Euro:
Gebruik een kleine NAS en maak een one-way backup van iCloud naar je NAS.
En van hieruit naar een externe disk die je elke 1-3 maanden wisselt.
Pas dan kun je spreken van een 3-2-1 regel.

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Cardinal
  • Registratie: Maart 2002
  • Laatst online: 00:23
Ik gebruik Librewolf, maar heb wat problemen met de Proxmox Console/shell. Deze blijft zwart en geeft geen command prompt. Heeft iemand een idee welke browser features nodig zijn om de command prompt zichtbaar te maken?

Note: Dit is een browser issue, chrome en firefox werken wel.
Pagina: 1 ... 57 58 Laatste