Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 13:23
Ik wil aan de slag gaan met een Jellyfin LXC (unprivileged)
Maar wil dan ook mijn iGPU (heb AMD cpu met GPU) doorzetten naar de VM.
Maar alle instructies om dat te doen gaan er vanuit dat je in /dev/ een map dri hebt en daarin dan nog eens card0 en renderD128 maar bij mij houd het al op dat er geen /dri map is.
Maar als ik
code:
1
2
lspci -nn | grep VGA
10:00.0 VGA compatible controller [0300]: Advanced Micro Devices, Inc. [AMD/ATI] Phoenix1 [1002:15bf] (rev 06)
doe heb ik wel degelijk een response.
Vervolgens kwam ik het volgende tegen: https://forum.proxmox.com...ackage-proxmox-ve.143822/ maar heb dan ook dezelfde foutmelding.

Via ander lspci commando krijg je een hele lap aan tekst met over de igpu o.a:
code:
1
2
Kernel driver in use: vfio-pci
Kernel modules: amdgpu

Een ls op de vfio map doet het volgende (ook geen card of render)
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
root@proxm:/dev# ls -Rlias vfio/
vfio/:
total 0
790 0 drwxr-xr-x  3 root root      120 Feb  3 16:42 .
  1 0 drwxr-xr-x 19 root root     5220 Feb 21 18:02 ..
792 0 crw-------  1 root root 238,   0 Feb  3 16:42 20
806 0 crw-------  1 root root 238,   1 Feb  3 16:42 21
793 0 drwxr-xr-x  2 root root       80 Feb  3 16:42 devices
791 0 crw-rw-rw-  1 root root  10, 196 Feb  3 16:42 vfio

vfio/devices:
total 0
793 0 drwxr-xr-x 2 root root     80 Feb  3 16:42 .
790 0 drwxr-xr-x 3 root root    120 Feb  3 16:42 ..
794 0 crw------- 1 root root 237, 0 Feb  3 16:42 vfio0
807 0 crw------- 1 root root 237, 1 Feb  3 16:42 vfio1

Het lijkt erop dat dit wellicht naweeen zijn van toen ik wat met GPU en VM heb geprobeerd (zonder succes) maar zie alleen niet of dit de reden is en hoe het terug te zetten valt (die VM is al lang weg)

Nu weet ik niet zeker of in de /etc/modprobe.d/vfio.conf de volgende regels weg mogen: 1002:15bf matched met de gpu
code:
1
2
3
4
options vfio-pci ids=1002:15bf,1002:1640
softdep radeon pre: vfio-pci
softdep amdgpu pre: vfio-pci
softdep snd_hda_intel pre: vfio-pci

Iemand die mij kan vertellen hoe ik mijn iGPU weer normaal terug krijg onder mijn host?
de 1002:1640 = HD audio controller en die mag net zo goed terug naar host.

edit:
Na het commenten van de vfio.conf (# ervoor) en overings ook de blacklist.conf comment gegeven op radeon en gpu heb ik een dri map gerkegen met de card1 en renderD128. Of dit "alle problemen" verhelpt is nog even avonturen.

[ Voor 5% gewijzigd door The-Source op 22-02-2025 12:57 . Reden: 1e fix ]

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • hawaltie
  • Registratie: September 2002
  • Laatst online: 20-07 09:28
Ik heb een raar probleem met DNS binnen Proxmox. Ik draai 2 aduard home LXCs op proxmox voor mijn netwerk Tot een aantal weken geleden draaide dat perfect en kon ik hostnames (FQDNs) zowel voor clients op LXCs in proxmox als clients buiten proxmox resolven. Sinds een paar weken werkt het resolven van hostnames op clients binnen proxmox lxc niet meer goed en krijg ik regelmatig een
code:
1
Temporary failure in name resolution
Op andere clients werkt het nog prima.. Ik vermoed dat de BInd9 upgrade dit heeft veroorzaakt, maar dat is een vermoeden, kan ik niet bevestigen. Hebben amderen ook dit probleem?

Het lijkt er op dat anderen ook dit probleem hebben vastgesteld: https://serverfault.com/q...-in-my-proxmox-containers maar de oplossing is mij nog niet geheel duidelijk

Mijn keten:

Proxmox LXC Client --> Fritzbox DNS --> Adguard DNS op LXC --> Internet.

[ Voor 18% gewijzigd door hawaltie op 22-02-2025 09:49 ]


Acties:
  • +2 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 13:23
Heb je nu 2 dns kapiteins in je LAN? Zou je setup niet makkelijker zijn door Fritzbox alleen dhcp te laten doen met daarin verwijzing voor dns bij Adguard zijn.
Zo heb ik dat persoonlijk ingericht maar dan met pihole ( en andere router)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • hawaltie
  • Registratie: September 2002
  • Laatst online: 20-07 09:28
Dat had ik hiervoor ook, maar in het kader van redundancy heb ik het anders ingericht, en laat de fritzbox balanceren.

Ik heb inmiddels verder gezocht in proxmox, en het lijkt er op dat de resolv.conf overschreven wordt door IPv6 nameserver die niet in mijn LAN aanwezig is. Anderen hebben het probleem ook:

https://forum.proxmox.com...container-restart.141521/

De voorgestelde oplossing is om alle LXC containers terug te zetten naar static IPv6 zonder IPv6 adres. Dat werkt.

[ Voor 10% gewijzigd door hawaltie op 22-02-2025 15:03 ]


Acties:
  • 0 Henk 'm!

  • HowsMyApple
  • Registratie: November 2010
  • Laatst online: 13:12
Ik wil een deel van de *arr stack gaan opzetten maar twijfel over de manier waarop:
2 VM's, 1 voor de *arr stack en 1 voor qbittorrent+VPN
1 LXC met Docker en daarin de containers voor *arr + 1 VM voor qbittorrent+VPN
Losse LXC's per *arr + 1 VM voor qbittorrent+VPN

De schijf waar gebruikt van gaat worden is beschikbaar via SMB.

Iemand die me kan vertellen waarom de ene optie beter is dan de ander?

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 13:06

Quad

Doof

Waarom qbittorrent en vpn in een aparte VM?

Ik heb zelf alle *arr in een VM met Docker, al had dat ook in een LXC met Docker gekund voor minder OS overhead.

Ik heb toevallig gisteren wel sabnzbd en Plex overgezet naar een LXC voor snelheid, omdat deze het meest op de hardware leunen.

Gluetun en qbittorrent heb ik ook in docker, gaat helemaal prima.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 13:23
Heb zelf elke *arr in eigen lxc, wellicht wat overkill maar geeft wel de mogelijkheid met mappings vanaf host naar wens door te zetten. Van het weekend jellyfin lxc met igpu passthrough werkend gemaakt.
Deze heeft weer zijn eigen mappings.
* De mappings zijn allemaal smb shares die ik vanaf host door zet met de correct uid en gid

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 21-07 21:11
Idem, gewoon alles in een aparte lxc, werkt perfect met mount points.

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 13:06

Quad

Doof

The-Source schreef op zondag 23 februari 2025 @ 21:21:

Deze heeft weer zijn eigen mappings.
* De mappings zijn allemaal smb shares die ik vanaf host door zet met de correct uid en gid
Daar zit ik zelf wel een beetje mee te klooien. Ik heb daarvoor de root guid en uid gebruikt, anders lukte het mij niet om RW binnen de LXC te krijgen. Moet dit anders?

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 13:23
Quad schreef op zondag 23 februari 2025 @ 22:35:
[...]

Daar zit ik zelf wel een beetje mee te klooien. Ik heb daarvoor de root guid en uid gebruikt, anders lukte het mij niet om RW binnen de LXC te krijgen. Moet dit anders?
Mijn *arr lxc hebben alleen root user met welke uid 0 en gid 0 is.
Dus in mijn pve host een samba share gemount met uid&gid 100000 ( =100000 + lxc IDs)
Voor jellyfin heb ik andere mapping gemaakt omdat daar de lxc ids 112 waren dus samba share met uid/gid 100112 gemaakt.
Vervolgens kan je gewoon de mapping tussen host en lxc maken.
En ja het is even klooien tot je eindelijk echt snapt hoe het in elkaar steekt

Ps rechten op shares regel ik dan weer op basis van gebruikte credentials in mijn OMV

[ Voor 5% gewijzigd door The-Source op 23-02-2025 23:16 ]

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • indexample
  • Registratie: April 2002
  • Niet online
Edit: met 'apt-get install grub-efi' en een repair is het booten alsnog gelukt.
-Delete context-

[ Voor 97% gewijzigd door indexample op 24-02-2025 09:11 ]


Acties:
  • 0 Henk 'm!

  • Japie.G
  • Registratie: Augustus 2001
  • Laatst online: 09:19

Japie.G

Colour Classic

cville schreef op maandag 20 februari 2023 @ 14:16:
Is het iemand gelukt om powertop 2.15 op proxmox te installeren en zo ja hoe?
2 jaar verder, maar het lukt me niet. Iemand die het nu weet? Hoezo is een versie ui 2022 nog niet standaard 8)7 Ik krijg standaard versie 2.14 via apt install

[ Voor 16% gewijzigd door Japie.G op 24-02-2025 12:37 ]

Renault Scenic E-Tech EV - PV-Output


Acties:
  • 0 Henk 'm!

  • eheijnen
  • Registratie: Juli 2008
  • Niet online
Japie.G schreef op maandag 24 februari 2025 @ 12:35:
[...]


2 jaar verder, maar het lukt me niet. Iemand die het nu weet? Hoezo is een versie ui 2022 nog niet standaard 8)7 Ik krijg standaard versie 2.14 via apt install
Misschien is deze een poging waard.
https://www.reddit.com/r/..._powertop_215_in_proxmox/

Als ik met niet vergis zou je op een andere debian setup dit gewoon moeten kunnen compileren (als je dit niet op je proxmox zelf wilt doen) en er een debian (.deb) package van kunnen maken dat je dan weer met dpkg op proxmox kunt installeren...

Anders kun je hier nog eens vragen:
Het grote zuinige server topic - deel 3

Wie du mir, so ich dir.


Acties:
  • +1 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Japie.G schreef op maandag 24 februari 2025 @ 12:35:
[...]


2 jaar verder, maar het lukt me niet. Iemand die het nu weet? Hoezo is een versie ui 2022 nog niet standaard 8)7 Ik krijg standaard versie 2.14 via apt install
Iets met zo snel gaan packages in Debian... Later dit jaar ergens zou Trixie uit moeten komen als opvolger van Bookworm (zijn we ook eindelijk eens van die B's af die ik nooit goed onthoud), daar zit de nieuwere Powertop wel al in. Meestal volgt Proxmox niet heel veel later dan Debian met een nieuwe release.

Acties:
  • 0 Henk 'm!

  • Japie.G
  • Registratie: Augustus 2001
  • Laatst online: 09:19

Japie.G

Colour Classic

Goed om te horen! Zal dit jaar dan wel goedkomen. Inmiddels is het wel gelukt met een kleine wijziging op wat er in dat reddit topic stond. In die code wordt libtracefs ook geinstalleerd vanaf git, maar de -dev versie moest ik dan juist weer uit de apt halen om hem werkend te krijgen..

code:
1
2
3
4
5
6
7
8
9
10
11
12
apt install git
apt install libtracefs-dev
apt install build-essential autoconf-archive ncurses-dev libnl-3-dev libpci-dev pkg-config libtool-bin autopoint gettext libnl-genl-3-dev
git clone https://git.kernel.org/pub/scm/libs/libtrace/libtraceevent.git
cd libtraceevent; make; make install; cd ..;
git clone https://git.kernel.org/pub/scm/libs/libtrace/libtracefs.git
cd libtracefs; make; make install; cd ..;
git clone https://github.com/fenrus75/powertop.git
cd powertop
./autogen.sh
./configure
make install

Renault Scenic E-Tech EV - PV-Output


  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 12-07 13:01

zeroday

There is no alternative!

XoReP schreef op dinsdag 18 februari 2025 @ 21:36:
Het viel mij niet op dat mijn Proxmox om de haverklap herstart. Bevat wel de nieuwste updates. Andere bakkie is ook helemaal bij en draait wel nog prima. Meer mensen last van spontane reboots?

Hardware is een Supermicro X10SDV. Voor de zekerheid maar een memtest aangezet. Staat in ieder geval al een stuk langer aan terwijl de memtest draait dan dat hij Proxmox draait.
Gehad op een NUC en dat lag aan het BIOS en geen koelpasta op de CPU meer waardoor de temperatuur te hoog werd en in het BIOS werd er dan iets getriggered ..

There are no secrets, only information you do not yet have


  • XoReP
  • Registratie: Oktober 2002
  • Nu online
zeroday schreef op donderdag 27 februari 2025 @ 08:38:
[...]


Gehad op een NUC en dat lag aan het BIOS en geen koelpasta op de CPU meer waardoor de temperatuur te hoog werd en in het BIOS werd er dan iets getriggered ..
Ik heb de server nog uitgebreid getest met zowel Ubuntu als Windows Server en daaronder uitgebreid stresstests gedaan. Draait als een zonnetje, snap er niks van. Alleen mij SSD zijn er uit en die draaien nu in mijn nieuwe server.

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 12-07 13:01

zeroday

There is no alternative!

XoReP schreef op donderdag 27 februari 2025 @ 09:47:
[...]


Ik heb de server nog uitgebreid getest met zowel Ubuntu als Windows Server en daaronder uitgebreid stresstests gedaan. Draait als een zonnetje, snap er niks van. Alleen mij SSD zijn er uit en die draaien nu in mijn nieuwe server.
Ik kwam er zelf achter toen ik SNMP had aangezet, daar kon ik toen in wat grafieken wat vreemde dingen zien.

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 10:46
Ik ben al even aan het worstelen met vlans in Proxmox.

Ik heb volgende configuratie in mijn node:

Afbeeldingslocatie: https://tweakers.net/i/rM6Eby8kzoQVzz8LK0V5Zq8Xd6k=/800x/filters:strip_exif()/f/image/WeIcnF5bnXV5lWQndmiytYyH.png?f=fotoalbum_large

Ik heb even voor de test een ubuntu lxc container opgezet, waar ik de vlan op 40 heb gezet.

Afbeeldingslocatie: https://tweakers.net/i/oJnm-Gs2aOZYyYHDCz04S5CTjOo=/800x/filters:strip_exif()/f/image/qBE9s3KPO75XiMIz4amap25O.png?f=fotoalbum_large

Maar als ik deze container opstart, dan krijgt deze geen IP.

MIjn configuratie voor die netwerk in Unifi ziet er zo uit:

Afbeeldingslocatie: https://tweakers.net/i/xEPIJsuIYe_mVyYbqaf2Eav6fuE=/800x/filters:strip_exif()/f/image/1Uw70N9HsldFhUj0plV1ErIH.png?f=fotoalbum_large

De switch poort waar mijn proxmox server aan hangt laat alle vlans door.

Iemand een idee wat er mis is of wat de oplossing is?

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 13:06

Quad

Doof

@dotcom87 Je moet Proxmox wel vertellen dat VLAN40 netwerk bestaat.
Dus create - Linux vlan onder Proxmox network op de host.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • _Eend_
  • Registratie: Juni 2006
  • Laatst online: 08:43

_Eend_

🌻🇺🇦

Quad schreef op vrijdag 28 februari 2025 @ 18:40:
@dotcom87 Je moet Proxmox wel vertellen dat VLAN40 netwerk bestaat.
Dus create - Linux vlan onder Proxmox network op de host.
Tenzij je de NIC aan de VM hebt toegewezen.

Ik spreek niet uit ervaring, echt niet O-)

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 11:29
@dotcom87 - in de eerste afbeelding is te zien dat vlan-aware aan staat op vmbr0

Maar heb je er ook vlan-id's op gezet? Waaronder 40?

De tweede afbeelding - die met veth - die (her)ken ik niet.
Waar komt die precies vandaan?

[ Voor 32% gewijzigd door Airw0lf op 28-02-2025 19:01 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 11:25
Het lijkt aan de proxmox kant goed. Heb je bij de unifi switch bij de tagged vlans ook vlan 40 ? (zie hier mijn poort instellingen van de switch)

Afbeeldingslocatie: https://tweakers.net/i/XqL29HoHBDzSyc7kI6863oBx5J8=/800x/filters:strip_exif()/f/image/Kw3B7MH1bsOEpheN3U4kebr0.png?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 13:23
Wat @tomdh76 hierboven al zegt, en dan niet alleen op de specifieke switch poort maar de hele keten tot aan je dhcp server moet er van bewust zijn.
Ik heb zelf geen Unifi maar omada en 1 plekje vergeten ( bijvoorbeeld uplink poort) kan er al voor zorgen dat je vanaf plek a wel succes hebt een vanaf plek b niet. En dat dus naar wifi in mijn geval waarbij je denkt waarom werkt een apparaat in de keuken niet en op mijn werkkamer wel.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • dotcom87
  • Registratie: Januari 2011
  • Laatst online: 10:46
tomdh76 schreef op vrijdag 28 februari 2025 @ 21:16:
Het lijkt aan de proxmox kant goed. Heb je bij de unifi switch bij de tagged vlans ook vlan 40 ? (zie hier mijn poort instellingen van de switch)

[Afbeelding]
Bij mij staat het nu zo ingesteld:

Afbeeldingslocatie: https://tweakers.net/i/TH4ueDUvG5Ex709TqrLdoEH9vmo=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/lmRuvYxsPGdpr7Ql2oni17SA.png?f=user_large

Dan zou het in principe ook goed moeten zijn denk ik?

Acties:
  • 0 Henk 'm!

  • Japie.G
  • Registratie: Augustus 2001
  • Laatst online: 09:19

Japie.G

Colour Classic

grappig, ik had hetzelfde gezeik, echter alleen met vlan 40! Probeer voor de gein eens een andere. Dat werkte bij mij wel, snap nog steeds niet waarom 40 niet werkt, dus ik lees graag mee :-)

Renault Scenic E-Tech EV - PV-Output


Acties:
  • +1 Henk 'm!

  • nike
  • Registratie: November 2000
  • Niet online
Ik heb proxmox ook al een poosje draaien met vlans.

Wat de meeste ook aangeven hier wat belangrijk is:
- vlan aware aanzetten op netwerk interface proxmox
- in je unify systeem alle poorten tot aan proxmox trunk maken.
- Dus vanaf je router/switches/ en je proxmox
- ook je uplink poorten naar je volgende switch of eindpunt
- en niet het laatste stukje naar je proxmox untagged maken, want dan komt de rest niet door.

YouTube: How To Setup VLANs With pfsense & UniFi 2023

-edit-


Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 11:25
dotcom87 schreef op zaterdag 1 maart 2025 @ 05:08:
[...]


Bij mij staat het nu zo ingesteld:

[Afbeelding]

Dan zou het in principe ook goed moeten zijn denk ik?
Dat allow all werkte bij mij niet. Probeer eens via custom vlans. Ik snap ook niet waarom allow all niet werkt

Acties:
  • 0 Henk 'm!

  • WheeleE
  • Registratie: Juni 2001
  • Nu online

WheeleE

Dinges

Ik dacht vandaag ff m'n proxmoxomgeving te herinstalleren om zo de local en local-lvm storage beter in te delen. Ik heb 1 HD van 500Gb waarvan ik zo'n 200 voor de local, en de rest voro de local-lvm wil gebruiken. Zo kan ik meer ruimte op local gebruiken voor backups.

Maar óf ik kijk er scheel overheen, óf dat kan niet tijdens de installatie.
Door alle zoekresultaten online duizelt het me een beetje...

Acties:
  • 0 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 07:31
Goede avond allen.
Ik ga een vraag dumpen die mogelijk vaker gesteld is maar ik zie door de bomen het bos niet meer.

TL;DR
Hoe kan ik mijn SSD's mounten en zorgen dat diverse programma's dun data op de SSD's kunnen lezen en schrijven?


Ik draai Proxmox 8.3.4 op een Odroid H4+
Diverse LXC containers zonder opslag draaien perfect
Home Assistant draait in een VM vanaf de boot NVME
Ik heb ook twee keer een SSD en 1x een HDD

Tot nu toe draait alles een tijd mooi en stabiel.

Mijn eerste gedachte voor de andere programma's was lekker makkelijk TrueNas Scale in een VM en veel via de GUI doen. Maar ik hou wel van een uitdaging en de programma's die ik wil draaien kunnen volgens mij ook direct in een LXC. Maar na enkele avonden tot laat te hebben gepuzzeld, Reddit, YouTube, ChatGPT uitgepluisd, loop ik vast en snap ik het niet meer.

Mijn doel;
JellyFin in een LXC op de NVME en films, series en muziek op een SSD
Immich in een LXC op de NVME en de foto's op de SSD
De mappen films, series, muziek en foto's ook toegankelijk via het netwerk, zodat ik via mijn pc eventueel bij de bestanden kan.

Reeds geprobeerd
JellyFin in een LXC, diverse pogingen om de SSD te mounten met lees en schrijf rechten (heb 3 avonden hier op zitten puzzelen)
Folder was te zien en uit te lezen, maar niets en nergens had ik schrijf rechten waardoor ik ook niets in de folder kon zetten.

Ik dacht, ik moet een share folder hebben, die via netwerk toegankelijk is, dus OMV in een LXC geïnstalleerd en ook hier geprobeerd de SSD toe te voegen, maar ook dit lukte niet.
De tutorials die ik tegen kwam gaan allemaal uit van VM's (en niet LXC) of zijn allemaal Privileged.

Ben ik nu stom bezig, zie ik dingen over het hoofd? Of moet ik gewoon lekker de TrueNas Scale VM opzetten en uitzoeken hoe ik dan de drie schijven daarin toevoeg?

Programma's die ik tzt geïnstalleerd wil hebben zijn;
- Video/Serie/Muziek beheer, ik dacht aan Jellyfin
- Foto beheer, ik dacht aan Immich maar die krijg ik überhaupt nog niet ik een LXC. Misschien toch een ander programma proberen
- Documentbeheer, zoals Google Drive (
- Paperless om ontvangen brieven en facturen te scannen en te bewaren
- Bovenstaande mappen via netwerk benaderbaar

Ofwel, programma kan best op de NVME maar de data moet op de SSD

Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 13:07

Kek

3flix

@RedRayMann deze link al gevonden en heb je daar wat aan?

Ik heb zelf truenas in proxmox draaien en vanuit daar NFS naar VMs en containers. Aangezien al mijn VMs en LXC containers op de 2 NVMe's staan kon ik mijn sata controller pcie "passtroughen" naar de truenas VM zodat deze alle opslag sata schijven/SSDs native kan bedienen. Raw disk passthrough bestaat maar vind ik zelf een lelijke manier (en truenas kan dan geen smart disk spindown dingen etc doen voor zover ik kon zien)

enigzins offtopic hier, maar: ik draai zelf de meeste apps in 1 VM met docker. dan kan alles wat "Media" gebruikt in 1 keer bij de dir die daarvoor is. Docker is een fijne manier om contaienrs te gebruiken (als je het eenmaal door hebt) en updaten etc.. gaat erg makkelijk..

[ Voor 17% gewijzigd door Kek op 01-03-2025 21:59 ]


Acties:
  • 0 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 07:31
Kek schreef op zaterdag 1 maart 2025 @ 21:56:
@RedRayMann deze link al gevonden en heb je daar wat aan?

Ik heb zelf truenas in proxmox draaien en vanuit daar NFS naar VMs en containers. Aangezien al mijn VMs en LXC containers op de 2 NVMe's staan kon ik mijn sata controller pcie "passtroughen" naar de truenas VM zodat deze alle opslag sata schijven/SSDs native kan bedienen. Raw disk passthrough bestaat maar vind ik zelf een lelijke manier (en truenas kan dan geen smart disk spindown dingen etc doen voor zover ik kon zien)
Nee, nog niet. Dank, ga ik lezen!

En ben wel weer dit Proxmox topic aan het door scrollen en kwam onderstaand bericht tegen.
powerboat schreef op donderdag 14 september 2023 @ 23:19:
[...]


ProxmoxVE is een hypervisor puur sang en niet voor filesharing, wat ik heb en menig ander tweaker is Truenas core/scale in een vm installeren en je disken rechtstreeks mounten aan je vm d.m.v. passthrough.

[...]

Je kunt ook overwegen om Truenas Scale te gebruiken als NAS en als hypervisor, die heeft onder de motorkap nl. ook KVM. Heb hier alleen geen ervaring mee ;) .
Misschien heb ik mijn doel ook verkeerd. Wat ik herhaaldelijk terug lees is dat proxmox geen NAS software is om folders te delen e.d.
Mensen met ervaring kunnen dat misschien makkelijker met LXC aan elkaar koppelen. Misschien moet ik toch gewoon TrueNas Scale installeren.

Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 13:07

Kek

3flix

RedRayMann schreef op zaterdag 1 maart 2025 @ 21:59:
[...]


Misschien heb ik mijn doel ook verkeerd. Wat ik herhaaldelijk terug lees is dat proxmox geen NAS software is om folders te delen e.d.
Mensen met ervaring kunnen dat misschien makkelijker met LXC aan elkaar koppelen. Misschien moet ik toch gewoon TrueNas Scale installeren.
En mogelijk flauwe opmerking:

Als je de truenas route gaat. kijk dan ook even of niet alle apps die je wilt gebruiken binnen hun appstore zijn (waarschijnlijk wel want Docker) Heb je dan Proxmox nog wel nodig..? Ik ben erg fan van beide, maar als je voor makkelijk gaat is truenas het beste. Wil je ook wat pielen en uitproberen dan gewoon lekker beide..

Acties:
  • 0 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 07:31
Kek schreef op zaterdag 1 maart 2025 @ 22:03:
[...]


En mogelijk flauwe opmerking:

Als je de truenas route gaat. kijk dan ook even of niet alle apps die je wilt gebruiken binnen hun appstore zijn (waarschijnlijk wel want Docker) Heb je dan Proxmox nog wel nodig..? Ik ben erg fan van beide, maar als je voor makkelijk gaat is truenas het beste. Wil je ook wat pielen en uitproberen dan gewoon lekker beide..
Goed punt, want veel wat ik nu draai kan ook binnen Truenas.
Fijn dat je zo meedenkt en de vraag stelt :)

Ik heb nu Unifi controller, AdGuard, Vaultwarden, NGINX Proxy Manager in een LXC
Naast deze LXC's heb ik ook een Home Assistant OS in een VM. Juist om het volledige pakket te gebruiken en binnen HA gebruik te maken van de Add-ons.

Oorspronkelijk (nog voor aanschaf) dacht ik aan Proxmox als basis en daarop HA en Truenas. Binnen Truenas dan alle apps draaien.
In de tussentijd heb ik LXC leren te gebruiken en mee geprobeerd.

--edit--
Ik heb OMV en Jellyfin LXC verwijderd en ga mij oriënteren op TrueNas op Proxmox. Tijd om daar mee te gaan stoeien en ervaring mee op te doen.

[ Voor 7% gewijzigd door RedRayMann op 01-03-2025 22:35 ]


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 11:42
RedRayMann schreef op zaterdag 1 maart 2025 @ 21:47:
Goede avond allen.
Ik ga een vraag dumpen die mogelijk vaker gesteld is maar ik zie door de bomen het bos niet meer.

TL;DR
Hoe kan ik mijn SSD's mounten en zorgen dat diverse programma's dun data op de SSD's kunnen lezen en schrijven?


Ik draai Proxmox 8.3.4 op een Odroid H4+
Diverse LXC containers zonder opslag draaien perfect
Home Assistant draait in een VM vanaf de boot NVME
Ik heb ook twee keer een SSD en 1x een HDD

Tot nu toe draait alles een tijd mooi en stabiel.

Mijn eerste gedachte voor de andere programma's was lekker makkelijk TrueNas Scale in een VM en veel via de GUI doen. Maar ik hou wel van een uitdaging en de programma's die ik wil draaien kunnen volgens mij ook direct in een LXC. Maar na enkele avonden tot laat te hebben gepuzzeld, Reddit, YouTube, ChatGPT uitgepluisd, loop ik vast en snap ik het niet meer.

Mijn doel;
JellyFin in een LXC op de NVME en films, series en muziek op een SSD
Immich in een LXC op de NVME en de foto's op de SSD
De mappen films, series, muziek en foto's ook toegankelijk via het netwerk, zodat ik via mijn pc eventueel bij de bestanden kan.

Reeds geprobeerd
JellyFin in een LXC, diverse pogingen om de SSD te mounten met lees en schrijf rechten (heb 3 avonden hier op zitten puzzelen)
Folder was te zien en uit te lezen, maar niets en nergens had ik schrijf rechten waardoor ik ook niets in de folder kon zetten.

Ik dacht, ik moet een share folder hebben, die via netwerk toegankelijk is, dus OMV in een LXC geïnstalleerd en ook hier geprobeerd de SSD toe te voegen, maar ook dit lukte niet.
De tutorials die ik tegen kwam gaan allemaal uit van VM's (en niet LXC) of zijn allemaal Privileged.

Ben ik nu stom bezig, zie ik dingen over het hoofd? Of moet ik gewoon lekker de TrueNas Scale VM opzetten en uitzoeken hoe ik dan de drie schijven daarin toevoeg?

Programma's die ik tzt geïnstalleerd wil hebben zijn;
- Video/Serie/Muziek beheer, ik dacht aan Jellyfin
- Foto beheer, ik dacht aan Immich maar die krijg ik überhaupt nog niet ik een LXC. Misschien toch een ander programma proberen
- Documentbeheer, zoals Google Drive (
- Paperless om ontvangen brieven en facturen te scannen en te bewaren
- Bovenstaande mappen via netwerk benaderbaar

Ofwel, programma kan best op de NVME maar de data moet op de SSD
Je hebt 2 manieren om disken aan een vm te mounten, dit kun je doen door:
- Disk passthrough, gaat wel maad gaat ten koste van performance. Je krijgt een hogere io-delay als gevolg.
- sata/sas controller passthrough, dit is de meest stabiele en snelste manier.

Acties:
  • 0 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 07:31
powerboat schreef op zaterdag 1 maart 2025 @ 23:36:
[...]


Je hebt 2 manieren om disken aan een vm te mounten, dit kun je doen door:
- Disk passthrough, gaat wel maad gaat ten koste van performance. Je krijgt een hogere io-delay als gevolg.
- sata/sas controller passthrough, dit is de meest stabiele en snelste manier.
Ik had het gisteren gezien en gelezen.
Denk dat een conclusie is dat dit wel werkt met VM's maar niet met LXC's.

Op de Odroid H4+ zit de controller op/in het moederbord. Dus denk dat optie twee afvalt tijdens mijn zoektocht gisteren. Maar dank voor de info. Ik ga er mee verder.

--edit--
Ik heb weer huiswerk
https://pve.proxmox.com/p...e.html#qm_pci_passthrough

En

https://pve.proxmox.com/wiki/PCI_Passthrough

[ Voor 10% gewijzigd door RedRayMann op 02-03-2025 09:40 ]


Acties:
  • 0 Henk 'm!

  • TheMystery
  • Registratie: Februari 2004
  • Laatst online: 07:19
RedRayMann schreef op zaterdag 1 maart 2025 @ 22:12:
[...]

--edit--
Ik heb OMV en Jellyfin LXC verwijderd en ga mij oriënteren op TrueNas op Proxmox. Tijd om daar mee te gaan stoeien en ervaring mee op te doen.
Ik ben op moment ook bezig met een homeserver, ik heb de route gekozen voor proxmox met een truenas vm (met sata controller passtrough) + unprivileged lxc containers voor plex, docker, frigate en mariadb.
Lxc’s zijn wat makkelijker voor gpu passtrough.

Om de truenas shares in de lxc’s te krijgen heb ik deze via fstab op de proxmox host gemount:
Map aangemaakt op proxmox
code:
1
mkdir -p /mnt/lxc_shares/share

fstab mount gemaakt naar deze folder
code:
1
//nas/share/ /mnt/lxc_shares/share cifs _netdev,x-systemd.automount,noatime,nobrl,uid=100000,gid=110000,dir_mode=0770,file_mode=0770,user=user,pass=pass 0 0

Hierna in de lxc group aangemaakt:
code:
1
groupadd -g 10000 lxc_shares

Voeg eventueel je user zoals plex of jellyfin toe aan deze groep:
code:
1
usermod -aG lxc_shares plex

Hierna een bind mount aangemaakt in de lxc.conf
code:
1
2
etc/pve/lxc/id.conf
lxc.mount.entry: /mnt/lxc_shares/share mnt/share none rbind,create=dir 0 0

Ik heb gebruik gemaakt van lxc.mount.entry ipv mp0: aangezien ik anders geen snapshots kon maken en ik neem aan dan ook geen backups.

Hierna een start volgorde ingesteld zodat eerst mijn truenas vm gestart wordt en 120sec later pas de rest, met een reboot van de proxmox host komen de shares nu netjes online.

Voor de stata passtrough het volgende nog geconfigureerd, mijn install gebruikt geen grub als je dat wel hebt moet je de cmdline in grub toevoegen:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
iommu passtrhoug and screentimeout:
nano /etc/kernel/cmdline
root=ZFS=rpool/ROOT/pve-1 boot=zfs quiet intel_iommu=on iommu=pt consoleblank=30

Inladen nieuwe cmdline:
proxmox-boot-tool refresh
reboot
dmesg | grep -e DMAR -e IOMMU (hiermee kun je zien of iommu aanstaat

nano /etc/modules
vfio
vfio_iommu_type1
vfio_pci

Inladen etc/modules:
update-initramfs -u -k all


De videokaart heb ik via de ui aan de lxc toegevoegd bij resources via device passtrough ;
Afbeeldingslocatie: https://tweakers.net/i/IHSNgoFTLnH7QRc1VgAHq1o2r-I=/800x/filters:strip_icc():strip_exif()/f/image/QVH5zzYFnIJLPz1T2khE872w.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/FgzGtHH-TTYs13tSdcJtDCDivBo=/800x/filters:strip_icc():strip_exif()/f/image/ngWcI2A2EpyoVvXfv4P0b0ju.jpg?f=fotoalbum_large

Ik moet zelf nog even uitzoeken hoe ik mijn usb google coral nog toe moet voegen aan mijn frigate lxc, was aan het denken om de hele bus door te zetten en deze lxc het laatste op te starten.

Ik moet mijn vm van home assistent nog migreren waar ik een 3 tal usb sticks door moet zetten.
Als het niet werkt kan ik nog altijd openvino gebruiken voor frigate ipv de coral maar dat zal meer stroom verbruiken.

[ Voor 22% gewijzigd door TheMystery op 02-03-2025 10:37 ]


Acties:
  • 0 Henk 'm!

  • Jerie
  • Registratie: April 2007
  • Niet online
Mijn ervaring is iGPU kost minder W dan Coral TPU.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


Acties:
  • 0 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 21-07 21:11
Frigate unprivileged en gpu passthrough?

Laatste keer dat ik daar naar keek was dat nog niet mogelijk, inmiddels dus wel?
Proxmox VE Helper-Scripts gebruikt?

Acties:
  • 0 Henk 'm!

  • TheMystery
  • Registratie: Februari 2004
  • Laatst online: 07:19
Jerie schreef op zondag 2 maart 2025 @ 11:41:
Mijn ervaring is iGPU kost minder W dan Coral TPU.
Hmm dacht dat het andersom was, met openvino haal ik zelfs 6ms interference mijn coral doet 8ms.
Zal eens kijken wat ik doe.

Acties:
  • 0 Henk 'm!

  • TheMystery
  • Registratie: Februari 2004
  • Laatst online: 07:19
Theetjuh schreef op zondag 2 maart 2025 @ 12:21:
Frigate unprivileged en gpu passthrough?

Laatste keer dat ik daar naar keek was dat nog niet mogelijk, inmiddels dus wel?
Proxmox VE Helper-Scripts gebruikt?
Ja werkt prima, ik heb gekozen voor een dockge lxc van de helper scripts, vond ik wat flexibeler met updaten van frigate.

Acties:
  • 0 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 21-07 21:11
TheMystery schreef op zondag 2 maart 2025 @ 13:24:
[...]


Ja werkt prima, ik heb gekozen voor een dockge lxc van de helper scripts, vond ik wat flexibeler met updaten van frigate.
Aahh ja, maar docker in een lxc is weer iets wat niet aanbevolen wordt vanuit proxmox toch?

Acties:
  • 0 Henk 'm!

  • TheMystery
  • Registratie: Februari 2004
  • Laatst online: 07:19
Theetjuh schreef op zondag 2 maart 2025 @ 13:31:
[...]

Aahh ja, maar docker in een lxc is weer iets wat niet aanbevolen wordt vanuit proxmox toch?
Zou kunnen ja, maar een lxc werdt helemaal niet ondersteund.

Acties:
  • 0 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 21-07 21:11
TheMystery schreef op zondag 2 maart 2025 @ 13:44:
[...]


Zou kunnen ja, maar een lxc werdt helemaal niet ondersteund.
Ja klopt, Frigate biedt er geen ondersteuning voor inderdaad.
Proxmox raadt Docker alleen in een VM aan zover ik kon vinden, Docker in een LXC zou data corruptie en/of issues met backup kunnen veroorzaken.

Heb het voor nu altijd nog kunnen voorkomen te gebruiken.
Frigate zou wat ik las vanaf 0.16 compatible kunnen zijn met debian 12, dan maar weer eens proberen via een LXC, maar nog steeds priviliged zover ik kan zien .. jammer.

Acties:
  • +1 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 07:31
TheMystery schreef op zondag 2 maart 2025 @ 10:19:
[...]


Ik ben op moment ook bezig met een homeserver, ik heb de route gekozen voor proxmox met een truenas vm (met sata controller passtrough) + unprivileged lxc containers voor plex, docker, frigate en mariadb.
Lxc’s zijn wat makkelijker voor gpu passtrough.

Om de truenas shares in de lxc’s te krijgen heb ik deze via fstab op de proxmox host gemount:
Map aangemaakt op proxmox
code:
1
mkdir -p /mnt/lxc_shares/share

fstab mount gemaakt naar deze folder
code:
1
//nas/share/ /mnt/lxc_shares/share cifs _netdev,x-systemd.automount,noatime,nobrl,uid=100000,gid=110000,dir_mode=0770,file_mode=0770,user=user,pass=pass 0 0

Hierna in de lxc group aangemaakt:
code:
1
groupadd -g 10000 lxc_shares

Voeg eventueel je user zoals plex of jellyfin toe aan deze groep:
code:
1
usermod -aG lxc_shares plex

Hierna een bind mount aangemaakt in de lxc.conf
code:
1
2
etc/pve/lxc/id.conf
lxc.mount.entry: /mnt/lxc_shares/share mnt/share none rbind,create=dir 0 0

Ik heb gebruik gemaakt van lxc.mount.entry ipv mp0: aangezien ik anders geen snapshots kon maken en ik neem aan dan ook geen backups.

Hierna een start volgorde ingesteld zodat eerst mijn truenas vm gestart wordt en 120sec later pas de rest, met een reboot van de proxmox host komen de shares nu netjes online.

Voor de stata passtrough het volgende nog geconfigureerd, mijn install gebruikt geen grub als je dat wel hebt moet je de cmdline in grub toevoegen:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
iommu passtrhoug and screentimeout:
nano /etc/kernel/cmdline
root=ZFS=rpool/ROOT/pve-1 boot=zfs quiet intel_iommu=on iommu=pt consoleblank=30

Inladen nieuwe cmdline:
proxmox-boot-tool refresh
reboot
dmesg | grep -e DMAR -e IOMMU (hiermee kun je zien of iommu aanstaat

nano /etc/modules
vfio
vfio_iommu_type1
vfio_pci

Inladen etc/modules:
update-initramfs -u -k all


De videokaart heb ik via de ui aan de lxc toegevoegd bij resources via device passtrough ;
[Afbeelding]

[Afbeelding]

Ik moet zelf nog even uitzoeken hoe ik mijn usb google coral nog toe moet voegen aan mijn frigate lxc, was aan het denken om de hele bus door te zetten en deze lxc het laatste op te starten.

Ik moet mijn vm van home assistent nog migreren waar ik een 3 tal usb sticks door moet zetten.
Als het niet werkt kan ik nog altijd openvino gebruiken voor frigate ipv de coral maar dat zal meer stroom verbruiken.
Super, dank je wel.
Ik snap het nog niet helemaal maar ga dit zeker uitdiepen! :-)

Acties:
  • +1 Henk 'm!

  • Erwin537
  • Registratie: December 2008
  • Laatst online: 11:18
Ik wil proberen af te stappen van Google fotos met cloud backup en een self hosted oplossing te gebruiken. Photoprism met behulp van de proxmox helper scripts even geprobeerd maar vond de interface erg verwarrend. Automatisch syncen is wel een must en heb er echt geen probleem mee om éénmalig een bedrag te betalen om dat te laten werken (zoals bij photoprism het geval is).

Immich was ik al een paar keer tegen gekomen, maar omdat daar geen helper script voor is nog niet geprobeerd. Toen kwam ik dit overzicht tegen: https://github.com/meichthys/foss_photo_libraries. Daar lijkt Immich wat mij betreft echt wel het beste uit te komen.

Nu ben ik dus aan het kijken naar hoe ik dat het beste kan opzetten. Op de site van immich zelf staat dat ze hosten in een LXC afraden, maar waarom dat is laat zich raden. Wat googlen kom ik vage statements tegen over mounten van storage of hardware acceleration.

Nu ben ik een beetje de weg kwijt: wat kan ik nou het beste doen? Eerder in dit topic is door @RudolfR deze optie genoemd: https://github.com/loeeeee/immich-in-lxc. Maar dat is dus ook niet een door Immich zelf 'supported' installatie. Toch gewoon gaan voor de docker installatie in een VM? Ik heb net wat te weinig inzicht om echt een weloverwogen beslissing te maken. Wat zijn hier de ervaringen met Immich?

Voor de beeldvorming: ik heb proxmox draaien op een zuinig servertje met een i3-9100, 32gb ram (<50% in gebruik) en zonder grafische kaart.

Acties:
  • 0 Henk 'm!

  • WheeleE
  • Registratie: Juni 2001
  • Nu online

WheeleE

Dinges

WheeleE schreef op zaterdag 1 maart 2025 @ 15:54:
Ik dacht vandaag ff m'n proxmoxomgeving te herinstalleren om zo de local en local-lvm storage beter in te delen. Ik heb 1 HD van 500Gb waarvan ik zo'n 200 voor de local, en de rest voro de local-lvm wil gebruiken. Zo kan ik meer ruimte op local gebruiken voor backups.

Maar óf ik kijk er scheel overheen, óf dat kan niet tijdens de installatie.
Door alle zoekresultaten online duizelt het me een beetje...
Ik ben imiddels aan het nadenken over een alternatieve oplossign hiervoor.
Als ik een nvme-drive toevoeg aan mijn nuc, kan ik daaar dan proxmox op installeren en een grote local storage voor de backups op configureren? En dan op de bestaande 500Gb ssd de vmdisken, iso's en alle overgebleven meuk?

En een semi-gerelateerde vraag: is het überhaupt mogelijkom de standaard local storage een specifieke grootte tegen? Voor zover ik kan nagaan wordt het altijd een x procent van de totale disk?

Acties:
  • +1 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Nu online
@Erwin537

Ben blij met immich, draait naar behoren met behulp van die scripts.
Android apps werken ook goed. Ook gezichtsherkenning, volgens mij met de iGPU van de NUC.
Onlangs nog geupdate, ging probleemloos.

Acties:
  • 0 Henk 'm!

  • BarryS
  • Registratie: September 2010
  • Laatst online: 18-07 12:09
Zijn hier al mensen die de upgrade hebben gedaan naar de 6.11 kernel? Wat is jullie ervaring?

AMD Ryzen 7 9800X3D - Corsair Vengeance 64 GB DDR5 @ 6000 MHz C36 - ASUS ROG Strix B650E-F - GeForce RTX 4090 Phantom - Samsung 990 Pro 2TB, 980 Pro 2TB, 970 EVO Plus 2TB, 860 EVO 1TB, 850 EVO 1TB, 830 256GB - Liquid Freezer II 280 - RM850x - LG 34GS95QE


Acties:
  • +1 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 13:06

Quad

Doof

@Erwin537 Je zou Synology DSM in docker kunnen draaien. Kan je gebruik maken van de photos app van Synology.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 07:31
Erwin537 schreef op dinsdag 4 maart 2025 @ 14:52:
Ik wil proberen af te stappen van Google fotos met cloud backup en een self hosted oplossing te gebruiken. Photoprism met behulp van de proxmox helper scripts even geprobeerd maar vond de interface erg verwarrend. Automatisch syncen is wel een must en heb er echt geen probleem mee om éénmalig een bedrag te betalen om dat te laten werken (zoals bij photoprism het geval is).

Immich was ik al een paar keer tegen gekomen, maar omdat daar geen helper script voor is nog niet geprobeerd. Toen kwam ik dit overzicht tegen: https://github.com/meichthys/foss_photo_libraries. Daar lijkt Immich wat mij betreft echt wel het beste uit te komen.

Nu ben ik dus aan het kijken naar hoe ik dat het beste kan opzetten. Op de site van immich zelf staat dat ze hosten in een LXC afraden, maar waarom dat is laat zich raden. Wat googlen kom ik vage statements tegen over mounten van storage of hardware acceleration.

Nu ben ik een beetje de weg kwijt: wat kan ik nou het beste doen? Eerder in dit topic is door @RudolfR deze optie genoemd: https://github.com/loeeeee/immich-in-lxc. Maar dat is dus ook niet een door Immich zelf 'supported' installatie. Toch gewoon gaan voor de docker installatie in een VM? Ik heb net wat te weinig inzicht om echt een weloverwogen beslissing te maken. Wat zijn hier de ervaringen met Immich?

Voor de beeldvorming: ik heb proxmox draaien op een zuinig servertje met een i3-9100, 32gb ram (<50% in gebruik) en zonder grafische kaart.
Je zit precies is het schuitje waar ik afgelopen week in zat. Ik kreeg het niet lekker werkend. Mede door gebrek aan ervaring. Dus ben daarom met JellyFin gestart. In ervaring op te doen met LXC's en shared folders. Mijn conclusie is nu dat ik richting Truenas ga. Dit op Proxmox.

Echter moet ik eerst weer enkele dagen tijd hiervoor gaan krijgen/ maken/ plannen.

Als jij stappen hebt gezet, deel dat! Want ik volg je met veel interesse.

Acties:
  • 0 Henk 'm!

  • Cyberpope
  • Registratie: April 2000
  • Niet online

Cyberpope

When does the hurting stop??

Wat is nu de best practice om een fileserver in Proxmox op te zetten. Ik zie door de bomen het bos niet meer, wie kan me de juist richting in duwen.

Ik heb een proxmox server (laptop) en een losse USB-C schijfje welke ik volledig wil gebruiken als dataschijf voor een fileserver. Wat is dan het meest aan te raden. Ik zie vanaf owncloud/nextcloud tot turnkey server installeren als ik rondzoek.

With so many things coming back in style, I can't wait till loyalty, intelligence and morals become a trend again.......


Acties:
  • 0 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
Tja, wat is "beste". Ik heb een LXC met daarin Samba en bind-mounts naar de zfs-mappen op de host.

Ik vind dat simpel en het werkt als een tierelier, maar zit verder geen GUI bij of zo, dus als je niet vies bent om met de hand shares toe te voegen in de Samba-config, dan is dat prima.

je kunt het ook veel ingewikkelder maken.....

Acties:
  • 0 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Nu online
Hier ook zoiets, maar dan met turnkey-fs LXC om via een webinterface de shares te kunnen beheren, kan samba en nfs.

Wel eens gespeeld met Nextcloud AIO, maar dat is een stuk meer dan alleen een fileshare.

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 13:23
Ik heb zelf geen perfecte setup.
Heb VM met OMV en daarin wat podman extra containers (managed vanuit OMV) en aan deze OMV vm een virtual disk van 20TB toegekend.
Deze manier heeft als enige voordeel dat je deze disk makkelijk uit je backups kan weghouden.
Nadeel is dat bij een proxmox reboot hij niet de snelste is met opstarten (het laden van de disk is denk ik de oorzaak) Dus heb het nodige met bootorders ingericht om dit zo soepel mogelijk laten te verlopen.

Vervolgens op proxmox host diverse SMB shares met de juiste UID/GID gemount (die in OMV leven) en deze dan weer aan LXC's gebind.
Performance wise vast niet de snelste route maar werkt allemaal wel. Maar alles wat naar smb geschreven wordt is niet snelheid kritisch ;)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 21-07 19:01
Erwin537 schreef op dinsdag 4 maart 2025 @ 14:52:
Ik wil proberen af te stappen van Google fotos met cloud backup en een self hosted oplossing te gebruiken. Photoprism met behulp van de proxmox helper scripts even geprobeerd maar vond de interface erg verwarrend. Automatisch syncen is wel een must en heb er echt geen probleem mee om éénmalig een bedrag te betalen om dat te laten werken (zoals bij photoprism het geval is).

Immich was ik al een paar keer tegen gekomen, maar omdat daar geen helper script voor is nog niet geprobeerd. Toen kwam ik dit overzicht tegen: https://github.com/meichthys/foss_photo_libraries. Daar lijkt Immich wat mij betreft echt wel het beste uit te komen.

Nu ben ik dus aan het kijken naar hoe ik dat het beste kan opzetten. Op de site van immich zelf staat dat ze hosten in een LXC afraden, maar waarom dat is laat zich raden. Wat googlen kom ik vage statements tegen over mounten van storage of hardware acceleration.

Nu ben ik een beetje de weg kwijt: wat kan ik nou het beste doen? Eerder in dit topic is door @RudolfR deze optie genoemd: https://github.com/loeeeee/immich-in-lxc. Maar dat is dus ook niet een door Immich zelf 'supported' installatie. Toch gewoon gaan voor de docker installatie in een VM? Ik heb net wat te weinig inzicht om echt een weloverwogen beslissing te maken. Wat zijn hier de ervaringen met Immich?

Voor de beeldvorming: ik heb proxmox draaien op een zuinig servertje met een i3-9100, 32gb ram (<50% in gebruik) en zonder grafische kaart.
Voor jouw gebruik is denk ik Nextcloud het beste wat er is. Zeker niet alles, maar het kan wel automatisch foto's syncen van je telefoon naar je eigen cloud.

Ook immich wel eens geprobeert en nog wat anderen, maar die waren toen niet zover als nextcloud of de interface beviel me niet.

Zelf ben ik overigens afgestapt van selfhosting over internet, gebruik nog steeds een homelab, maar hoofdzakelijk alleen nog maar binnen mijn eigen lan.

Onlangs protondrive voor mijn foto's gaan gebruiken. Dit werkt prima en secuur. Alleen geen photo app zoals google, allemaal vrij basic maar wat er is werkt.

Acties:
  • 0 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 07:31
Voor het delen van kennis.
Ik liep tegen enkele problemen aan dit gebrek aan kennis. Het lukte niet om shares in een lxc te krijgen.

Ik denk nu aan TrueNas scale op Proxmox en de sata controller pass true naar de vm

Zojuist kwam ik dit topic tegen;
https://forum.odroid.com/viewtopic.php?f=171&t=49193


Zelf heb ik de Odroid H4 Plus. Maar misschien hebben meer mensen iets aan deze info

Acties:
  • 0 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 21-07 21:11
Hallo allemaal,

Ik heb waarschijnlijk een domme vraag, ik heb 3 proxmox-hosts, maar een van die hosts vraagt ​​altijd om een ​​gebruikersnaam en wachtwoord wanneer ik probeer verbinding te maken met lxc-attach via SSH vanaf de host.
Wanneer ik een van de LXC's van de problematische host naar een andere host migreer, werkt het prima.
Precies hetzelfde andersom, wanneer ik een LXC van een werkende host naar de host met bovenstaand probleem verplaats.

Heeft iemand een idee wat dit kan zijn en wat tips voor mij om het probleem op te lossen?

Alvast bedankt!

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 12-07 13:01

zeroday

There is no alternative!

Erwin537 schreef op dinsdag 4 maart 2025 @ 14:52:
Ik wil proberen af te stappen van Google fotos met cloud backup en een self hosted oplossing te gebruiken. Photoprism met behulp van de proxmox helper scripts even geprobeerd maar vond de interface erg verwarrend. Automatisch syncen is wel een must en heb er echt geen probleem mee om éénmalig een bedrag te betalen om dat te laten werken (zoals bij photoprism het geval is).

Immich was ik al een paar keer tegen gekomen, maar omdat daar geen helper script voor is nog niet geprobeerd. Toen kwam ik dit overzicht tegen: https://github.com/meichthys/foss_photo_libraries. Daar lijkt Immich wat mij betreft echt wel het beste uit te komen.
ook ik zit daar naar te kijken. Heb immich nog niet goed aan de praat gehad en wil het ook als LXC draaien, maar geef het wellicht een 'go' met dockge die ik draai ..
Alleen al om te zien hoe deze mijn folderstructuur kan onderstenen via smb ..


Nu ben ik dus aan het kijken naar hoe ik dat het beste kan opzetten

Zelf draai ik al vele jaren: https://www.photo.gallery/
dat werkt redelijk goed sinds ik van NFS naar SMB met specifieke instellingen ben overgegaan.
en iets beters dan dat heb ik nog niet gevonden. (of aan de praat gekregen zoals ik het wil) ;)

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • barrymossel
  • Registratie: Juni 2003
  • Laatst online: 13:33
Cyberpope schreef op woensdag 5 maart 2025 @ 06:44:
Wat is nu de best practice om een fileserver in Proxmox op te zetten. Ik zie door de bomen het bos niet meer, wie kan me de juist richting in duwen.

Ik heb een proxmox server (laptop) en een losse USB-C schijfje welke ik volledig wil gebruiken als dataschijf voor een fileserver. Wat is dan het meest aan te raden. Ik zie vanaf owncloud/nextcloud tot turnkey server installeren als ik rondzoek.
Zelf heb ik een Openmediavault VM draaien. Die draait als NAS. Daarop Docker geïnstalleerd met containers voor Immich (foto sync) en Paperless NGX (documenten sync met mijn mail, of handmatige upload - via AI wordt het geïndexeerd).

Acties:
  • 0 Henk 'm!

  • Erwin537
  • Registratie: December 2008
  • Laatst online: 11:18
Ik heb nu toch Immich draaien in een privileged docker LXC (even uit gemakzucht zodat ik geen users hoef te mappen voor het mountpoint). Ik had het nog even geprobeerd met native-immich, maar dat kreeg ik niet werkend. Nu de setup me heel erg bevalt zal ik de LXC nog even omzetten naar unpriveleged.

Wat ik nu heb werkt echt perfect, draait super soepel en snel. Ondanks dat ik echt geen indrukwekkende hardware heb gaat face recognition en deduplication ook heel goed. Immich-go voor het importeren van Google photos was ook echt een uitkomst. Hij herkent echt niet elk gezicht en ik heb echt wel veel personen moeten 'mergen' omdat ze als verschillende personen werden herkend. Maar daar sta ik niet van te kijken aangezien het meerdere jaren aan foto's zijn met vaak ook nog bedekkende (ski) kleding. Dus eigenlijk alleen maar onder de indruk hoe goed het werkt in zowel foto's als filmpjes.
Enige wat ik mis is huisdier herkenning, Google Photos heeft dat wel - en met meerdere huisdieren is dat wel leuk, maar mogelijk dat dat nog komt.

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 12-07 13:01

zeroday

There is no alternative!

Erwin537 schreef op woensdag 12 maart 2025 @ 09:39:
Ik heb nu toch Immich draaien in een privileged docker LXC (even uit gemakzucht zodat ik geen users hoef te mappen voor het mountpoint). Ik had het nog even geprobeerd met native-immich, maar dat kreeg ik niet werkend. Nu de setup me heel erg bevalt zal ik de LXC nog even omzetten naar unpriveleged.

Wat ik nu heb werkt echt perfect, draait super soepel en snel. Ondanks dat ik echt geen indrukwekkende hardware heb gaat face recognition en deduplication ook heel goed. Immich-go voor het importeren van Google photos was ook echt een uitkomst. Hij herkent echt niet elk gezicht en ik heb echt wel veel personen moeten 'mergen' omdat ze als verschillende personen werden herkend. Maar daar sta ik niet van te kijken aangezien het meerdere jaren aan foto's zijn met vaak ook nog bedekkende (ski) kleding. Dus eigenlijk alleen maar onder de indruk hoe goed het werkt in zowel foto's als filmpjes.
Enige wat ik mis is huisdier herkenning, Google Photos heeft dat wel - en met meerdere huisdieren is dat wel leuk, maar mogelijk dat dat nog komt.
Welke image voor immich onder Proxmox heb je gepakt? (onder docker)

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • Erwin537
  • Registratie: December 2008
  • Laatst online: 11:18
zeroday schreef op woensdag 12 maart 2025 @ 19:29:
[...]


Welke image voor immich onder Proxmox heb je gepakt? (onder docker)
Ik snap niet goed wat je bedoelt. Ik heb van proxmox helper scripts de docker LXC gepakt. Ik heb gekozen voor ubuntu om docker op te draaien. Installatie van Immich gevolgd zoals beschreven op de website: docker compose en env file gedownload en de services gestart (na aanpassen van de .env file).

Beantwoord dat je vraag?

Acties:
  • 0 Henk 'm!

  • ElMacaroni
  • Registratie: November 2012
  • Laatst online: 07:55

ElMacaroni

Laat de zon maar komen!

Zoek me nu al een dag in de rondte:

Krijg HPE W2022 Essentials ROK ISO + licentie niet aan de praat. Zit ook geen code bij, alleen COA sticker en DVD.

VM aangemaakt vlgns https://pve.proxmox.com/w...2022_guest_best_practices
Max 1 processor, 10 cores, zoals Essentials wil.
Voor 1e boot Options/SMBIOS Settings (Type 1) aangepast met info uit de PVE shell dmidecode

> root@pve:~# dmidecode --type 1
> # dmidecode 3.4
> Getting SMBIOS data from sysfs.
> SMBIOS 3.4.0 present.
>
> Handle 0x007F, DMI type 1, 27 bytes
> System Information
> Manufacturer: HPE
> Product Name: ProLiant DL360 Gen10 Plus
> Version: Not Specified
> Serial Number: CZJ........
> UUID: 39383250-3834-5a43-4a32-............
> Wake-up Type: Power Switch
> SKU Number: P28948-B21
> Family: ProLiant

Installeert zonder hikje, geen gele driehoeken in device manager, maar activeert niet.

Mekkert over: activation servers down 0x80072EFD of niet verbonden met internet.
Andere melding: something prevented us communicating with activation servers 0x87E10BC6

Snaarstrakke IPV4 ping.

Beetje door de mogelijkheden heen. Iemand nog een idee?

SE2200+14xSF170S & SE1500M+4xTSM-375


Acties:
  • 0 Henk 'm!

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 00:07
Als de license key in de BIOS opgeslagen is, dan kun je die er uithalen met commando's, dan manueel key invoeren en activeren.

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 12-07 13:01

zeroday

There is no alternative!

Erwin537 schreef op woensdag 12 maart 2025 @ 20:13:
[...]

Ik snap niet goed wat je bedoelt. Ik heb van proxmox helper scripts de docker LXC gepakt. Ik heb gekozen voor ubuntu om docker op te draaien. Installatie van Immich gevolgd zoals beschreven op de website: docker compose en env file gedownload en de services gestart (na aanpassen van de .env file).

Beantwoord dat je vraag?
Zeker ;)

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • The-dragon
  • Registratie: Mei 2008
  • Laatst online: 20-07 22:22
ivm immich,

Als je een Dockge LXC installeert met een script van helper-scripts dan krijg je de optie om Immich en/of Home assistant mee te installeren.

Fractal Design Meshify S2|Intel Core i9-10900K|Asus ROG Strix Z490-E Gaming|32GB G.Skill Trident Z F4-3200 |Asus Rog Strix GeForce RTX 3080 OC|Samsung 970 Evo Plus 1TB|Samsung 850 EVO 250GB | Samsung 860 EVO 1TB|Corsair HX1000i|Samsung LC27HG70


Acties:
  • 0 Henk 'm!

  • ElMacaroni
  • Registratie: November 2012
  • Laatst online: 07:55

ElMacaroni

Laat de zon maar komen!

GoBieN-Be schreef op woensdag 12 maart 2025 @ 23:01:
Als de license key in de BIOS opgeslagen is, dan kun je die er uithalen met commando's, dan manueel key invoeren en activeren.
Al zou ik dat kunnen dat gaat niet werken want het is een 1 processor 26Core machine.
Ik probeer een 1P-10Core VM te maken. Misschien een ander SKU nummer er in?
Ik ga wat proberen...

SE2200+14xSF170S & SE1500M+4xTSM-375


Acties:
  • 0 Henk 'm!

  • d-vine
  • Registratie: Augustus 2006
  • Laatst online: 09:50
The-dragon schreef op donderdag 13 maart 2025 @ 09:18:
ivm immich,

Als je een Dockge LXC installeert met een script van helper-scripts dan krijg je de optie om Immich en/of Home assistant mee te installeren.
Bedankt deze kende ik nog niet wel de site maar niet dat het via Dockge kon.
Nu druk bezig met het genereren van thumbnails.
Ben benieuwd hoe het allemaal werkt

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Help! Ik heb ineens een wearout van 99% op mijn hoofd SSD (waarop Proxmox draait), zonder dat ik het in de gaten had. Mijn backups lopen blijkbaar al een dikke maand fout. Ik kan nu ook de backups niet meer aanslingeren, dan zegt ie dat ie geen ruimte meer heeft. Ben ik nu de sjaak?

Afbeeldingslocatie: https://tweakers.net/i/zu1761b_UGTYi5S5bx_y-NuusI4=/800x/filters:strip_exif()/f/image/VS5rngzWW3E7cDPOJt4NuP15.png?f=fotoalbum_large

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • 0 Henk 'm!

  • ElMacaroni
  • Registratie: November 2012
  • Laatst online: 07:55

ElMacaroni

Laat de zon maar komen!

Welke foutmelding op de backup jobs?
Wearout is een SMART feature. Ik zeg niks maar heb er een die al op 139% staat.
Die 1TB is je backup schijf? Zit ie nokkievol?

SE2200+14xSF170S & SE1500M+4xTSM-375


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

ElMacaroni schreef op donderdag 13 maart 2025 @ 22:59:
Welke foutmelding op de backup jobs?
code:
1
starting worker failed: unable to create output file '/var/log/pve/tasks/5/UPID:pve:00002721:00033D0B:67D35825:vzdump:104:root@pam:' - No space left on device (500)
ElMacaroni schreef op donderdag 13 maart 2025 @ 22:59:
Wearout is een SMART feature. Ik zeg niks maar heb er een die al op 139% staat.
Ik weet het, maar hij blockt wel alles nu zo te zien. Die 99% is de OS schijf, staat puur Proxmox op, voor de rest niets. Hij zegt "100.00% (14.75 GB of 14.75 GB)", maar het is een 60GB SSD, dus lijkt niet in orde te zijn.
ElMacaroni schreef op donderdag 13 maart 2025 @ 22:59:
Die 1TB is je backup schijf? Zit ie nokkievol?
Dit is de SSD waar alle VM's en LXC's op staan, die lijkt nog wel iets te doen.

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 11:29
Sp33dFr34k schreef op donderdag 13 maart 2025 @ 22:51:
Help! Ik heb ineens een wearout van 99% op mijn hoofd SSD (waarop Proxmox draait), zonder dat ik het in de gaten had. Mijn backups lopen blijkbaar al een dikke maand fout. Ik kan nu ook de backups niet meer aanslingeren, dan zegt ie dat ie geen ruimte meer heeft. Ben ik nu de sjaak?

[Afbeelding]
Dat zijn 3 verschillende topics die je daar raakt.

Wat is je backup disk/volume? En hoe vol is die?

De wearout heeft niet direct iets met de backup te maken. Al was het maar omdat je wearout-disk de opstart disk lijkt te zijn. En die is doorgaans geen onderdeel van een PVE backup. Dat is iets wat je apart moet regelen.

Dus... asap een backup maken van je opstart disk - bijvoorbeeld met Clonezilla.
Maar in ieder geval een kopie maken van de folder /etc/pve.
Want hier staan alle actieve PVE instellingen.

Dat eenmaal gedaan is het meer een risk-apetite vraagstuk... :+

[ Voor 8% gewijzigd door Airw0lf op 13-03-2025 23:24 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 11:29
Sp33dFr34k schreef op donderdag 13 maart 2025 @ 23:14:

[..]

Hij zegt "100.00% (14.75 GB of 14.75 GB)", maar het is een 60GB SSD, dus lijkt niet in orde te zijn.
Bij welk volume zie je deze melding?
In je eerste post zie ik geen volume terug van 14.75 GB?

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Airw0lf schreef op donderdag 13 maart 2025 @ 23:18:
[...]


Dat zijn 3 verschillende topics die je daar raakt.

Wat is je backup disk/volume? En hoe vol is die?

De wearout heeft niet direct iets met de backup te maken. Al was het maar omdat je wearout-disk de opstart disk lijkt te zijn. En die is doorgaans geen onderdeel van een PVE backup. Dat is iets wat je apart moet regelen.

Dus... asap een backup maken van je opstart disk - bijvoorbeeld met Clonezilla.
Maar in ieder geval een kopie maken van de folder /etc/pve.
Want hier staan alle actieve PVE instellingen.

Dat eenmaal gedaan is het meer een risk-apetite vraagstuk... :+
Mijn backup volume is mijn NAS, en die is zeker niet vol. Hij loopt te klagen dat mijn OS disk vol is bij het proberen te maken van een backup... Ik zie dat 15GB van de 60GB gebruikt is, maar toch zegt ie dat ie vol is. Ik begrijp het niet helemaal. Net nog maar een keer gereboot, maar niets werkt meer. Ik krijg de LXC's/VM's ook niet meer gestart met dezelfde foutmelding; schijf vol..

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Airw0lf schreef op donderdag 13 maart 2025 @ 23:27:
[...]


Welk volume geeft die melding?
In je eerste post zie ik geen volume terug van 14.75 GB?
Enerzijds zie ik dit:

Afbeeldingslocatie: https://tweakers.net/i/GLMpIJYushssj_3uJUYr4P_bhMk=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/yUyLk2Aa77DKtNCvJ4eotsXK.png?f=user_large

Anderzijds zie ik dit:

Afbeeldingslocatie: https://tweakers.net/i/a3MsIZ2z2xJDS6TM6oeg6433Id4=/800x/filters:strip_exif()/f/image/strviyW2TC227LxXu42adUPQ.png?f=fotoalbum_large

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 11:29
Sp33dFr34k schreef op donderdag 13 maart 2025 @ 23:28:
[...]

Mijn backup volume is mijn NAS, en die is zeker niet vol. Hij loopt te klagen dat mijn OS disk vol is bij het proberen te maken van een backup... Ik zie dat 15GB van de 60GB gebruikt is, maar toch zegt ie dat ie vol is. Ik begrijp het niet helemaal. Net nog maar een keer gereboot, maar niets werkt meer. Ik krijg de LXC's/VM's ook niet meer gestart met dezelfde foutmelding; schijf vol..
De VM's en LXC's starten niet meer?
Maar je kan nog wel bij de webinterface? En dan naar de console?
Of inloggen via ssh?

Wat is de output van df -h?

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Airw0lf schreef op donderdag 13 maart 2025 @ 23:33:
[...]


De VM's en LXC's starten niet meer?
Maar je kan nog wel bij de webinterface? En dan naar de console?
Of inloggen via ssh?

Wat is de output van df -h?
Webinterface lukt, shell via webinterface niet (zelfde melding), SSH lukt gelukkig nog wel.

Afbeeldingslocatie: https://tweakers.net/i/JuwbGaB2Syn22vn5_s7iQ7Kbdsc=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/uloFvhO9BEYfDyzTcgD4P2Za.png?f=user_large

Als je weet hoe ik ruimte kan vrijmaken op die /dev/mapper/pve-root, dan hoor ik het graag.

EDIT: ik heb inmiddels in /var/log al wat ruimte vrij kunnen maken! Maar het kan altijd meer (bijna 1,5GB was dit)...
EDIT2: hij backupt weer! Lijkt erop dat ik weer ff vooruit kan! Ook al maak ik me wel zorgen over die 99% wearout... :'(

[ Voor 22% gewijzigd door Sp33dFr34k op 13-03-2025 23:48 ]

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • +1 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 11:29
Sp33dFr34k schreef op donderdag 13 maart 2025 @ 23:36:
[...]


Webinterface lukt, shell via webinterface niet (zelfde melding), SSH lukt gelukkig nog wel.

[Afbeelding]

Als je weet hoe ik ruimte kan vrijmaken op die /dev/mapper/pve-root, dan hoor ik het graag.

EDIT: ik heb inmiddels in /var/log al wat ruimte vrij kunnen maken! Maar het kan altijd meer (bijna 1,5GB was dit)...
EDIT2: hij backupt weer! Lijkt erop dat ik weer ff vooruit kan! Ook al maak ik me wel zorgen over die 99% wearout... :'(
Ik heb geen weet van een silverbullet in dit soort situaties - je gaat wat tijd moeten steken in een ssh-zoektocht naar de omvang van folders. En daarbinnen de omvang van bestanden. Dat begint met du -sk /* | sort -n.

Daarmee krijg je een gesorteerd overzicht van de folders en hun omvang - de grootste staan onderaan. Vervolgens van beneden naar boven per folder "afpellen" waar de bestanden staan die eventueel weg kunnen. De bestanden in een folder vraag je op met ls -l -h <foldernaam> | sort -n. Hiermee krijg je een op grootte gesorteerd overzicht van de bestanden, hun grootte en nog wat andere details - de grootste staan weer onderaan.

Gezien de onverwachte wearout en beschikbare ruimte gok ik dat je ergens een "verloren" backup of qcow bestand hebt liggen. Dat zou je in de webui moeten kunnen terugvinden - eventueel met een kleine aanpassing van het bestand /etc/pve/storage.cfg. Daarom: wat is de output van cat /etc/pve/storage.cfg?

[ Voor 9% gewijzigd door Airw0lf op 14-03-2025 07:41 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 13:23
Ik zat te denken om mijn huidige config te gaan verbeteren maar eerst even de theoretische vraag of dat gaat lukken ;)
Huidige situatie:
ZFS Pool RAIDZ2
Daarin diverse sets o.a. VMs, backups allemaal zonder vaste grootte (dus geen limit).
Ik heb o.a. een OMV vm en daarin een "DISK" van 20TB die in werkelijkheid in de ZFS pool leeft.
Zo ook een andere VM met een 20TB "DISK"

Vervolgens mount ik diverse SMB paden weer op mijn proxmox host die ik weer mount naar LXC's
Performance is nog steeds acceptable maar moet vast beter kunnen ;)

Mijn gedacht is:
Maak een fixed max size dataset aan in de ZFS pool, deze wordt dan gemount aan OMV
Zo ook voor de andere VM die nu een 20TB disk heeft.

Zou dat de opstart tijd bij een reboot van Proxmox versnellen want ik heb nu de indruk dat het inladen van de disks: in de oude situatie hierdoor vertraging.

En waar nu de LXCs via mount SMB de data bereiken, zou deze direct aan de juiste ZFSdir hierdoor ook niet sneller werken? (data gaat virtueel gezien niet meer het netwerk over)

Ik hoop dat wat ik omschrijf een beetje duidelijk is want ik mis even voor sommige onderdelen de juiste termen :X
Ik ga er even van uit dat op deze manier ik ook kan aangeven dat ik de mount-point niet in de backup wil meenemen?

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • +1 Henk 'm!

  • ninjazx9r98
  • Registratie: Juli 2002
  • Laatst online: 11:39
@Sp33dFr34k Volg de tips van @Airw0lf maar als je minder bekend bent met de commandline/Linux zou ik deze doen
code:
1
du -skh /* | sort -n
Een extra h als optie om een en ander human readable te maken waarmee je netjes M en G erbij krijgt.
Op mijn Proxmox installatie ziet het er dan als volgt uit:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
0       /bin
0       /lib
0       /lib64
0       /proc
0       /sbin
0       /sys
2.5G    /usr
4.0K    /media
4.0K    /opt
4.0K    /srv
7.0M    /run
7.6G    /var
8.8M    /etc
16K     /lost+found
36K     /home
44K     /tmp
46M     /dev
116M    /boot
140K    /root
452G    /mnt

Je moet wel een en ander van je installatie weten om het echt goed te intepreteren. Je ziet hier bijv 452GB in /mnt maar daar heb ik een mount naar mijn NAS voor backups. Die data is dus NIET letterlijk lokaal aanwezig in /mnt
Wat je ook nog kunt doen is
code:
1
du -ksh /var/*|grep -e G -e M

Zonder verdere info zou ik ook gokken op een backup die ergens onterecht staat of door andere issues veel logging in /var/log of /var/log/journal

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

@Airw0lf @ninjazx9r98 bedankt voor het meedenken! Het is gister nogal laat geworden, maar zoals ik in mijn edit had geplaatst, heb ik wat flinke logs gevonden in /var/log, die verwijderd (+- 1,5GB) en toen had ik weer ruimte om überhaupt backups te kunnen maken (remote naar NAS), en ik kon de VM's/LXC's weer starten! Als ik thuis ben zal ik nog eens kijken waar de andere 13GB voor gebruikt worden, maar een onterechte backup lijkt mij niet, aangezien alles naar mijn NAS gemapt staat.

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 11:29
Sp33dFr34k schreef op vrijdag 14 maart 2025 @ 09:32:
@Airw0lf @ninjazx9r98

[...]

maar een onterechte backup lijkt mij niet, aangezien alles naar mijn NAS gemapt staat.
Eens - alleen maak pve bij een backup een soort "snapshot". En tenzij je iets anders geregeld hebt wordt die weggeschreven naar "local". Als dat stukje van het backup proces ergens door afgebroken wordt kunnen er resten achter blijven.

Ik ken je situatie niet - maar een backup naar een lokaal aangesloten sata of usb disk geeft meer bedrijfszekerheid aan een backup omdat die "snapshot" dan op die sata of usb wordt gezet.

Ander puntje is dat pve aanneemt dat een smb share 7x24 beschikbaar is - zo niet, dan worden er logs volgeschreven met meldingen over een smb share die niet beschikbaar is.

Klinkt leuk zo een nas-backup - maar ik ben er vanaf gestapt - te veel randverschijnselen waarvan ik de gevolgen niet kan overzien op het moment dat ik daadwerkelijk een backup moet terugzetten.

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Airw0lf schreef op vrijdag 14 maart 2025 @ 10:24:
[...]


Eens - alleen maak pve bij een backup een soort "snapshot". En tenzij je iets anders geregeld hebt wordt die weggeschreven naar "local". Als dat stukje van het backup proces ergens door afgebroken wordt kunnen er resten achter blijven.

Ik ken je situatie niet - maar een backup naar een lokaal aangesloten sata of usb disk geeft meer bedrijfszekerheid aan een backup omdat die "snapshot" dan op die sata of usb wordt gezet.

Ander puntje is dat pve aanneemt dat een smb share 7x24 beschikbaar is - zo niet, dan worden er logs volgeschreven met meldingen over een smb share die niet beschikbaar is.

Klinkt leuk zo een nas-backup - maar ik ben er vanaf gestapt - te veel randverschijnselen waarvan ik de gevolgen niet kan overzien op het moment dat ik daadwerkelijk een backup moet terugzetten.
Dank, ik zal daar eens naar gaan kijken/zoeken. Mijn NAS staat in principe 24/7 aan, in geval van DSM updates op de NAS zal dat geen probleem zijn omdat ik de Proxmox backups maar 1x per week midden in de nacht schedule, ander schedule dan auto-backups van de NAS iig, dus dat zou het niet moeten zijn. Ik moet iig even regelen dat de meldingen weer werken (eerst kreeg ik die via mail, maar om de een of andere reden is dat kapot). Dan heb ik iig in de gaten als er iets fout loopt (dat was nu niet het geval). De reden dat ik überhaupt hierachter kwam, is omdat mijn uptime kuma meerdere keren per dag liep te zaniken dat mijn services niet beschikbaar waren (terwijl dit wel zo was toen ik het controleerde), dus hij had het er al moeilijk mee, zonder dat ik het echt in de gaten had.

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • +3 Henk 'm!

  • Jerie
  • Registratie: April 2007
  • Niet online
Airw0lf schreef op vrijdag 14 maart 2025 @ 07:29:
[...]


Ik heb geen weet van een silverbullet in dit soort situaties - je gaat wat tijd moeten steken in een ssh-zoektocht naar de omvang van folders. En daarbinnen de omvang van bestanden. Dat begint met du -sk /* | sort -n.

Daarmee krijg je een gesorteerd overzicht van de folders en hun omvang - de grootste staan onderaan. Vervolgens van beneden naar boven per folder "afpellen" waar de bestanden staan die eventueel weg kunnen. De bestanden in een folder vraag je op met ls -l -h <foldernaam> | sort -n. Hiermee krijg je een op grootte gesorteerd overzicht van de bestanden, hun grootte en nog wat andere details - de grootste staan weer onderaan.

Gezien de onverwachte wearout en beschikbare ruimte gok ik dat je ergens een "verloren" backup of qcow bestand hebt liggen. Dat zou je in de webui moeten kunnen terugvinden - eventueel met een kleine aanpassing van het bestand /etc/pve/storage.cfg. Daarom: wat is de output van cat /etc/pve/storage.cfg?
Voor wie geen zin heeft in allerlei commando's en een TUI wil apt install ncdu en na installatie ncdu / vervolgens weet je welke directories onevenredig veel ruimte gebruiken.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


Acties:
  • +1 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 11:29
Jerie schreef op vrijdag 14 maart 2025 @ 19:09:
[...]

Voor wie geen zin heeft in allerlei commando's en een TUI wil apt install ncdu en na installatie ncdu / vervolgens weet je welke directories onevenredig veel ruimte gebruiken.
Mooie tip - bedankt!

makes it run like clockwork


Acties:
  • +2 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 13:32
Overigens is 16GB voor het rootfs tegenwoordig niet heel veel. Waarschijnlijk is die NVME disk later toegevoegd. Kan je de output van vgdisplay en lvdisplay geven? Mogelijk kan je pve-root gewoon extenden.

Acties:
  • 0 Henk 'm!

  • mfkne
  • Registratie: November 2011
  • Laatst online: 03:12
Hoi allemaal,

ik heb een probleem met de firewall op Proxmox, en ik ben zo'n beetje einde raad.

Het gaat om een Proxmox VE 8.3.5 met maar een node, dus geen cluster. Daarop heb ik twee VMs momenteel, "mail" en "dns".

Ik heb diverse security groups aangemaakt voor de verschillende diensten, die van buitenaf bereikbaar moeten zijn, waaronder ook een "dnsfromanywhere", met macro "DNS" (verder zijn de opties in die security group leeg, dus geen source of destination). Bovendien heb ik nog twee security groups aangemaakt, "anythingfromhome" (om al het verkeer van mijn thuis-ip toe te staan) met alleen een source IP, en "proxmoxfromanywhere" (om het Proxmox UI van buitenaf bereikbaar te houden) met alleen destination port 8006.

Op het VM niveau heb ik de verschillende security groups toegepast en aangezet. Dus voor "mail" heb ik de security groups die de mail diensten betreffen toegpast een aangezet en op "dns" alleen "dnsfromanywhere". "anythingfromhome" en "proxmoxfromanywhere" heb ik op Data Center en Host niveau toegepast en aangezet.

De firewall staat op alle drie niveaus ingeschakeld. De input policy is niet veranderd en staat bij alle drie op "DROP".

En nu wordt het interessant: Voor "mail" werkt alles perfect. Alleen de diensten die ik via security groups heb vrijgegeven zijn van buitenaf bereikbaar. Voor "dns" lukt het echter niet, port 53 is van buitenaf niet bereikbaar, zowel op tcp en udp.

Alleen als ik de firewall op Datacenter niveau uitzet is port 53 bereikbaar (en andere poorten natuurlijk ook).


Zoals gezegd ben ik einde raad en hoop dat ik gewoon iets over mijn hoofd zie. Bij voorbaat dank!

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 11:29
@mfkne - wat bedoel je met "buitenaf"?

Wat werkt er nog wel binnen de console van je pve en binnen je lan?

Mij lijkt een allways-on vpn veel handiger en veiliger.
Al was het maar omdat een tikfout snel gemaakt is... :+

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • mfkne
  • Registratie: November 2011
  • Laatst online: 03:12
Ah sorry, dat had ik duidelijker kunnen maken: Dit is een server die rechtstreeks aan het Internet hangt. “Buitenaf” is dus “vanaf een willekeurige publieke IP”.

Acties:
  • +2 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 13:23
mfkne schreef op zaterdag 15 maart 2025 @ 09:40:
[...]


Ah sorry, dat had ik duidelijker kunnen maken: Dit is een server die rechtstreeks aan het Internet hangt. “Buitenaf” is dus “vanaf een willekeurige publieke IP”.
Dat cliënt vm's direct aan internet komen is al wat van te zeggen maar je vm host... hoop dat je disaster recovery op orde hebt. Zonder vpn, geo block, application firewall er tussen is het vragen om een hack. Elk dns record welke publiek geresolved kan worden wordt gespamd door bots die allerlei exploits uitproberen. Heel veel WordPress maar ook genoeg andere.
En zelfs genoeg ip's met origin Nederland

Edit:
Ter info: ik heb 1 dns record welke van mijn domein publiek bekend is. Op basis van geo block, krijg ik per 24 uur ongeveer 2500 hits, NL staat niet op de blocklist omdat ik er zelf gebruik van wil maken ;) daarvoor heb ik nog een behoorlijk aantal /24 en /25: subnetten in de ip blocklist staan en dan nog komen er een aantal door die vervolgens op mijn mtls geblokkeerd worden. En dat alles is dus voordat je bij een login pagina komt van de vm die ik van buitenaf bereikbaar hebt. ( Btw allemaal gratis via Cloudflare)

[ Voor 27% gewijzigd door The-Source op 15-03-2025 13:52 ]

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • mfkne
  • Registratie: November 2011
  • Laatst online: 03:12
The-Source schreef op zaterdag 15 maart 2025 @ 12:29:
[...]

Dat cliënt vm's direct aan internet komen is al wat van te zeggen maar je vm host... hoop dat je disaster recovery op orde hebt. Zonder vpn, geo block, application firewall er tussen is het vragen om een hack.
Juist daarom mijn pogingen om de firewall werkend te krijgen.

Acties:
  • 0 Henk 'm!

  • eheijnen
  • Registratie: Juli 2008
  • Niet online
mfkne schreef op zaterdag 15 maart 2025 @ 14:12:
[...]


Juist daarom mijn pogingen om de firewall werkend te krijgen.
Heeft het eerder gewerkt?
Werkt de dns intern wel?
Blokkeert de ISP poort 53?

Wie du mir, so ich dir.


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 11:29
mfkne schreef op zaterdag 15 maart 2025 @ 14:12:
[...]


Juist daarom mijn pogingen om de firewall werkend te krijgen.
Een firewall blokkeert "iets" op het nivo van UDP en/of TCP poorten.

Van die poorten die open staan is er het risico van een kwetsbaarheid in de software achter die poorten. Bij misbruik heb je alsnog een probleem.

Een VPN beperkt dat risico/probleem tot die ene poort op de VPN-server/router.

Maar goed - je risk-apetite lijkt zo hoog te zijn dat een VPN blijkbaar geen optie is... :+

[ Voor 3% gewijzigd door Airw0lf op 15-03-2025 15:01 ]

makes it run like clockwork


Acties:
  • +1 Henk 'm!

  • mfkne
  • Registratie: November 2011
  • Laatst online: 03:12
Airw0lf schreef op zaterdag 15 maart 2025 @ 14:56:
[...]

Maar goed - je risk-apetite lijkt zo hoog te zijn dat een VPN blijkbaar geen optie is... :+
Als je een self gehost mailserver wil, heb je aan VPN niet zo heel veel, en als je eigen DNS server (voor je eigen domains) wil ook niet, vandaar deze opzet. Ik doe dit niet pas sinds kort en ben wel op de hoogte van risico's en mogelijkheden om deze te minimaliseren.

Intussen heb ik het probleem zelf kunnen oplossen, blijkbaar is het zo dat als je een regel a la "sta al het verkeer afkomstig van een bepaald IP adres toe" als eerste in de lijst staat, dit blijkbaar wordt gezien als "en blokkeer al het andere verkeer". Oplossing was dus de "DNS from anywhere" als eerste in de lijst te hebben en daarna "anything from home". Weer wat geleerd.

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 11:29
mfkne schreef op zaterdag 15 maart 2025 @ 15:35:
[...]

Als je een self gehost mailserver wil, heb je aan VPN niet zo heel veel, en als je eigen DNS server (voor je eigen domains) wil ook niet, vandaar deze opzet. Ik doe dit niet pas sinds kort en ben wel op de hoogte van risico's en mogelijkheden om deze te minimaliseren.
Ok - bedankt voor de toelichting
Intussen heb ik het probleem zelf kunnen oplossen, blijkbaar is het zo dat als je een regel a la "sta al het verkeer afkomstig van een bepaald IP adres toe" als eerste in de lijst staat, dit blijkbaar wordt gezien als "en blokkeer al het andere verkeer". Oplossing was dus de "DNS from anywhere" als eerste in de lijst te hebben en daarna "anything from home". Weer wat geleerd.
Klopt - dit is de standaard werkwijze van veel firewalls.
Als er een rule match is wordt die aktie uitgevoerd - de rest doet er niet meer toe.
Ook geldt vaak dat als er geen rule match is, dan wordt het geblokkeerd doordat de laatste rule altijd een deny is - vaak aangeduid met implicite-deny.

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 13:01
Die ‘dnsfromanywhere’ regel, dat is gewoon op poort 53 toch?

Ben jij op de hoogte van het bestaan van shodan.io? Zomaar een vraagje :+

offtopic:
ik vind het onverstandig

Acties:
  • +1 Henk 'm!

  • mfkne
  • Registratie: November 2011
  • Laatst online: 03:12
lolgast schreef op zaterdag 15 maart 2025 @ 16:19:
Die ‘dnsfromanywhere’ regel, dat is gewoon op poort 53 toch?

Ben jij op de hoogte van het bestaan van shodan.io? Zomaar een vraagje :+

offtopic:
ik vind het onverstandig
Ja, maar dit is geen recursive DNS server maar eentje voor de zones die daarop zijn gehost.

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 11:29
mfkne schreef op zaterdag 15 maart 2025 @ 17:11:
[...]

Ja, maar dit is geen recursive DNS server maar eentje voor de zones die daarop zijn gehost.
Volgens mij is hier de scanner bedoeld.
Even simpel gesteld: Shodan scanned wereldwijd alle IPv4 adressen af op toegangsmogelijkheden. En shodan.io is het platform waar je die info kunt opvragen - al dan niet tegen betaling.

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 11:42
mfkne schreef op zaterdag 15 maart 2025 @ 09:40:
[...]


Ah sorry, dat had ik duidelijker kunnen maken: Dit is een server die rechtstreeks aan het Internet hangt. “Buitenaf” is dus “vanaf een willekeurige publieke IP”.
Waarom zou je dat willen doen ? 8)7 je kan beter die beter via een vpn bereikbaar maken. Door een virtuele firewall/router te installeren en je proxmox erachter.

Van daaruit portforwarding toepassen.

Dit is een in mijn optiek een no-go.
Pagina: 1 ... 54 ... 59 Laatste