Acties:
  • +1 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 22:11

Cyphax

Moderator LNX
WheeleE schreef op maandag 12 augustus 2024 @ 22:14:
Oh...er begint een kwartje te vallen! Ik probeerde direct vanuit de container te mounten.
Maar dat zou dan alleen kunnen door de container privileged te maken, en dat is minder veilig.

Dus beter eerst de share mounten op de proxmox-host (in de gui? of via de shell?) en dan die share toekennen aan de container. Leuk uitzoekklusje voor de komende dagen
Precies dat: op de host mounten en dan doorgeven via bind mount aan de container. Het is niet alleen cifs, ook nfs en zelfs sshfs mounten lukt niet in een unpriviliged container. Het is soms wel even klooien met de userid-mapping alleen.

Saved by the buoyancy of citrus


Acties:
  • +1 Henk 'm!

  • _Eend_
  • Registratie: Juni 2006
  • Laatst online: 07:11

_Eend_

πŸŒ»πŸ‡ΊπŸ‡¦

Cyphax schreef op maandag 12 augustus 2024 @ 22:51:
[...]

Precies dat: op de host mounten en dan doorgeven via bind mount aan de container. Het is niet alleen cifs, ook nfs en zelfs sshfs mounten lukt niet in een unpriviliged container. Het is soms wel even klooien met de userid-mapping alleen.
Daar is een tooltje voor: https://github.com/ddimick/proxmox-lxc-idmapper

Acties:
  • +1 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 22:43
WheeleE schreef op maandag 12 augustus 2024 @ 22:14:
Dus beter eerst de share mounten op de proxmox-host (in de gui? of via de shell?) en dan die share toekennen aan de container. Leuk uitzoekklusje voor de komende dagen
Si! ;)

Acties:
  • +3 Henk 'm!

  • Dannisi
  • Registratie: Februari 2005
  • Laatst online: 03:09
WheeleE schreef op maandag 12 augustus 2024 @ 22:14:
Oh...er begint een kwartje te vallen! Ik probeerde direct vanuit de container te mounten.
Maar dat zou dan alleen kunnen door de container privileged te maken, en dat is minder veilig.

Dus beter eerst de share mounten op de proxmox-host (in de gui? of via de shell?) en dan die share toekennen aan de container. Leuk uitzoekklusje voor de komende dagen
Toevallig van het weekend ook mee bezig geweest. https://forum.proxmox.com...mount-cifs-shares.101795/ werkte voor mij

There is no place like 127.0.0.1


Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

WheeleE schreef op maandag 12 augustus 2024 @ 22:14:
Oh...er begint een kwartje te vallen! Ik probeerde direct vanuit de container te mounten.
Maar dat zou dan alleen kunnen door de container privileged te maken, en dat is minder veilig.

Dus beter eerst de share mounten op de proxmox-host (in de gui? of via de shell?) en dan die share toekennen aan de container. Leuk uitzoekklusje voor de komende dagen
Zover ik weet kun je dit niet via de GUI doen, dat is alleen voor het toevoegen van "storage". Dus voor backups of VM/LXC disks etc.

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 23:57
Kan allemaal via de GUI via datacenter => storage => add

Als je die route gebruikt vindt je ze daarna ook terug in /etc/pve/storage.cfg.

Daarna zou je die bij een LXC container als mountpoint op moeten kunnen pakken.

[ Voor 22% gewijzigd door Airw0lf op 13-08-2024 14:44 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

Airw0lf schreef op dinsdag 13 augustus 2024 @ 14:42:
Kan allemaal via de GUI via datacenter => storage => add

Als je die route gebruikt vindt je ze daarna ook terug in /etc/pve/storage.cfg.

Daarna zou je die bij een LXC container als mountpoint op moeten kunnen pakken.
Dat kan natuurlijk ook, alhoewel een beetje onorthodox want daar is dat officieel niet voor bedoeld :P

Edit: Ik zie nu je edit, kan je die NFS share dan via de Proxmox GUI toevoegen als mountpoint op de LXC container?

[ Voor 12% gewijzigd door orvintax op 13-08-2024 15:02 ]

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 21:44
Ik zou dat persoonlijk ook niet op die manier doen. Uit mijn hoofd, maar dat zou je even moeten testen, zijn dat 'conditional' storage locaties. Mocht je CIFS ooit niet bereikbaar zijn en je herstart Proxmox om wat voor reden dan ook, start je Proxmox niet op.

Tenminste, dat staat me bij van het configureren op die manier

@hieronder: I stand corrected dan :) Dan zie ik geen reden om het niet via de GUI te doen

[ Voor 12% gewijzigd door lolgast op 13-08-2024 15:07 ]


Acties:
  • +1 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 23:57
@orvintax : Waar is het dan wel voor bedoeld?

@lolgast : Heb hier nooit opstartproblemen mee gehad.
Die zijn er wel als je een SMB- of NFS-share op OS-niveau mount via /etc/fstab.
Maar dit heeft niks met Proxmox te maken.

[ Voor 35% gewijzigd door Airw0lf op 13-08-2024 16:10 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 23:57
orvintax schreef op dinsdag 13 augustus 2024 @ 14:58:
[...]
Edit: Ik zie nu je edit, kan je die NFS share dan via de Proxmox GUI toevoegen als mountpoint op de LXC container?
Met SMB in ieder geval wel - grote kans dat het met NFS dan ook kan.

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • ronjon
  • Registratie: Oktober 2001
  • Laatst online: 25-06 08:55
Waarom niet direct in de privileged container je mounts aanmaken ?
Hangt je proxmox server direct aan het internet ?

Acties:
  • +2 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 21:44
Omdat privileged LXC’s een heel stuk minder veilig zijn dan unprivileged. Je Proxmox hoeft niet aan het internet te hangen om dat een groot risico te maken

Als ze je wasmachine/tv/sonos/airco remote kunnen overnemen vanwege een lek en die zit in hetzelfde LAN als je privileged LXC is het vrij eenvoudig om vanuit daar je hele Proxmox host te benaderen omdat een privileged LXC root access naar je Proxmox host heeft. Ik zou privileged containers echt niet gebruiken tenzij je Γ©cht niet anders kan. En zelfs dan zou je je bedenkingen moeten hebben

Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

Airw0lf schreef op dinsdag 13 augustus 2024 @ 15:08:
[...]


Met SMB in ieder geval wel - grote kans dat het met NFS dan ook kan.
Aaah, dat is anders sinds ik het voor het laatst geprobeerd hebt. Ik dacht dat het niet de bedoeling was, omdat je altijd moet aangeven waar de "storage" voor bedoeld is. Bijvoorbeeld voor ISO's of disk images.

Ik dacht dat je bedoelde om dan maar iets aan te klikken om dan een bind mount aan te maken direct naar de NFS directory op je Proxmox host.

https://dontasktoask.com/


Acties:
  • +2 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

lolgast schreef op dinsdag 13 augustus 2024 @ 22:45:
Omdat privileged LXC’s een heel stuk minder veilig zijn dan unprivileged. Je Proxmox hoeft niet aan het internet te hangen om dat een groot risico te maken

Als ze je wasmachine/tv/sonos/airco remote kunnen overnemen vanwege een lek en die zit in hetzelfde LAN als je privileged LXC is het vrij eenvoudig om vanuit daar je hele Proxmox host te benaderen omdat een privileged LXC root access naar je Proxmox host heeft. Ik zou privileged containers echt niet gebruiken tenzij je Γ©cht niet anders kan. En zelfs dan zou je je bedenken moeten hebben
Ik sluit me hier bij aan, maar ik wil wel een kleine verduidelijking geven.

Die "root access naar je Proxmox host" gebeurt dus alleen in het geval van "container escaping". Het is dus niet zo dat dit standaard het geval is. De reden hiervoor is dat unprivileged containers via een normale gebruiker draaien en privileged containers als root.

Als ze dus via een kwetsbaarheid uit een container kunnen breken dan is er in het geval van een unprivileged container veel minder aan de hand. Zeker op een hypervisor als Proxmox, want als ze daar root zijn dan hebben ze toegang tot alles. :)

https://dontasktoask.com/


  • WheeleE
  • Registratie: Juni 2001
  • Laatst online: 06:26

WheeleE

Dinges

Dannisi schreef op dinsdag 13 augustus 2024 @ 04:14:
[...]

Toevallig van het weekend ook mee bezig geweest. https://forum.proxmox.com...mount-cifs-shares.101795/ werkte voor mij
Zo'n simpele, overzichtelijk tutorial moet te doen zijn. Dacht ik. Waarschijnlijk zie ik iets heel voor de hand liggends over het hoofd.

Het mounten van de NAS-share op de PVE-host lukt. Ik kan er in lezen en schrijven vanuit een ssh prompt onder root.
Het aanmaken van de groep in de lxc-container lukt ook. Omdat er geen aparte app-user in de container is heb ik root toegevoegd aan de lxc_shares-groep.
Dan een container shutdown en de config-files op de pve-host aanpassen, no problem.

Container weer opstarten en de mountpoint checken: zowaar, in /mnt is de share te zien!
Maar helaas, een permission denied als ik in de directory wil kijken:
code:
1
2
3
4
5
6
root@test:/# cd /mnt
root@test:/mnt# ls -l
total 0
drwxrwx--- 2 nobody nogroup 0 Aug 15 08:14 syno2download
root@test:/mnt# cd syno2download/
-bash: cd: syno2download/: Permission denied


Mijn gevoel zegt dat de nogroup:nogroup er iets mee te maken heeft. Chown geeft alleen ook een permission denied.
Zit er een kink in mijn gedachtenkronkels?

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 23:57
@WheeleE - je vraag kan ik niet direct beantwoorden.

Maar ik heb maar twee handelingen gedan - beiden vanuit de pve-webui.
De eerste is via Datacenter => Storage => Add de gewenste SMB/CIFS share toegevoegd.
En vervolgens een deel van de beschikbare capaciteit via de LXC => Resources => Add toegevoegd als mountpoint.

Volgens mij speelt het contenttype bij de eerste nog een rol. Afhankelijk van het contenttype krijg je de share wel/niet te zien als mogelijkheid bij het aanmaken van een mountpoint. Maar het fijne weet ik er niet van - nooit verder naar gekeken en altijd alle types opgenomen.

makes it run like clockwork


  • lolgast
  • Registratie: November 2006
  • Laatst online: 21:44
@WheeleE de 'nobody nogroup' wijst op een fout met je usermappings. "Root" kun je volgens mij niet mappen met usermappings (die gaat van 1-65535 en root is 0)

Acties:
  • +4 Henk 'm!

  • WheeleE
  • Registratie: Juni 2001
  • Laatst online: 06:26

WheeleE

Dinges

Ik ga een nieuwe troubleshootpoging doen. Nogmaals met de proxmoxforum-link uit de post van Dannisi.
Dat topic bevat veel 'it works!' posts dus het zal een werkende oplossing zijn.

/edit
:F
Het probleem bleek in de mounted share op de pve-host te zitten. Blijkbaar is daar met het originele mountcommando iets niet goed gegaan waardoor ik wel via de host alles kon, maar niet via de lxc-containers.
Na een umount en weer een mount draait alles gewoon zoals het hoort.

Dank allen voor de support en het geduld! :D

[ Voor 48% gewijzigd door WheeleE op 15-08-2024 17:00 ]


Acties:
  • 0 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 23:09
Ik wil graag de 256GB nvme in m'n proxmox NUC vervangen door een 1TB model.

Ik dacht handig te zijn en de disk met clonezilla (usb) te backuppen naar de ZFS pool van de 2TB HDD in de NUC.
En na het vervangen van de NVME weer een backup terug te zetten.

Ik heb alleen het idee dat clonezilla de disks van de VMs afzonderlijk backupt; ik zie alle snapshots voorbij komen... /dev/pve/snap_vm-102-disk-1-....

Lijkt allemaal wel aardig te comprimeren, maar gaat toch niet zoals ik had gedacht...
Wat mis ik?

Edit: Dit is het gedrag als ik kies om niet de hele disk, maar partities te backupen.
Kies ik voor de hele disk, dan stopt die de lv-manager, maar dan vind-ie ook een vm-disk: 'mapper/pve-vm-104--disk--0p3' waarop de boel klapt.

[ Voor 18% gewijzigd door RudolfR op 24-08-2024 17:42 ]


Acties:
  • +1 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 28-06 16:39
RudolfR schreef op zaterdag 24 augustus 2024 @ 17:34:
Ik wil graag de 256GB nvme in m'n proxmox NUC vervangen door een 1TB model.

Ik dacht handig te zijn en de disk met clonezilla (usb) te backuppen naar de ZFS pool van de 2TB HDD in de NUC.
En na het vervangen van de NVME weer een backup terug te zetten.

Ik heb alleen het idee dat clonezilla de disks van de VMs afzonderlijk backupt; ik zie alle snapshots voorbij komen... /dev/pve/snap_vm-102-disk-1-....

Lijkt allemaal wel aardig te comprimeren, maar gaat toch niet zoals ik had gedacht...
Wat mis ik?

Edit: Dit is het gedrag als ik kies om niet de hele disk, maar partities te backupen.
Kies ik voor de hele disk, dan stopt die de lv-manager, maar dan vind-ie ook een vm-disk: 'mapper/pve-vm-104--disk--0p3' waarop de boel klapt.
Waarom backup je niet gewoon alle vm en lxc, doe een clean install en restore de losse backups?

Acties:
  • 0 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 23:09
Ivm configuratie op de host mbt uid/gid mapping en wat andere settings tbv usbip voor het koppelen met een printer.
Zou moeten uitzoeken hoe dat ook alweer zat en dit leek de kortste klap, en ook fijn om een backup te hebben.
Maak vaker gebruik van clonezilla, en met tevredenheid, maar iets aan proxmox, snapshots of logical volumes maakt dat ik het niet meer snap.

Acties:
  • 0 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 28-06 16:39
RudolfR schreef op zaterdag 24 augustus 2024 @ 17:59:
Ivm configuratie op de host mbt uid/gid mapping en wat andere settings tbv usbip voor het koppelen met een printer.
Zou moeten uitzoeken hoe dat ook alweer zat en dit leek de kortste klap, en ook fijn om een backup te hebben.
Maak vaker gebruik van clonezilla, en met tevredenheid, maar iets aan proxmox, snapshots of logical volumes maakt dat ik het niet meer snap.
Ik heb recent hetzelfde gedaan, maar alle config kreeg ik per vm en lxc gewoon met de backup terug.

Acties:
  • 0 Henk 'm!

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 28-06 04:47
Waarom neem je niet gewoon een directe disk to disk kloon?
Dat is m i het simpelste.
Als je geen 2 nvme slots hebt, dan koop je een USB nvme behuizinng, komt altijd wel eens van pas voor zo'n werken.

Acties:
  • +2 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 26-06 09:43

zeroday

There is no alternative!

Ter leering ende vermaeck, historische doeleinden

NUC8I7BEH met proxmox.
Heeft wat nukken met het netwerk binnen je cluster zie je de node af en toe rood worden en dan weer groen.

Tip:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
uto lo
iface lo inet loopback

iface eno1 inet manual
post-up /usr/bin/logger -p debug -t ifup "Disabling segmentation offload for eno1" && /sbin/ethtool -K $IFACE gso off gro off tso off tx off rx off rxvlan off txvlan off sg off && /usr/bin/logger -p debug -t ifup "Disabled offload for eno1"


auto vmbr0
iface vmbr0 inet static
        address 10.0.0.23/24
        gateway 10.0.0.1
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2-4094
        post-up /sbin/ethtool -K eno1 tso off gso off


bovenstaande post-up toevoegingen als regel bij het netwerk (controleer of je netwerk en01 is)
en de 'stabiliteits' problemen zijn opgelost. Heb nog geen andere dingen kunnen vinden.


Mocht het zo zijn dat een CMOS batterij leeg is, ga dan geen proxmox installeren, en dan pas de batterij vervangen, want ookal werkt het.. ik kwam later never nooit niet meer in de GUI .. wel gewoon in de shell, maar inloggen nope ..

En het resetten van het wachtwoord hielp niet.. Dus bezint eer ge begint ..

;)

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • _Eend_
  • Registratie: Juni 2006
  • Laatst online: 07:11

_Eend_

πŸŒ»πŸ‡ΊπŸ‡¦

Nu we toch met "Lessons Learned" bezig zijn:

Ik heb een clustertje van 2 PVE hosts (niet handig, i know) waarvan 1 geen netwerk meer had. De UTP kabel was er "vanzelf" uit gevallen O-).

En ik kon daarna geen console meer openen. Even op de andere host zitten kijken, maar dat lukte niet. Toen zag ik pas dat de andere host niet bereikbaar was. Kabeltje ingeplugd en alles werkte weer.

Ik moet toch maar snel een 3e host bij plaatsen :P

[ Voor 12% gewijzigd door _Eend_ op 26-08-2024 17:51 ]


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 04:42
_Eend_ schreef op maandag 26 augustus 2024 @ 17:50:
Nu we toch met "Lessons Learned" bezig zijn:

Ik heb een clustertje van 2 PVE hosts (niet handig, i know) waarvan 1 geen netwerk meer had. De UTP kabel was er "vanzelf" uit gevallen O-).

En ik kon daarna geen console meer openen. Even op de andere host zitten kijken, maar dat lukte niet. Toen zag ik pas dat de andere host niet bereikbaar was. Kabeltje ingeplugd en alles werkte weer.

Ik moet toch maar snel een 3e host bij plaatsen :P
Of de stekkertjes vast plakken :+

Maar had deze split brain ook nog problemen opgeleverd? / wat waren de gevolgen er van?

Acties:
  • 0 Henk 'm!

  • _Eend_
  • Registratie: Juni 2006
  • Laatst online: 07:11

_Eend_

πŸŒ»πŸ‡ΊπŸ‡¦

RobertMe schreef op maandag 26 augustus 2024 @ 17:56:
[...]

Of de stekkertjes vast plakken :+

Maar had deze split brain ook nog problemen opgeleverd? / wat waren de gevolgen er van?
Geen, voorzover ik kon zien. Nadat ik de kabel er in had gedaan werkte het al voordat ik weer achter mijn pc kroop. Hooguit 5-10 seconden nadat ik de kabel er in deed. Maar ik heb ook geen hele fancy setup.

Ik had wel wat problemen verwacht eerlijk gezegd, maar dat viel dus reuze mee :)

Acties:
  • 0 Henk 'm!

  • ninjazx9r98
  • Registratie: Juli 2002
  • Laatst online: 20:33
zeroday schreef op maandag 26 augustus 2024 @ 10:43:

Mocht het zo zijn dat een CMOS batterij leeg is, ga dan geen proxmox installeren, en dan pas de batterij vervangen, want ookal werkt het.. ik kwam later never nooit niet meer in de GUI .. wel gewoon in de shell, maar inloggen nope ..

En het resetten van het wachtwoord hielp niet.. Dus bezint eer ge begint ..

;)
Https en certificaat verlopen? Kan zomaar als je een certificaat in een ver verleden maakt ivm de lege batterij en de boel ineens weer op de juiste datum hebt met de nieuwe batterij....

Acties:
  • 0 Henk 'm!

  • Rolfie
  • Registratie: Oktober 2003
  • Laatst online: 29-06 18:58
zeroday schreef op maandag 26 augustus 2024 @ 10:43:
Mocht het zo zijn dat een CMOS batterij leeg is, ga dan geen proxmox installeren, en dan pas de batterij vervangen, want ookal werkt het.. ik kwam later never nooit niet meer in de GUI .. wel gewoon in de shell, maar inloggen nope ..

En het resetten van het wachtwoord hielp niet.. Dus bezint eer ge begint ..

;)
Geen last van. Mijn CMOS batterij ontbreekt compleet.

Ik heb wel de chronos ntp aangepast, dat deze altijd een sync uitvoert. Ook als het tijdverschil groot is, hierdoor is de server dus altijd in sync met tijd.

Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 21:04
Ik wil een nieuwe Proxmox server bouwen en wil dit keer wrsch ZFS gebruiken. Dat wil ik doen met 2 SSD en dan moet ik dus enterprise SSD gebruiken. Ik heb op wenslijst uitvoering: Micron 7450 PRO M.2 (80mm, Non-SED) 960GB

maar die vind ik vrij prijzig (vooral laatste maanden).

Ik dacht als andere optie

uitvoering: WD Red SA500 M.2 2TB

Stuk goedkoper, lijkt ook veel te kunnen schrijven voordat hij de geest geeft. Snelheid wel minder maar zou dat zo relevant zijn ? (ik gebruik windows vm, home assistant en wat dockers)

Iemand adviezen wat te doen?

Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 29-06 18:30
tomdh76 schreef op dinsdag 27 augustus 2024 @ 20:22:
Ik wil een nieuwe Proxmox server bouwen en wil dit keer wrsch ZFS gebruiken. Dat wil ik doen met 2 SSD en dan moet ik dus enterprise SSD gebruiken. Ik heb op wenslijst uitvoering: Micron 7450 PRO M.2 (80mm, Non-SED) 960GB

maar die vind ik vrij prijzig (vooral laatste maanden).

Ik dacht als andere optie

uitvoering: WD Red SA500 M.2 2TB

Stuk goedkoper, lijkt ook veel te kunnen schrijven voordat hij de geest geeft. Snelheid wel minder maar zou dat zo relevant zijn ? (ik gebruik windows vm, home assistant en wat dockers)

Iemand adviezen wat te doen?
Waarom moet je enterprise SSD's gebruiken bij ZFS dan?
Ik heb al ruim 2 jaar 2x Samsung 980 M.2 in mijn proxmox server (als mirror) en dat gaat prima.
De write zitten ondertussen op zo'n 80TB
Ze kunnen volgens de specs 600TB hebben dus die gaan nog wel even mee. (de 1 TB versie).

Ik heb ondertussen wel de boot drive vervangen voor een intel enterprise Sata SSD (goedkoop 2e hands) en de 2 Samsungs staan alle VM's nog op.
Dit zorgt wel voor een stuk minder writes op de Samsungs.

[ Voor 0% gewijzigd door ComTech op 27-08-2024 20:57 . Reden: 2e hands toegevoegd aan de Sata SSD ]


Acties:
  • 0 Henk 'm!

  • John245
  • Registratie: Januari 2020
  • Laatst online: 05:31
ComTech schreef op dinsdag 27 augustus 2024 @ 20:36:
[...]


Waarom moet je enterprise SSD's gebruiken bij ZFS dan?
Ik heb al ruim 2 jaar 2x Samsung 980 M.2 in mijn proxmox server (als mirror) en dat gaat prima.
De write zitten ondertussen op zo'n 80TB
Ze kunnen volgens de specs 600TB hebben dus die gaan nog wel even mee. (de 1 TB versie).

Ik heb ondertussen wel de boot drive vervangen voor een intel enterprise Sata SSD (goedkoop 2e hands) en de 2 Samsungs staan alle VM's nog op.
Dit zorgt wel voor een stuk minder writes op de Samsungs.
Er is niks dat moet. Hangt ook van je situatie ag. Maar bij mij ging de Samsung snel defect.

Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 04:42
PVE nu 4 jaar (waarvan 3 jaar 24/7) draaien op een Samsung 970 Evo Plus? van 500GB, en deze heeft 150TB geschreven (en 45TB gelezen :/). Iets later een Samsung 980 toegevoegd in een mirror, en deze heeft 50TB geschreven (6TB gelezen :/).

[ Voor 3% gewijzigd door RobertMe op 27-08-2024 21:32 ]


Acties:
  • 0 Henk 'm!

  • John245
  • Registratie: Januari 2020
  • Laatst online: 05:31
RobertMe schreef op dinsdag 27 augustus 2024 @ 21:31:
PVE nu 4 jaar (waarvan 3 jaar 24/7) draaien op een Samsung 970 Evo Plus? van 500GB, en deze heeft 150TB geschreven (en 45TB gelezen :/). Iets later een Samsung 980 toegevoegd in een mirror, en deze heeft 50TB geschreven (6TB gelezen :/).
Bij mij haalde die 180.

Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 26-06 09:43

zeroday

There is no alternative!

ninjazx9r98 schreef op maandag 26 augustus 2024 @ 18:14:
[...]

Https en certificaat verlopen? Kan zomaar als je een certificaat in een ver verleden maakt ivm de lege batterij en de boel ineens weer op de juiste datum hebt met de nieuwe batterij....
ja dat zou zo maar eens kunnen. Maar opnieuw installeren is zo gebeurd. Vandaag een test node in het cluster een 250GB SSD gegeven ipv de 120GB die erin zat ..
was ook zo gebeurd.

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 26-06 09:43

zeroday

There is no alternative!

ComTech schreef op dinsdag 27 augustus 2024 @ 20:36:
[...]


Waarom moet je enterprise SSD's gebruiken bij ZFS dan?
Ik heb al ruim 2 jaar 2x Samsung 980 M.2 in mijn proxmox server (als mirror) en dat gaat prima.
De write zitten ondertussen op zo'n 80TB
Ze kunnen volgens de specs 600TB hebben dus die gaan nog wel even mee. (de 1 TB versie).
Op hoeveel zit je wearout? Zie je bij de Disks

ik gebruik ook gewoon 'normale' meuk en heb er ook soms SSD's van 2017 of 2018 in zitten.
Oudheid zegt niet zoveel .

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 23:09
GoBieN-Be schreef op zondag 25 augustus 2024 @ 19:06:
Waarom neem je niet gewoon een directe disk to disk kloon?
Dat is m i het simpelste.
Als je geen 2 nvme slots hebt, dan koop je een USB nvme behuizinng, komt altijd wel eens van pas voor zo'n werken.
Goeie tip. Geen sloten over, en niet aan een USB variant gedacht. Ga nog wel een poging met dd doen; een backup op de zfs Pool is ook wel handig. En een disk-to-disk met de nieuwe enclosure.

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 04:42
Tegen de tijd dat ik zo ver ben...

Intussen is het een veredelde NAS die ik on demand aan zet. Eigenlijk moet ik eens opnieuw installeren, zonder PVE. En met wat die nu doet is wear dus ook heel laag. Cause yeah, meer dan een Samba share, SyncThing, en wat ZFS snapshots maken is het niet meer.

Voorheen draaide bv ook nog Home Assistant er op net alke toeters en bellen, en nog wat LXCs. Dat is er nu allemaal vanaf, en draait op een ander systeem (plain Debian, met Docker). Die draait nu 1, 1,5 jaar op een Samsung 980 1TB. Zo te zien 55TB geschreven (en 42TB gelezen). Maar als ik daar de ongebruikte InfluxDB v.w.b. Home Assistant & "monitoring" (telegraf input) af haal (ongebruikt als in: wordt geschreven, maar kijk er nooit naar) zal dat ook een stuk minder "zijn" (/niet zo hard op lopen).,

Acties:
  • +1 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 29-06 18:30
zeroday schreef op dinsdag 27 augustus 2024 @ 21:46:
[...]


Op hoeveel zit je wearout? Zie je bij de Disks

ik gebruik ook gewoon 'normale' meuk en heb er ook soms SSD's van 2017 of 2018 in zitten.
Oudheid zegt niet zoveel .
9% bij de Samsung nvme's.
De Sata Intel enterprise SSD nog 0% en die zit ook al ruim over de 80 TB (als ik de smart waardes goed heb gelezen want die zijn nogal vaag).

@tomdh76 2 stuks van deze samsung evo 990 2TB
TBW van 1,2 PB .
Die kunnen wel een paar jaar mee ;)

Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 21:04
Dank voor alle reacties. Dan misschien toch maar die evo 990 2 TB; is toch wel een stuk voordeliger. Voor mijn boot gebruik ik dan een losse kleine ssd van 32 gb.

Acties:
  • 0 Henk 'm!

  • WheeleE
  • Registratie: Juni 2001
  • Laatst online: 06:26

WheeleE

Dinges

Na een tijdje succesvol te hebben geknutseld met lxc's en shares ben ik weer terug met een puzzel.

De casus: een proxmoxhelper-docker lxc met een mount naar een synology-share. Ik kan lezen, schrijven, alles vanaf de commandline in de lxc. So far so good!
De mounted share koppelen aan een docker container lukt ook, en ik kan vanuit de container wederom lezen, schrijven, alles.

Maar...het qbittorrent docker proces geeft een permission denied bij het pogen te schrijven naar de mounted share.
Ik zie door de bomen het bos niet meer echt. Of het nou een lxc-configissue is, iets met Docker, of qBittorrent specifiek.

Helemaal omdat de proxmox vm met daarin een docker-qbittorrent met share wΓ©l gewoon prima werkt.

Acties:
  • +3 Henk 'm!

  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 22:32
WheeleE schreef op vrijdag 30 augustus 2024 @ 14:06:
Na een tijdje succesvol te hebben geknutseld met lxc's en shares ben ik weer terug met een puzzel.

De casus: een proxmoxhelper-docker lxc met een mount naar een synology-share. Ik kan lezen, schrijven, alles vanaf de commandline in de lxc. So far so good!
De mounted share koppelen aan een docker container lukt ook, en ik kan vanuit de container wederom lezen, schrijven, alles.

Maar...het qbittorrent docker proces geeft een permission denied bij het pogen te schrijven naar de mounted share.
Ik zie door de bomen het bos niet meer echt. Of het nou een lxc-configissue is, iets met Docker, of qBittorrent specifiek.

Helemaal omdat de proxmox vm met daarin een docker-qbittorrent met share wΓ©l gewoon prima werkt.
kijk is onder welke uid/gid je de test hebt gedaan en waarmee je qbittorent container draait. Sommige containers maken gebruik van andere uid/gid en dan heb je kans dat rechten niet goed staan.

Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 26-06 09:43

zeroday

There is no alternative!

WheeleE schreef op vrijdag 30 augustus 2024 @ 14:06:
Na een tijdje succesvol te hebben geknutseld met lxc's en shares ben ik weer terug met een puzzel.

De casus: een proxmoxhelper-docker lxc met een mount naar een synology-share. Ik kan lezen, schrijven, alles vanaf de commandline in de lxc. So far so good!
De mounted share koppelen aan een docker container lukt ook, en ik kan vanuit de container wederom lezen, schrijven, alles.

Maar...het qbittorrent docker proces geeft een permission denied bij het pogen te schrijven naar de mounted share.
Ik zie door de bomen het bos niet meer echt. Of het nou een lxc-configissue is, iets met Docker, of qBittorrent specifiek.

Helemaal omdat de proxmox vm met daarin een docker-qbittorrent met share wΓ©l gewoon prima werkt.
Keb geen oplossing, maar wellicht het overwegen waard: waarom maar alles in docker pleuren?
https://tteck.github.io/Proxmox/ zoek daar je qbittorrent en dan heb je een lxc waarin je zeer makkelijk een share richting je NAS kan toevoegen ..

Docker .. erg mooi, maar voor mij voor bepaalde applicaties te onhandig qua configuratie. (maar dat ligt aan mij).

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • WheeleE
  • Registratie: Juni 2001
  • Laatst online: 06:26

WheeleE

Dinges

zeroday schreef op vrijdag 30 augustus 2024 @ 20:19:
[...]


Keb geen oplossing, maar wellicht het overwegen waard: waarom maar alles in docker pleuren?
https://tteck.github.io/Proxmox/ zoek daar je qbittorrent en dan heb je een lxc waarin je zeer makkelijk een share richting je NAS kan toevoegen ..

Docker .. erg mooi, maar voor mij voor bepaalde applicaties te onhandig qua configuratie. (maar dat ligt aan mij).
Dat was ook inderdaad mijn eerste keus. Ik wil het torrentverkeer via een vpn laten lopen (waar een apart lxc voor zouu komen) maar het netwerkverkeer doorrouteren deed m'n hoofd nog meer duizelen.
En via Docker heb ik t al een keer aan de praat gekregen in een vM. Dus ik dacht, dat moet met een Docker-lxc een peuleschil zijn.
Dit weekend ga ik de dockerprivileges nog eens keer rustig doorlopen.

Acties:
  • +2 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 22:55
Rustig mee experimenteren, ik heb de overstap ook gemaakt van docker op een Synology, naar lxc op Proxmox.
Gewoon een vlan maken, OpenWrt als gateway erin zetten, kijken of je internet kan benaderen … ja? Volgende stap … wireguard vpn opzetten in OpenWrt … volgende test.

Het hoeft allemaal niet in 1 dag.

Acties:
  • +1 Henk 'm!

  • WheeleE
  • Registratie: Juni 2001
  • Laatst online: 06:26

WheeleE

Dinges

Na nog meer zoeken en proberen is het dan toch gelukt. Ondanks dat alles conform de handleiding stond en zou moeten werken werd de user waarond de docker containers draaien niet goed geΓ―nterpreteerd via het groepslidmaatschap.
Ik heb uiteindelijk de fstab entry op de pve-host met filemode en dirmode 777 ipv 770 gemount. Dat bleek afdoende te zijn om alles aan de praat te krijgen :)

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 23:57
WheeleE schreef op zondag 1 september 2024 @ 09:28:
Na nog meer zoeken en proberen is het dan toch gelukt. Ondanks dat alles conform de handleiding stond en zou moeten werken werd de user waarond de docker containers draaien niet goed geΓ―nterpreteerd via het groepslidmaatschap.
Ik heb uiteindelijk de fstab entry op de pve-host met filemode en dirmode 777 ipv 770 gemount. Dat bleek afdoende te zijn om alles aan de praat te krijgen :)
Op zich wel logisch - met 777 geef je aan dat iedere gebruiker zonder restricties toegang heeft tot alle bestanden. Dus reguliere gebruikers kunnen met de bestanden en folders dezelfde dingen doen dan admins.

makes it run like clockwork


Acties:
  • +1 Henk 'm!

  • WheeleE
  • Registratie: Juni 2001
  • Laatst online: 06:26

WheeleE

Dinges

Mij opzich ook wel, maar de handleiding was zΓ³ stelling, en de reacties waren zo lovend dat ik de bottleneck ergens anders zocht. Ik vind het allang best, op naar de volgende uitdaging!

Acties:
  • +1 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 23:57
WheeleE schreef op zondag 1 september 2024 @ 13:01:
Mij opzich ook wel, maar de handleiding was zΓ³ stelling, en de reacties waren zo lovend dat ik de bottleneck ergens anders zocht. Ik vind het allang best, op naar de volgende uitdaging!
Klinkt als een wel overwogen besluit/afweging... :+ :+

makes it run like clockwork


Acties:
  • +2 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 07:08
En sinds afgelopen week dus beschikbaar, zie ook de release notes.

Ben hier héél blij mee, ik heb de community edition tijden gebruikt met VMWare ESXi op m'n thuisserver en dat werkte uitstekend. Onlangs overgestapt naar Proxmox, maar had de backup nog niet goed ingeregeld. Proxmox Backup Server wel al wat mee bezig geweest, maar vind de leercurve vrij hoog. Ik ga lekker weer Veaam Backup & Replication gebruiken, heel prettig product

Kudo's voor Veeam _O_

Acties:
  • +1 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 06:35

Quad

Doof

ThinkPad schreef op zondag 1 september 2024 @ 21:05:
[...]

En sinds afgelopen week dus beschikbaar, zie ook de release notes.

Ben hier héél blij mee, ik heb de community edition tijden gebruikt met VMWare ESXi op m'n thuisserver en dat werkte uitstekend. Onlangs overgestapt naar Proxmox, maar had de backup nog niet goed ingeregeld. Proxmox Backup Server wel al wat mee bezig geweest, maar vind de leercurve vrij hoog. Ik ga lekker weer Veaam Backup & Replication gebruiken, heel prettig product

Kudo's voor Veeam _O_
Ik ben hem aan het testen met een tweetal vms, het werkt best goed tot nu toe. En de dedup is beter te behappen dan wat PBS kan.

Qua snelheid is het niet zo snel als met VMware, maar voor mijn thuissituatie snel zat.

Alles went behalve een Twent.
⏩ PVOutputβ˜€οΈ


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 22:43
Als je Truenas gebruikt kun je ook nog periodiek snapshots maken en die repliceren naar een andere (True)nas of cloud. Je kan zo je nas ook als backup gebruiken :p

Acties:
  • 0 Henk 'm!

  • Bas Post
  • Registratie: September 2006
  • Laatst online: 27-06 11:52
Goedemorgen,
Ik heb gisteren Proxmox 8.2.4 op een HP Prodesk 400 G6 geΓ―nstalleerd. Via Proxmox VE helper scripts heb ik Home assistent OS als VM geΓ―nstalleerd, welke goed werkt.
Ik heb via de dezelfde helper scripts PLEX lxc geΓ―nstalleerd, draait ook. Maar nu wil ik een 6TB ntfs usb drive met de container gebruiken voor plex. Ik heb van alles gelezen via google, reddit en nodige forums, maar ik kom er niet uit.
Via shell van mijn proxmox host kan ik de usb wel mounten. Maar dan weet ik niet wat ik verder moet doen om de schijf zichtbaar te krijgen in de plex container.
Wie kan mij hierbij helpen?

BP on the move!!!


Acties:
  • +2 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 23:09

Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 26-06 09:43

zeroday

There is no alternative!

Ik snap nog altijd niet waarom men bij thuis situaties vaak de moeilijke kant kiest (mag van mij .. )

Plex maakt bij mij gewoon gebruik van een priviliged container
en in /etc/fstab heb ik gewoon een NFS share beschikbaar

10.1.1.1:/mnt/point/Movies /media/movies nfs auto,rw,noatime,async,nolock,bg,intr,tcp,actimeo=0,_netdev 0 0

Wel even de features aanzetten in de proxmox lxc opties.

mount -a .. om te checken of het werkt .. en mijn share naar truenas werkt als een tierelier. (kan ook met Samba)

There are no secrets, only information you do not yet have


Acties:
  • +3 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 22:55
Het is maar wat je moeilijk noemt, de lxc bind mount is super simpel en nog veiliger ook ... voor mij de keuze snel gemaakt dan :)

Acties:
  • +5 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 21:44
Omdat ik geen zin heb om via de wasmachine onderdeel van een botnet te worden

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 22:43
zeroday schreef op maandag 2 september 2024 @ 15:02:
Ik snap nog altijd niet waarom men bij thuis situaties vaak de moeilijke kant kiest (mag van mij .. )

Plex maakt bij mij gewoon gebruik van een priviliged container
en in /etc/fstab heb ik gewoon een NFS share beschikbaar

10.1.1.1:/mnt/point/Movies /media/movies nfs auto,rw,noatime,async,nolock,bg,intr,tcp,actimeo=0,_netdev 0 0

Wel even de features aanzetten in de proxmox lxc opties.

mount -a .. om te checken of het werkt .. en mijn share naar truenas werkt als een tierelier. (kan ook met Samba)
Je kunt ook de voordeur uit je huis halen is ook super gemakkelijk, hebt dan geen sleutels meer nodig om binnen te komen 8)7 :+ .

Effin zonder gekheid, probeer je diensten te maken vanuit een security oogpunt en niet uit gemak ;)

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 26-06 09:43

zeroday

There is no alternative!

powerboat schreef op maandag 2 september 2024 @ 15:33:
[...]


Je kunt ook de voordeur uit je huis halen is ook super gemakkelijk, hebt dan geen sleutels meer nodig om binnen te komen 8)7 :+ .

Effin zonder gekheid, probeer je diensten te maken vanuit een security oogpunt en niet uit gemak ;)
Verwacht niet dat ik een weg naar mijn voordeur beschikbaar heb. Die voordeur zit potdicht gemetseld.
je kan er alleen maar via een ondergrondse gang naar binnen waarvan niemand weet waar de ingang is.

Ik snap het security aspect heel goed en geef je daar ook direct gelijk. iedereen moet doen wat ie wil doen, maar ik denk altijd maar zo: laat ik op de simpele manier beginnen. Als dat werkt weet ik dat elke andere vorm ook zou moeten kunnen werken. Misschien niet iedereens hobby om te prutsen en dingen te onderzoeken.

vaak zet ik eerst een test lxc op, ga aan de gang en kijk of ik iets aan het werk krijg lukt dat dan ga ik kijken of er een laag tussen moet / kan ..

There are no secrets, only information you do not yet have


Acties:
  • +4 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 21:44
Er is altijd een weg naar binnen. Er bestaat niet voor niets zoiets als 'FTP Passive' mode. Of Cloudflare Tunnel. Als de firewall geen verbinding toelaat wordt de verbinding gewoon vanaf de client opgezet en komt het verkeer via een established verbinding dwars door je firewall naar binnen. En dat hoef je niet zelf te doen. Kan je partner ook zijn. Of je Sonos speaker, je vaatwasser of je nieuw gekochte mediaspeler.

Anyway. Iedereen moet het inderdaad zelf weten en zeker ook eens met @zeroday, je kunt niet overal tijd voor maken en begrijpen. Maar ik vind het argument "waarom de moeilijke weg kiezen" niet een hele sterke ;)

Acties:
  • +2 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 04:42
zeroday schreef op maandag 2 september 2024 @ 15:48:
[...]


Verwacht niet dat ik een weg naar mijn voordeur beschikbaar heb. Die voordeur zit potdicht gemetseld.
je kan er alleen maar via een ondergrondse gang naar binnen waarvan niemand weet waar de ingang is.

Ik snap het security aspect heel goed en geef je daar ook direct gelijk. iedereen moet doen wat ie wil doen, maar ik denk altijd maar zo: laat ik op de simpele manier beginnen. Als dat werkt weet ik dat elke andere vorm ook zou moeten kunnen werken. Misschien niet iedereens hobby om te prutsen en dingen te onderzoeken.

vaak zet ik eerst een test lxc op, ga aan de gang en kijk of ik iets aan het werk krijg lukt dat dan ga ik kijken of er een laag tussen moet / kan ..
Als priveleged LXC heeft Plex (/de LXC) toch gewoon root toegang tot het systeem... Daar valt niks meer aan dicht te timmeren / metselen. Het enige dat je dicht kunt timmeren / metselen is het vinkje "priviledged" uit zetten. En laat dat nu net hetgene zijn waar je hele punt om draait.

Heeft verder ook niks te maken met ondrrgrondse tunnels. Je hebt de persoon zelf naar binnen gebracht en in een kamer gezet. Alleen heb je die persoon ook meteen de sleutel gegeven om de kamer uit te lopen.

Acties:
  • 0 Henk 'm!

  • bakvis
  • Registratie: Augustus 2004
  • Nu online

bakvis

Tweakers.Nerd

Ik heb wat hulp/advies nodig. Mijn Proxmox server heeft soms het probleem dat de Netwerk kaart (PCIe interface) detatched lijkt te raken. Dit zorgt dat de netwerkkaart in de kernel offline gaat en de gehele proxmox server niet meer bereikbaar is. Proxmox draait nog zonder verdere problemen, VM's blijven draaien etc maar de verbinding is kwijt omdat het systeem maar 1 netwerk interface heeft.

Systeem bestaat uit:
- Intel Core i5 13400
- Gigabyte B760I AORUS PRO DDR4/B760I AORUS PRO DDR4 (Bios F9b)
- onboard intel i225-V netwerkkaart

In de syslog (journalctl) is onderstaande te zien:
Sep 02 04:20:43 pve corosync[1808]: [KNET ] link: host: 2 link: 0 is down
Sep 02 04:20:43 pve corosync[1808]: [KNET ] host: host: 2 (passive) best link: 0 (pri: 1)
Sep 02 04:20:43 pve corosync[1808]: [KNET ] host: host: 2 has no active links
Sep 02 04:20:43 pve kernel: igc 0000:03:00.0 enp3s0: PCIe link lost, device now detached
Sep 02 04:20:43 pve kernel: ------------[ cut here ]------------
Sep 02 04:20:43 pve kernel: igc: Failed to read reg 0xc030!
Sep 02 04:20:43 pve kernel: WARNING: CPU: 13 PID: 1846 at drivers/net/ethernet/intel/igc/igc_main.c:6643 igc_rd32+0xa4/0xc0 [igc]
Sep 02 04:20:43 pve kernel: Modules linked in: wireguard curve25519_x86_64 libchacha20poly1305 chacha_x86_64 poly1305_x86_64 libcurve25519_generic libchacha tcp_diag inet_diag cmac vfio_pci vfio_pci_core vfio_iommu_type1 vfio io>
Sep 02 04:20:43 pve kernel: intel_cstate intel_pmc_core mtd gigabyte_wmi pcspkr mei_me wmi_bmof rc_core ee1004 intel_vsec i2c_algo_bit mei pmt_telemetry intel_hid pmt_class acpi_pad acpi_tad sparse_keymap mac_hid zfs(PO) spl(O)>
Sep 02 04:20:43 pve kernel: CPU: 13 PID: 1846 Comm: pvestatd Tainted: P O 6.8.8-4-pve #1
Sep 02 04:20:43 pve kernel: Hardware name: Gigabyte Technology Co., Ltd. B760I AORUS PRO DDR4/B760I AORUS PRO DDR4, BIOS F9b 11/09/2023
Sep 02 04:20:43 pve kernel: RIP: 0010:igc_rd32+0xa4/0xc0 [igc]
Sep 02 04:20:43 pve kernel: Code: c7 c6 90 c6 7a c0 e8 9b 01 46 ca 48 8b bb 28 ff ff ff e8 cf 7c f4 c9 84 c0 74 b4 44 89 e6 48 c7 c7 b8 c6 7a c0 e8 0c 1b 76 c9 <0f> 0b eb a1 b8 ff ff ff ff 31 d2 31 f6 31 ff c3 cc cc cc cc 0f 1f
Sep 02 04:20:43 pve kernel: RSP: 0018:ffffa2a847493a10 EFLAGS: 00010246
Sep 02 04:20:43 pve kernel: RAX: 0000000000000000 RBX: ffff953c17ad6cd8 RCX: 0000000000000000
Sep 02 04:20:43 pve kernel: RDX: 0000000000000000 RSI: 0000000000000000 RDI: 0000000000000000
Sep 02 04:20:43 pve kernel: RBP: ffffa2a847493a28 R08: 0000000000000000 R09: 0000000000000000
Sep 02 04:20:43 pve kernel: R10: 0000000000000000 R11: 0000000000000000 R12: 000000000000c030
Sep 02 04:20:43 pve kernel: R13: ffff953c17ad6000 R14: 0000000000000000 R15: ffff953c1838ad80
Sep 02 04:20:43 pve kernel: FS: 000076af030cf740(0000) GS:ffff954b7fa80000(0000) knlGS:0000000000000000
Sep 02 04:20:43 pve kernel: CS: 0010 DS: 0000 ES: 0000 CR0: 0000000080050033
Sep 02 04:20:43 pve kernel: CR2: 00005d2a60e85779 CR3: 000000010165c000 CR4: 0000000000f52ef0
Sep 02 04:20:43 pve kernel: PKRU: 55555554
Sep 02 04:20:43 pve kernel: Call Trace:
Sep 02 04:20:43 pve kernel: <TASK>
Sep 02 04:20:43 pve kernel: ? show_regs+0x6d/0x80
Sep 02 04:20:43 pve kernel: ? __warn+0x89/0x160
Sep 02 04:20:43 pve kernel: ? igc_rd32+0xa4/0xc0 [igc]
Sep 02 04:20:43 pve kernel: ? report_bug+0x17e/0x1b0
Sep 02 04:20:43 pve kernel: ? handle_bug+0x46/0x90
Sep 02 04:20:43 pve kernel: ? exc_invalid_op+0x18/0x80
Sep 02 04:20:43 pve kernel: ? asm_exc_invalid_op+0x1b/0x20
Sep 02 04:20:43 pve kernel: ? igc_rd32+0xa4/0xc0 [igc]
Sep 02 04:20:43 pve kernel: igc_update_stats+0xa1/0x710 [igc]
Sep 02 04:20:43 pve kernel: igc_get_stats64+0x90/0xa0 [igc]
Sep 02 04:20:43 pve kernel: dev_get_stats+0x5e/0x120
Sep 02 04:20:43 pve kernel: dev_seq_printf_stats+0x49/0x100
Sep 02 04:20:43 pve kernel: dev_seq_show+0x14/0x40
Sep 02 04:20:43 pve kernel: seq_read_iter+0x2c6/0x4a0
Sep 02 04:20:43 pve kernel: seq_read+0x11e/0x160
Sep 02 04:20:43 pve kernel: proc_reg_read+0x69/0xb0
Sep 02 04:20:43 pve kernel: vfs_read+0xad/0x390
Sep 02 04:20:43 pve kernel: ? ksys_read+0x73/0x100
Sep 02 04:20:43 pve kernel: ? ptep_set_access_flags+0x4a/0x70
Sep 02 04:20:43 pve kernel: ? wp_page_reuse+0x95/0xc0
Sep 02 04:20:43 pve kernel: ksys_read+0x73/0x100
Sep 02 04:20:43 pve kernel: __x64_sys_read+0x19/0x30
Sep 02 04:20:43 pve kernel: x64_sys_call+0x23f0/0x24b0
Sep 02 04:20:43 pve kernel: do_syscall_64+0x81/0x170
Sep 02 04:20:43 pve kernel: ? mutex_lock+0x12/0x50
Sep 02 04:20:43 pve kernel: ? seq_lseek+0x88/0x100
Sep 02 04:20:43 pve kernel: ? proc_reg_llseek+0x5a/0x90
Sep 02 04:20:43 pve kernel: ? ksys_lseek+0x7d/0xd0
Sep 02 04:20:43 pve kernel: ? syscall_exit_to_user_mode+0x89/0x260
Sep 02 04:20:43 pve kernel: ? do_syscall_64+0x8d/0x170
Sep 02 04:20:43 pve kernel: ? irqentry_exit_to_user_mode+0x7e/0x260
Sep 02 04:20:43 pve kernel: ? irqentry_exit+0x43/0x50
Sep 02 04:20:43 pve kernel: ? exc_page_fault+0x94/0x1b0
Sep 02 04:20:43 pve kernel: entry_SYSCALL_64_after_hwframe+0x78/0x80
Sep 02 04:20:43 pve kernel: RIP: 0033:0x76af0320619d
Sep 02 04:20:43 pve kernel: Code: 31 c0 e9 c6 fe ff ff 50 48 8d 3d 66 54 0a 00 e8 49 ff 01 00 66 0f 1f 84 00 00 00 00 00 80 3d 41 24 0e 00 00 74 17 31 c0 0f 05 <48> 3d 00 f0 ff ff 77 5b c3 66 2e 0f 1f 84 00 00 00 00 00 48 83 ec
Sep 02 04:20:43 pve kernel: RSP: 002b:00007fffadc71508 EFLAGS: 00000246 ORIG_RAX: 0000000000000000
Sep 02 04:20:43 pve kernel: RAX: ffffffffffffffda RBX: 0000000000000000 RCX: 000076af0320619d
Sep 02 04:20:43 pve kernel: RDX: 0000000000002000 RSI: 00005d2a60f80280 RDI: 0000000000000008
Sep 02 04:20:43 pve kernel: RBP: 0000000000002000 R08: 0000000000000000 R09: 000076af032e0d30
Sep 02 04:20:43 pve kernel: R10: 00005d2a60f80280 R11: 0000000000000246 R12: 00005d2a60f80280
Sep 02 04:20:43 pve kernel: R13: 00005d2a5b3722a0 R14: 0000000000000008 R15: 00005d2a5c6c2530
Sep 02 04:20:43 pve kernel: </TASK>
Sep 02 04:20:43 pve kernel: ---[ end trace 0000000000000000 ]---


uit het commando lspci is te halen dat dit de netwerk controller is:

root@pve:/var/log/journal# lspci
00:00.0 Host bridge: Intel Corporation Device 4648 (rev 02)
00:02.0 VGA compatible controller: Intel Corporation Alder Lake-S GT1 [UHD Graphics 730] (rev 0c)
00:06.0 PCI bridge: Intel Corporation 12th Gen Core Processor PCI Express x4 Controller #0 (rev 02)
00:14.0 USB controller: Intel Corporation Raptor Lake USB 3.2 Gen 2x2 (20 Gb/s) XHCI Host Controller (rev 11)
00:14.2 RAM memory: Intel Corporation Raptor Lake-S PCH Shared SRAM (rev 11)
00:14.3 Network controller: Intel Corporation Raptor Lake-S PCH CNVi WiFi (rev 11)
00:15.0 Serial bus controller: Intel Corporation Raptor Lake Serial IO I2C Host Controller (rev 11)
00:15.1 Serial bus controller: Intel Corporation Raptor Lake Serial IO I2C Host Controller (rev 11)
00:15.2 Serial bus controller: Intel Corporation Raptor Lake Serial IO I2C Host Controller (rev 11)
00:15.3 Serial bus controller: Intel Corporation Device 7a4f (rev 11)
00:16.0 Communication controller: Intel Corporation Raptor Lake CSME HECI (rev 11)
00:17.0 SATA controller: Intel Corporation Raptor Lake SATA AHCI Controller (rev 11)
00:19.0 Serial bus controller: Intel Corporation Device 7a7c (rev 11)
00:19.1 Serial bus controller: Intel Corporation Device 7a7d (rev 11)
00:1a.0 PCI bridge: Intel Corporation Raptor Lake PCI Express Root Port (rev 11)
00:1c.0 PCI bridge: Intel Corporation Raptor Lake PCI Express Root Port (rev 11)
00:1f.0 ISA bridge: Intel Corporation Device 7a06 (rev 11)
00:1f.4 SMBus: Intel Corporation Raptor Lake-S PCH SMBus Controller (rev 11)
00:1f.5 Serial bus controller: Intel Corporation Raptor Lake SPI (flash) Controller (rev 11)
01:00.0 Non-Volatile memory controller: Samsung Electronics Co Ltd NVMe SSD Controller 980
02:00.0 Non-Volatile memory controller: Sandisk Corp WD Black SN770 NVMe SSD (rev 01)
03:00.0 Ethernet controller: Intel Corporation Ethernet Controller I225-V (rev 03)


Troubleshoot stappen zover:
- Bios reset naar default settings
- Updated Intel i225-v drivers geinstalleerd
- Geknutseld met ASPM settings. Hierdoor is het probleem minder geworden, maar niet volledig weg.

Ik begin langzaam uit mijn opties te lopen, hebben jullie nog tips voor me?

Mijn Specs


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 26-06 09:43

zeroday

There is no alternative!

RobertMe schreef op maandag 2 september 2024 @ 16:12:
[...]

Als priveleged LXC heeft Plex (/de LXC) toch gewoon root toegang tot het systeem... Daar valt niks meer aan dicht te timmeren / metselen. Het enige dat je dicht kunt timmeren / metselen is het vinkje "priviledged" uit zetten. En laat dat nu net hetgene zijn waar je hele punt om draait.

Heeft verder ook niks te maken met ondrrgrondse tunnels. Je hebt de persoon zelf naar binnen gebracht en in een kamer gezet. Alleen heb je die persoon ook meteen de sleutel gegeven om de kamer uit te lopen.
je hebt helemaal gelijk.Tis fijn dat we keuzes hebben en zelf kunnen bepalen wat we willen doen en hoe we het willen doen.

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 26-06 09:43

zeroday

There is no alternative!

bakvis schreef op maandag 2 september 2024 @ 16:26:
Ik heb wat hulp/advies nodig. Mijn Proxmox server heeft soms het probleem dat de Netwerk kaart (PCIe interface) detatched lijkt te raken. Dit zorgt dat de netwerkkaart in de kernel offline gaat en de gehele proxmox server niet meer bereikbaar is. Proxmox draait nog zonder verdere problemen, VM's blijven draaien etc maar de verbinding is kwijt omdat het systeem maar 1 netwerk interface heeft.

Ik begin langzaam uit mijn opties te lopen, hebben jullie nog tips voor me?
Bij een intel NUC en Proxmox gingen bij mij ook wat dingen mis.

heb dat op kunnen lossen door wat extra dingen aan /etc/network/interfaces toe te voegen

auto lo
iface lo inet loopback

iface eno1 inet manual
post-up /usr/bin/logger -p debug -t ifup "Disabling segmentation offload for eno1" && /sbin/ethtool -K $IFACE gso off gro off tso off tx off rx off rxvlan off txvlan off sg off && /usr/bin/logger -p debug -t ifup "Disabled offload for eno1"

auto vmbr0
iface vmbr0 inet static
address 10.9.9.1/24
gateway 10.9.9.99
bridge-ports eno1
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
post-up /sbin/ethtool -K eno1 tso off gso off

ooit gevonden op het proxmox forum. Dat bleek een oplossing voor mijn NUC. Wellicht helpt het ook voor jou of brengt het je dichter bij de oplossing. (PS kijk ook je netwerk kabel bijv. even na).

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • Feni
  • Registratie: Juli 2005
  • Laatst online: 29-06 17:06
bakvis schreef op maandag 2 september 2024 @ 16:26:

Troubleshoot stappen zover:
- Bios reset naar default settings
- Updated Intel i225-v drivers geinstalleerd
- Geknutseld met ASPM settings. Hierdoor is het probleem minder geworden, maar niet volledig weg.

Ik begin langzaam uit mijn opties te lopen, hebben jullie nog tips voor me?
PCIe link lost klinkt als een power saving mechanisme.

Ik lees bv volgende fix hier: https://forums.linuxmint.com/viewtopic.php?t=416924
For everyone coming here, these are the steps (blatantly copied from the other post):
1. (With sudo) open /etc/default/grub in the text editor of your choice
2. Add the following to GRUB_CMDLINE_LINUX_DEFAULT : pcie_port_pm=off pcie_aspm.policy=performance
3. Reboot

(check ff of dat nog via grub kan, als je op ZFS boot is de methodiek anders: https://pve.proxmox.com/wiki/Host_Bootloader)

[ Voor 7% gewijzigd door Feni op 02-09-2024 17:01 ]


Acties:
  • +1 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 23:57
@zeroday - die bridge-fd 0 weghalen is beter voor als je systeem het druk krijgt.
Of als je een zuinig systeempje wil inregelen.

[ Voor 3% gewijzigd door Airw0lf op 02-09-2024 16:57 ]

makes it run like clockwork


Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 04:42
Feni schreef op maandag 2 september 2024 @ 16:55:
[...]


PCIe link lost klinkt als een power saving mechanisme.

Ik lees bv volgende fix hier: https://forums.linuxmint.com/viewtopic.php?t=416924
For everyone coming here, these are the steps (blatantly copied from the other post):
1. (With sudo) open /etc/default/grub in the text editor of your choice
2. Add the following to GRUB_CMDLINE_LINUX_DEFAULT : pcie_port_pm=off pcie_aspm.policy=performance
3. Reboot
Die fix werkt dan wel alleen als Proxmox Grub gebruikt. IIRC kan dat het geval zijn. Maar op EFI (met ZFS on root?) gebruikt die systemd-boot. Waarmee IIRC de kernel cmd line in /etc/kernel/cmdline staat, waaraan dan de pcie_port_pm=off pcie_aspm.policy=performance toegevoegd kan worden.
Daarnaast heeft Proxmox een eigen tooltje om deze config door te voeren. Dit omdat bij Proxmox de kans op een mirror of RAID set nogal wat groter is Γ©n de bootloader uiteraard op elke disk wordt gezet (je wilt ook kunnen booten als een disk stuk is). Waarbij dat Proxmox tooltje dus zorgt dat de nieuwe config op alle disks staat.

Acties:
  • 0 Henk 'm!

  • Feni
  • Registratie: Juli 2005
  • Laatst online: 29-06 17:06
RobertMe schreef op maandag 2 september 2024 @ 17:00:
[...]

Die fix werkt dan wel alleen als Proxmox Grub gebruikt. IIRC kan dat het geval zijn. Maar op EFI (met ZFS on root?) gebruikt die systemd-boot. Waarmee IIRC de kernel cmd line in /etc/kernel/cmdline staat, waaraan dan de pcie_port_pm=off pcie_aspm.policy=performance toegevoegd kan worden.
Daarnaast heeft Proxmox een eigen tooltje om deze config door te voeren. Dit omdat bij Proxmox de kans op een mirror of RAID set nogal wat groter is Γ©n de bootloader uiteraard op elke disk wordt gezet (je wilt ook kunnen booten als een disk stuk is). Waarbij dat Proxmox tooltje dus zorgt dat de nieuwe config op alle disks staat.
Je was mijn edit net te snel af, maar inderdaad!

Acties:
  • 0 Henk 'm!

  • bakvis
  • Registratie: Augustus 2004
  • Nu online

bakvis

Tweakers.Nerd

RobertMe schreef op maandag 2 september 2024 @ 17:00:
[...]

Die fix werkt dan wel alleen als Proxmox Grub gebruikt. IIRC kan dat het geval zijn. Maar op EFI (met ZFS on root?) gebruikt die systemd-boot. Waarmee IIRC de kernel cmd line in /etc/kernel/cmdline staat, waaraan dan de pcie_port_pm=off pcie_aspm.policy=performance toegevoegd kan worden.
Daarnaast heeft Proxmox een eigen tooltje om deze config door te voeren. Dit omdat bij Proxmox de kans op een mirror of RAID set nogal wat groter is Γ©n de bootloader uiteraard op elke disk wordt gezet (je wilt ook kunnen booten als een disk stuk is). Waarbij dat Proxmox tooltje dus zorgt dat de nieuwe config op alle disks staat.
in /etc/kernel stond geen file cmdline, dus voor nu alleen toegevoegd aan GRUB. We gaan kijken wat dit doet.

Helpt helaas niet mee in het doel om de server zuinig zo zuinig mogelijk te krijgen...

[ Voor 6% gewijzigd door bakvis op 02-09-2024 17:08 ]

Mijn Specs


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 22:43
zeroday schreef op maandag 2 september 2024 @ 15:48:
[...]


Verwacht niet dat ik een weg naar mijn voordeur beschikbaar heb. Die voordeur zit potdicht gemetseld.
je kan er alleen maar via een ondergrondse gang naar binnen waarvan niemand weet waar de ingang is.

Ik snap het security aspect heel goed en geef je daar ook direct gelijk. iedereen moet doen wat ie wil doen, maar ik denk altijd maar zo: laat ik op de simpele manier beginnen. Als dat werkt weet ik dat elke andere vorm ook zou moeten kunnen werken. Misschien niet iedereens hobby om te prutsen en dingen te onderzoeken.

vaak zet ik eerst een test lxc op, ga aan de gang en kijk of ik iets aan het werk krijg lukt dat dan ga ik kijken of er een laag tussen moet / kan ..
Het lelijk hieraan is dat je ze meteen toegang geeft tot je hypervisor omdat je de kernel deelt, het hart van je netwerk. Dat unprivileged vinkje is er niets voor niets ;).

Acties:
  • +2 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 26-06 09:43

zeroday

There is no alternative!

powerboat schreef op maandag 2 september 2024 @ 21:17:
[...]


Het lelijk hieraan is dat je ze meteen toegang geeft tot je hypervisor omdat je de kernel deelt, het hart van je netwerk. Dat unprivileged vinkje is er niets voor niets ;).
absoluut. Ik predik ook niet iets. Ik geef aan dat je twee kanten op kunt ..

Privileged containers: Higher rights, higher compatibility, but also higher security risk.
Unprivileged containers: Restricted rights, higher security, potentially more compatibility problems.

En het is aan eenieder om zelf te bepalen hoever je wil gaan ;)..

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 04:42
zeroday schreef op maandag 2 september 2024 @ 22:07:
[...]


absoluut. Ik predik ook niet iets. Ik geef aan dat je twee kanten op kunt ..

Privileged containers: Higher rights, higher compatibility, but also higher security risk.
Unprivileged containers: Restricted rights, higher security, potentially more compatibility problems.

En het is aan eenieder om zelf te bepalen hoever je wil gaan ;)..
In principe kun je die optie natuurlijk best benoemen. Maar het lijkt mij dan wel een "vereiste" om de veiligheidsrisicios erbij te vermelden. Want die maken de keuze voor een privileged container toch echt zwaar "nadelig" (als in: de voorkeur zou altijd moeten uit gaan naar unprivileged). En niet te gaan voor "ach, het is toch maar thuis intern". En zeker met de vervolgpost dat je er alleen aan komt door een ondergrondse tunnel. Want dat is gewoon totaal niet relevant en is geen enkele maatregel tegen de deur die je wagenwijd open zet met het gebruik van een privileged container.

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 26-06 09:43

zeroday

There is no alternative!

RobertMe schreef op maandag 2 september 2024 @ 22:17:
[...]

In principe kun je die optie natuurlijk best benoemen. Maar het lijkt mij dan wel een "vereiste" om de veiligheidsrisicios erbij te vermelden. Want die maken de keuze voor een privileged container toch echt zwaar "nadelig" (als in: de voorkeur zou altijd moeten uit gaan naar unprivileged). En niet te gaan voor "ach, het is toch maar thuis intern". En zeker met de vervolgpost dat je er alleen aan komt door een ondergrondse tunnel. Want dat is gewoon totaal niet relevant en is geen enkele maatregel tegen de deur die je wagenwijd open zet met het gebruik van een privileged container.
Geef je nogmaals helemaal gelijk. Misschien was mijn woordkeuze ongelukkig gekozen. Mocht hierdoor iemand een verkeerde keuze hebben gemaakt dan was dat niet de bedoeling.

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 21:04
ik heb plex ook in een priviliged container. Dit via de bekende scripts van tteck (tteck.https://github.com/tteck/Proxmox)
Nu zie ik wel dat er een workaround is om van priviliged naar unpriviliged te gaan dus mogelijk ga ik dit een keer doen.

Wat ik me wel afvraag is inderdaad hoe risicovol het is. Ik heb al mijn iot apparaten op een ander vlan staan. Die niet naar de plex vlan kunnen. Dan moeten 'enge dingen' toch allemaal door de firewall worden tegenhouden?

Acties:
  • +1 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 22:55
tomdh76 schreef op dinsdag 3 september 2024 @ 09:48:
Wat ik me wel afvraag is inderdaad hoe risicovol het is. Ik heb al mijn iot apparaten op een ander vlan staan. Die niet naar de plex vlan kunnen. Dan moeten 'enge dingen' toch allemaal door de firewall worden tegenhouden?
Ligt eraan hoe goed je de overige apparaten in dat vlan waar je wel bij Plex kunt komen zijn beschermd.

Ik heb zelf Jellyfin in een unpriviliged docker container draaien op m'n Synology, dan zou dat met Plex in een LXC toch netzo goed moeten kunnen?
Toegang tot de videokaart zou het probleem niet moeten zijn.

Acties:
  • +1 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 07:08
Quad schreef op zondag 1 september 2024 @ 21:15:
[...]

Ik ben hem aan het testen met een tweetal vms, het werkt best goed tot nu toe. En de dedup is beter te behappen dan wat PBS kan.

Qua snelheid is het niet zo snel als met VMware, maar voor mijn thuissituatie snel zat.
Met welke credentials laat jij Veeam met Proxmox praten? Ik wilde een apart account voor Veeam aanmaken binnen Proxmox, maar krijg het niet werkend ("Failed to reach the hypervisor"). Ik lees hier op het Proxmox forum hetzelfde issue. Met 'root' schijnt het wel te werken, maar dat vind ik een beetje lelijk/unsecure :X

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 06:35

Quad

Doof

Root. Voor een thuisserver vind ik niet zo interessant, heb het allemaal al complex genoeg.

Alles went behalve een Twent.
⏩ PVOutputβ˜€οΈ


  • powerboat
  • Registratie: December 2003
  • Laatst online: 22:43
Iemand ervaring met UrBackup in een unprivileged container i.c.m. NFS? Die kreeg namelijk mijn Proxmox server op de knieΓ«n, opeens een IO-delay van 76% en die was zo hardnekkig dat ik de hypervisor een hardreset heb moeten geven.

  • WheeleE
  • Registratie: Juni 2001
  • Laatst online: 06:26

WheeleE

Dinges

Bij nader inzien ga ik het op een andere manier doen.
Een semi-proxmox gerelateerde vraag: heeft er hier iemand ervaring met Paperless NGX (via Proxmox Helper Scripts geΓ―nstalleerd)?
Ik heb een lxc zoemen waar ik op kan inloggen en alles. Losse documenten inlezen heb ik getest en werkt correct.
Maar de document_importer blijft errors spugen. En die import heb ik wel nodig om al m'n data te migreren/in te lezen.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
Traceback (most recent call last):
  File "/usr/local/lib/python3.11/dist-packages/django/db/backends/utils.py", line 89, in _execute
    return self.cursor.execute(sql, params)
           ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  File "/usr/local/lib/python3.11/dist-packages/django/db/backends/sqlite3/base.py", line 328, in execute
    return super().execute(query, params)
           ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
sqlite3.OperationalError: no such table: auth_user

The above exception was the direct cause of the following exception:

Traceback (most recent call last):
  File "/opt/paperless/src/manage.py", line 10, in <module>
    execute_from_command_line(sys.argv)
  File "/usr/local/lib/python3.11/dist-packages/django/core/management/__init__.py", line 442, in execute_from_command_line
    utility.execute()
[..]
  File "/usr/local/lib/python3.11/dist-packages/django/db/backends/sqlite3/base.py", line 328, in execute
    return super().execute(query, params)

De sql-lite melding is raar, want de applicatie gebruikt postgress. En in een eerdere poging Paperless te installeren lukt een import wΓ©l.[

[ Voor 6% gewijzigd door WheeleE op 14-09-2024 20:35 ]


Acties:
  • 0 Henk 'm!

  • Philo Melos
  • Registratie: September 2017
  • Niet online
Heb als absolute noob op Linux gebied afgelopen weekend een proxmoxserver opgezet met OMV en Roon Rock (muziekserver) als VM's.
Nu kun je je muziek alleen maar op de interne opslag van Rock via een netwerkverbinding krijgen. Dus ssd uitpluggen, even op een andere pc via usb kan niet.
Goed, doen we dat. Helaas schommelt de kopieersnelheid van 10 tot 25 MB/sec. Dat zou bij een GB verbinding toch 125 moeten kunnen zijn? Heb alleen al aan klassieke muziek bijna 4 TB die gekopieerd moet worden. Dat gaat op deze manier weken duren. Het is op een Asus Nuc 14 pro (i3). Mooi dingetje, krachtig genoeg, maar ik vermoed dat er onder Linux nog geen goede netwerkdrivers zijn. Zou dat kunnen kloppen?
Hoe kan ik controleren wat er aan de hand is qua netwerkinstellingen? Of de drivers in de kernel zitten etc etc.
Of er ergens iets verkeerd staat? Iemand simpel advies?

Acties:
  • +1 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 06:35

Quad

Doof

@Philo Melos ik begrijp dat je data vanaf een USB schijf, aangesloten op een PC kopieert naar een netwerkshare op de Proxmox host?

Heb je de USB schijf uitgesloten van performance? Hoe groot zijn de bestanden? Wat als je vanaf die PC van lokaal naar netwerkshare 1 groot bestand van paar honderd MB overzet?

Alles went behalve een Twent.
⏩ PVOutputβ˜€οΈ


Acties:
  • +1 Henk 'm!

  • Philo Melos
  • Registratie: September 2017
  • Niet online
Quad schreef op maandag 16 september 2024 @ 19:03:
@Philo Melos ik begrijp dat je data vanaf een USB schijf, aangesloten op een PC kopieert naar een netwerkshare op de Proxmox host?

Heb je de USB schijf uitgesloten van performance? Hoe groot zijn de bestanden? Wat als je vanaf die PC van lokaal naar netwerkshare 1 groot bestand van paar honderd MB overzet?
Klopt allemaal. Zal vanavond een groot bestand kopiΓ«ren naar de netwerkshare. Kijken of dat sneller gaat. Bestanden zijn flac bestanden. Dus tussen de 1 en 00 MB groot.

Heb trouwens de wifikaart verwijderd uit de vm-hardware (zijn volgens mij ook nog geen drivers voor, dus werkt heel niet). Liep de snelheid op tot 25 MB.

Afijn, dat het weken duurde is wellicht wat overdreven. Ben inmiddels over de helft. Maar zou fijn zijn als kopiΓ«ren op volle snelheid kan. Voorheen haalde ik over het netwerk gewone snelheden van boven de 100 MB zoals je zou verwachten.

Acties:
  • +1 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 06:35

Quad

Doof

@Philo Melos Ik snap je verwachtingen, maar kleine bestanden over het netwerk vanaf een, over het algemeen, trage USB harde schijf zorgt eenmaal niet voor topprestaties.

Alles went behalve een Twent.
⏩ PVOutputβ˜€οΈ


Acties:
  • 0 Henk 'm!

  • Philo Melos
  • Registratie: September 2017
  • Niet online
Quad schreef op maandag 16 september 2024 @ 19:52:
@Philo Melos Ik snap je verwachtingen, maar kleine bestanden over het netwerk vanaf een, over het algemeen, trage USB harde schijf zorgt eenmaal niet voor topprestaties.
Snap ik, en het is maar 1 x deze klus. Maar zo langzaam verwacht ik het niet. Net even een bestand van 3,4 GB gekopieerd van netwerkshare op Proxmox, naar mijn Firebat pc-tje. Dat gaat met de verwachte snelheid van 110 MB/s

Echter, kopieer ik hem terug naar 1 van beide shares op de proxmox dan zakt de snelheid naar 6 MB/s Zelfde grote bestand. Er zit dus een congestie bij proxmox. Zou er graag achter komen wat dat is. Waar ik moet kijken.

Acties:
  • +1 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 22:43
Philo Melos schreef op maandag 16 september 2024 @ 21:32:
[...]

Snap ik, en het is maar 1 x deze klus. Maar zo langzaam verwacht ik het niet. Net even een bestand van 3,4 GB gekopieerd van netwerkshare op Proxmox, naar mijn Firebat pc-tje. Dat gaat met de verwachte snelheid van 110 MB/s

Echter, kopieer ik hem terug naar 1 van beide shares op de proxmox dan zakt de snelheid naar 6 MB/s Zelfde grote bestand. Er zit dus een congestie bij proxmox. Zou er graag achter komen wat dat is. Waar ik moet kijken.
Maak je gebruik van een echte VM of een LXC container?

Wat is je IO-delay tijdens het kopiΓ«ren als het traag gaat?

Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

Philo Melos schreef op maandag 16 september 2024 @ 16:28:
Heb als absolute noob op Linux gebied afgelopen weekend een proxmoxserver opgezet met OMV en Roon Rock (muziekserver) als VM's.
Nu kun je je muziek alleen maar op de interne opslag van Rock via een netwerkverbinding krijgen. Dus ssd uitpluggen, even op een andere pc via usb kan niet.
Goed, doen we dat. Helaas schommelt de kopieersnelheid van 10 tot 25 MB/sec. Dat zou bij een GB verbinding toch 125 moeten kunnen zijn? Heb alleen al aan klassieke muziek bijna 4 TB die gekopieerd moet worden. Dat gaat op deze manier weken duren. Het is op een Asus Nuc 14 pro (i3). Mooi dingetje, krachtig genoeg, maar ik vermoed dat er onder Linux nog geen goede netwerkdrivers zijn. Zou dat kunnen kloppen?
Hoe kan ik controleren wat er aan de hand is qua netwerkinstellingen? Of de drivers in de kernel zitten etc etc.
Of er ergens iets verkeerd staat? Iemand simpel advies?
Ik heb eerlijk gezegt een beetje moeite met het overzicht. Je hebt een Proxmox host, vermoedelijk de Asus Nuc? Met daarop OMV en een muziekserver als twee aparte VM's. Je moet die muziekserver natuurlijk wat bestanden geven, dus dat doe je via het netwerk. Maar waar schrijf je naartoe? De OMV VM of de Roon/muziekserver VM? Via wat schrijf je? SCP? NFS? SMB? Wat voor schijven zitten er in beide machines? Wat voor storage layout heeft Proxmox? ZRAID1?

Kortom, ik, weet persoonlijk te weinig om hier zinvol antwoord op te geven. Het is een beetje tasten in het duister :)

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • Philo Melos
  • Registratie: September 2017
  • Niet online
orvintax schreef op maandag 16 september 2024 @ 23:02:
[...]

Ik heb eerlijk gezegt een beetje moeite met het overzicht. Je hebt een Proxmox host, vermoedelijk de Asus Nuc? Met daarop OMV en een muziekserver als twee aparte VM's. Je moet die muziekserver natuurlijk wat bestanden geven, dus dat doe je via het netwerk. Maar waar schrijf je naartoe? De OMV VM of de Roon/muziekserver VM? Via wat schrijf je? SCP? NFS? SMB? Wat voor schijven zitten er in beide machines? Wat voor storage layout heeft Proxmox? ZRAID1?

Kortom, ik, weet persoonlijk te weinig om hier zinvol antwoord op te geven. Het is een beetje tasten in het duister :)
Je hebt helemaal gelijk. Proxmox host met 2 VM's Roon Rock (muziekserver) en OMV voor films en series (via Apple tv en Infuse pro).
Roon Rock heeft zijn eigen interne nvme ssd (4TB) harde schijf. Lukte me na veel gedoe die toe te voegen aan Roon. OMV doet het met usb (ssd-schijven).
Het probleem zit hem om mijn muziek op de interne disk van Roon Rock te krijgen. Dat kan alleen maar via het netwerk. De muziek die daar op moet, staat op een Samsung ssd die via een usb adapter aan mijn Firebat-pctje hangt.

Nu komt het, vannacht nog eens 3 grote mappen met muziek naar de interne rock harde schijf gekopieerd (vanaf een andere externe usb hdd aangesloten op mijn pc), en toen zag ik opeens de snelheid soms de 70MB/s aantikken. Dan schiet het lekker op!

De ssd vanwaar ik eerder kopieerde zat wel heeel vol. Van de 2 TB nog maar 50GB over. Doel heeft ruimte zat. Kopieer op dit moment van een andere externe hdd naar Roon Rock's interne ssd en komt niet boven de 10MB/s uit.

Maar goed, ik ga mijn muziekserver niet op Proxmox draaien. Kwam er achter dat hij niet 2 interne ssd's wil zien. Dat kan wel als je die Roon Rock standalone draait. (moet ook via een omweg, maar het kan)

Dus we gaan het anders doen. Roon Rock stand alone op deze Nuc. OMV weer standalone op mijn Firebat pc-tje en dan komt er een nieuw klein Linux pc-tje bij voor het dagelijkse internetten. Geen zin in zoveel gedoe, terwijl ik er ook niet genoeg kennis voor heb. Linux Mint lukt aardig. Proxmox blijkt een brug te ver.

In elk geval dank voor het meedenken.

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 06:35

Quad

Doof

@Philo Melos kan Roon rock wel overweg met netwerkshares?

Alles went behalve een Twent.
⏩ PVOutputβ˜€οΈ


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

Philo Melos schreef op woensdag 18 september 2024 @ 16:07:
[...]


Je hebt helemaal gelijk. Proxmox host met 2 VM's Roon Rock (muziekserver) en OMV voor films en series (via Apple tv en Infuse pro).
Roon Rock heeft zijn eigen interne nvme ssd (4TB) harde schijf. Lukte me na veel gedoe die toe te voegen aan Roon. OMV doet het met usb (ssd-schijven).
Het probleem zit hem om mijn muziek op de interne disk van Roon Rock te krijgen. Dat kan alleen maar via het netwerk. De muziek die daar op moet, staat op een Samsung ssd die via een usb adapter aan mijn Firebat-pctje hangt.

Nu komt het, vannacht nog eens 3 grote mappen met muziek naar de interne rock harde schijf gekopieerd (vanaf een andere externe usb hdd aangesloten op mijn pc), en toen zag ik opeens de snelheid soms de 70MB/s aantikken. Dan schiet het lekker op!

De ssd vanwaar ik eerder kopieerde zat wel heeel vol. Van de 2 TB nog maar 50GB over. Doel heeft ruimte zat. Kopieer op dit moment van een andere externe hdd naar Roon Rock's interne ssd en komt niet boven de 10MB/s uit.

Maar goed, ik ga mijn muziekserver niet op Proxmox draaien. Kwam er achter dat hij niet 2 interne ssd's wil zien. Dat kan wel als je die Roon Rock standalone draait. (moet ook via een omweg, maar het kan)

Dus we gaan het anders doen. Roon Rock stand alone op deze Nuc. OMV weer standalone op mijn Firebat pc-tje en dan komt er een nieuw klein Linux pc-tje bij voor het dagelijkse internetten. Geen zin in zoveel gedoe, terwijl ik er ook niet genoeg kennis voor heb. Linux Mint lukt aardig. Proxmox blijkt een brug te ver.

In elk geval dank voor het meedenken.
Begrijpelijk. In de toekomst zou ik het voor jezelf wat makkelijker maken en alle media op OMV zetten. Dan hoef je ook niet met aparte disks te klooien. Maar goed, dan moet Roon Rock het wel toestaan om met iets als NFS of CIFS te gebruiken. Van wat ik zo zie is het vrij afgeschermt.

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 23:09
Iemand een goede guide voor GPU passthrough naar een unprivileged LXC?
Ik wil immich optuigen.
Hier in de comments staat e.e.a.:
https://www.reddit.com/r/...tion_in_an_lxc_on_proxmox

Maar ik gebruik geen docker, maar 'native immich on Ubuntu', zoals hier staat:
https://github.com/loeeeee/immich-in-lxc

Ik dacht dat het nodig was om de 'render' groep te mappen en immich-user daarin te hangen?

Op de host krijg ik:
code:
1
2
root@pmve:~# getent group render
render:x:103:


En in de LXC:
code:
1
2
root@immich:~# getent group render
render:x:993:immich


code:
1
2
3
4
5
6
7
8
9
unprivileged: 1
lxc.cgroup2.devices.allow: c 226:0 rwm
lxc.cgroup2.devices.allow: c 226:128 rwm
lxc.mount.entry: /dev/dri/renderD128 dev/dri/renderD128 none bind,optional,create=file
lxc.mount.entry: /dev/dri/card1 dev/dri/card1 none bind,optional,create=file
lxc.idmap: u 0 100000 65536
lxc.idmap: g 0 100000 993
lxc.idmap: g 993 103 1
lxc.idmap: g 994 100994 64542


Ik heb op de host 'intel_gpu_top', en ik kan in immich een taak starten om te transcoderen.
Toch zie ik ffmpeg vooral cpu gebruiken en zie ik weinig activiteit in intel_gpu_top.

In immich staat het wel aan met device:
/dev/dri/renderD128

Die lijkt me goed gemapt, weet niet of card1 ook belangrijk is. Sommige guides noemen die ook...
code:
1
2
3
4
root@immich:/dev/dri# ls -l
total 0
crw-rw---- 1 nobody nogroup 226,   1 Aug 30 19:45 card1
crw-rw---- 1 nobody render  226, 128 Aug 30 19:45 renderD128



Ah, in de logs staat nog wel e.e.a.. Ik zoek nog even verder.
https://github.com/blakeblackshear/frigate/issues/6705

Mis nog wel e.e.a., denk ik:
https://forum.proxmox.com...and-configuration.130218/

[ Voor 7% gewijzigd door RudolfR op 20-09-2024 20:05 ]


Acties:
  • +1 Henk 'm!

  • Luc45
  • Registratie: April 2019
  • Laatst online: 22:55
Ik heb toevallig recent ook zitten klooien met de iGPU passtrough naar een unprivileged container. Bij mij zie je dat ffmpeg wel flink wat cpu gebruikt, maar ik zie daarnaast in intel_gpu_top ook 50% gpu gebruikt.

Group configs:
code:
1
2
3
4
5
6
7
8
root@proxmox:~# getent group render
render:x:104:
root@proxmox:~# getent group video
video:x:44:
root@proxmox:/etc# cat /etc/subgid
root:100000:65536
root:44:1
root:104:1


LXC config:
code:
1
2
3
4
5
6
7
8
9
10
11
lxc.cgroup2.devices.allow = c 226:0 rwm
lxc.cgroup2.devices.allow = c 226:128 rwm
lxc.cgroup2.devices.allow = c 29:0 rwm
lxc.mount.entry = /dev/dri dev/dri none bind,optional,create=dir
lxc.mount.entry = /dev/fb0 dev/fb0 none bind,optional,create=file
lxc.idmap = u 0 100000 65536
lxc.idmap = g 0 100000 44
lxc.idmap = g 44 44 1
lxc.idmap = g 45 100045 61
lxc.idmap = g 106 104 1
lxc.idmap = g 107 100107 65429

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 23:09
@Luc45

Bedankt, ik was al bijna. Ik moest alleen m'n grub-cmdline nog aanpassen, update-grub runnen en rebooten.
code:
1
2
#GRUB_CMDLINE_LINUX_DEFAULT="quiet"
GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on iommu=pt"


(Intel NUC Skylake Gen9 met QuickSync)

video-groep dus niet gemapt; denk ook dat /dev/dri/renderD128 voldoende is.
Zie nu volop activiteit in intel_gpu_top. Dus moet goed zijn.

  • Luc45
  • Registratie: April 2019
  • Laatst online: 22:55
Voor iGPU passtrough naar een LXC zou je geen iommu nodig hebben. iommu is om PCI devices onafhankelijk van elkaar aan een VM te kunnen knopen.

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 23:09
Oh, nou dan weet ik niet wat het 'm deed.
Misschien een andere instelling die pas actief wordt na een reboot.

Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 29-06 18:30
Als ik in de Gui van proxmox een samba of nfs share verwijder dan blijven deze nog bestaan in /mnt/pve
Ik moet ze daar handmatig unmounten en dan de map verwijderen.
Ik kwam er net achter nadat ik ze via de Gui verwijderd had en mijn TrueNas server had uitgeschakeld. (ivm wat onderhoud).
Dan gaat proxmox dus telkens zoeken naar de shares met ineens een hogere load. (van 0.9 naar 3).
Doe ik iets verkeerd of is dit de normale manier?

Acties:
  • +1 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 21:04
Ik ben bezig een nieuwe proxmox server op te zetten en vraag me af wat de handigste manier is om een OPNSense vm van de ene naar de andere server te zetten. Ik probeerde het eerst met een backup / restore op de nieuwe server maar dat ging niet goed (wrsch omdat de hardware wat anders is). Toen probeerde ik een nieuwe installatie en nadat de nieuwe installatie klaar was, de oude OPNsense VM uit te zetten. Dit lukt ook niet goed, de router functie van de oude OPNsense is nodig om de nieuwe te bereiken denk ik?

Wat zouden jullie doen?

Acties:
  • +1 Henk 'm!

  • Theone098
  • Registratie: Februari 2015
  • Laatst online: 21:47
tomdh76 schreef op maandag 23 september 2024 @ 11:59:
Ik ben bezig een nieuwe proxmox server op te zetten en vraag me af wat de handigste manier is om een OPNSense vm van de ene naar de andere server te zetten. Ik probeerde het eerst met een backup / restore op de nieuwe server maar dat ging niet goed (wrsch omdat de hardware wat anders is). Toen probeerde ik een nieuwe installatie en nadat de nieuwe installatie klaar was, de oude OPNsense VM uit te zetten. Dit lukt ook niet goed, de router functie van de oude OPNsense is nodig om de nieuwe te bereiken denk ik?

Wat zouden jullie doen?
Als het een VM is, zou de onderliggende HW niet mogen uitmaken. Met de aanname dat je de originele VM gebruik maakt van de gevirtualiseerde HW (vaak default). De virtuele HW hetzelfde zetten is dus optie 1.

Als je beide proxmox servers als nodes in een proxmox "datacenter" hebt, kun je gewoon de VM van de ene node naar de andere node migreren (optie 2).

Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 21:04
Theone098 schreef op maandag 23 september 2024 @ 13:57:
[...]

Als het een VM is, zou de onderliggende HW niet mogen uitmaken. Met de aanname dat je de originele VM gebruik maakt van de gevirtualiseerde HW (vaak default). De virtuele HW hetzelfde zetten is dus optie 1.

Als je beide proxmox servers als nodes in een proxmox "datacenter" hebt, kun je gewoon de VM van de ene node naar de andere node migreren (optie 2).
Oke ik ga het proberen volgens optie 1. Optie 2 lijkt me lastiger.

Acties:
  • +1 Henk 'm!

  • lasharor
  • Registratie: December 2004
  • Laatst online: 26-06 19:57

lasharor

7 december 2004

Alhoewel de onderliggende HW niet uitmaakt moet je natuurlijk wel zorgen dat de configuratie op de nieuwe hardware alsnog klopt.

Het werkt niet op het moment dat je bijvoorbeeld de NIC doorzet naar de VM en die vervolgens op de nieuwe machine een andere HW ID heeft.

etc

Acties:
  • +1 Henk 'm!

  • Theone098
  • Registratie: Februari 2015
  • Laatst online: 21:47
lasharor schreef op maandag 23 september 2024 @ 14:23:
Alhoewel de onderliggende HW niet uitmaakt moet je natuurlijk wel zorgen dat de configuratie op de nieuwe hardware alsnog klopt.

Het werkt niet op het moment dat je bijvoorbeeld de NIC doorzet naar de VM en die vervolgens op de nieuwe machine een andere HW ID heeft.

etc
Ja, ook zo iets.

En als er iets anders aan het cachen is (PC. Switch, etc), die ook even een reset geven (vooral als het IP van de machines verschillend is).
Pagina: 1 ... 48 ... 58 Laatste