Acties:
  • 0 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 23:47
Cyphax schreef op maandag 14 april 2025 @ 17:55:
Je kunt niet zomaar een netwerk-share mounten in een LXC-container.
Je kunt wel op je host de share mounten en dan die lokatie als bind mount meegeven aan je container. Dat werkt prima. :)
Daarom zei ik ook een mount point, vanuit de host dus.
Ik gebruik het met iedere lxc, maar met PBS werkte het gewoon niet.

Aangezien de backups vanuit het cluster verder prima verloopt richting een nfs share van m’n oude nas, PBS verder maar opgegeven toen.

Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 23:06

Cyphax

Moderator LNX
Theetjuh schreef op maandag 14 april 2025 @ 18:20:
[...]

Daarom zei ik ook een mount point, vanuit de host dus.
Ik gebruik het met iedere lxc, maar met PBS werkte het gewoon niet.

Aangezien de backups vanuit het cluster verder prima verloopt richting een nfs share van m’n oude nas, PBS verder maar opgegeven toen.
Ah zo, ik heb het met nfs niet geprobeerd maar met smb wel, daar maakt pbs een mirror van de backups op. :)

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 23:33

Quad

Doof

Ik zie dat ik vals heb gespeeld met PBS LXC, ik heb gekozen voor een privileged LXC, dan kan je wel mounten vanuit de LXC.

uit /etc/fstab:
code:
1
ip.van.nas:/volume2/Backups/Proxmox /mnt/synology nfs vers=3,nouser,atime,auto,retrans=2,rw,dev,exec 0 0


En in Synology op NFS de NAS R/W gegeven.

Dit had ik ook op de host kunnen doen, en dan met mountpoint doorzetten naar de LXC. Had verwacht ik geen issues opgeleverd.

[ Voor 56% gewijzigd door Quad op 14-04-2025 18:53 ]

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 23:47
Quad schreef op maandag 14 april 2025 @ 18:50:
Ik zie dat ik vals heb gespeeld met PBS LXC, ik heb gekozen voor een privileged LXC, dan kan je wel mounten vanuit de LXC.

uit /etc/fstab:
code:
1
ip.van.nas:/volume2/Backups/Proxmox /mnt/synology nfs vers=3,nouser,atime,auto,retrans=2,rw,dev,exec 0 0


En in Synology op NFS de NAS R/W gegeven.

Dit had ik ook op de host kunnen doen, en dan met mountpoint doorzetten naar de LXC. Had verwacht ik geen issues opgeleverd.
Backup je dan direct naar de nfs share of doe je net als @Cyphax het als een mirror gebruiken?

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 23:33

Quad

Doof

Theetjuh schreef op maandag 14 april 2025 @ 19:01:
[...]

Backup je dan direct naar de nfs share of doe je net als @Cyphax het als een mirror gebruiken?
Het gaat direct naar de NFS share.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 23:47
Quad schreef op maandag 14 april 2025 @ 19:24:
[...]

Het gaat direct naar de NFS share.
Zet ik em weer op het lijstje om eens te proberen *O*

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 06:51
Wat mij is opgevallen op het moment dat je een nfs share bind aan een lxc container en er veel load op komt te staan dat de hypervisor over de nek gaat en ik de hypervisor moet herstarten.

Voor mij voorlopig geen LXC's meer :/

Acties:
  • 0 Henk 'm!

  • joostdejonge123
  • Registratie: Maart 2011
  • Laatst online: 12-09 18:44
Beste Tweakers,
Een tijdje geleden ben ik overgestapt van ESXI op Proxmox. Op zich werkt alles redelijk stabiel. Ik heb echter een tijdje last gehad van het random power-off gaan van een VM. Dit is een Linux gebaseerde VM. Ik kreeg niks gevonden in de log files, ook niet met crash kernel aan (of hoe heet dat ook al weer precies...). De laatste tijd nergens last van, tot vandaag. Opeens weer hetzelfde fenomeen, maar nu ook bij een Windows VM. Ram geheugen heb ik uitgebreid gecontroleerd. Op dit moment weet ik even niet waar verder te zoeken... heeft iemand een idee?

dank!

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 06:51
joostdejonge123 schreef op maandag 14 april 2025 @ 22:16:
Beste Tweakers,
Een tijdje geleden ben ik overgestapt van ESXI op Proxmox. Op zich werkt alles redelijk stabiel. Ik heb echter een tijdje last gehad van het random power-off gaan van een VM. Dit is een Linux gebaseerde VM. Ik kreeg niks gevonden in de log files, ook niet met crash kernel aan (of hoe heet dat ook al weer precies...). De laatste tijd nergens last van, tot vandaag. Opeens weer hetzelfde fenomeen, maar nu ook bij een Windows VM. Ram geheugen heb ik uitgebreid gecontroleerd. Op dit moment weet ik even niet waar verder te zoeken... heeft iemand een idee?

dank!
Ik heb dat een tijdje geleden ook gehad, volgens mij lag dat toen aan de backup.

Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

joostdejonge123 schreef op maandag 14 april 2025 @ 22:16:
Beste Tweakers,
Een tijdje geleden ben ik overgestapt van ESXI op Proxmox. Op zich werkt alles redelijk stabiel. Ik heb echter een tijdje last gehad van het random power-off gaan van een VM. Dit is een Linux gebaseerde VM. Ik kreeg niks gevonden in de log files, ook niet met crash kernel aan (of hoe heet dat ook al weer precies...). De laatste tijd nergens last van, tot vandaag. Opeens weer hetzelfde fenomeen, maar nu ook bij een Windows VM. Ram geheugen heb ik uitgebreid gecontroleerd. Op dit moment weet ik even niet waar verder te zoeken... heeft iemand een idee?

dank!
Wat @powerboat zegt is een goeie, niet alles gaat standaard goed overweg met de backups. Maar aangezien dit verschillende soorten VMs betreft. Heb je ze toevallig overprovisioned? Want als Proxmox in ademnood komt wilt hij wel eens wat uitzetten.

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • joostdejonge123
  • Registratie: Maart 2011
  • Laatst online: 12-09 18:44
Dank, ik ga hiermee aan de slag... ik laat van me horen

Acties:
  • +1 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 20:45
ThinkPad schreef op zondag 13 april 2025 @ 14:47:
[...]
Detected Hardware Unit Hang
[...]
ethtool -K eno1 tso off gso off gro off
[...]
Dit bleek inderdaad de fix te zijn. De backup heeft inmiddels al weer een keer of drie gedraaid en de netwerkverbinding van m'n Proxmox is niet meer weggevallen (ik zie die error ook niet meer terug in journalctl) :)

Acties:
  • 0 Henk 'm!

  • Cardinal
  • Registratie: Maart 2002
  • Laatst online: 00:32
Ik heb een probleem met mijn CFIS mounts. Sinds een tijdje werkt het CFIS script niet meer bij het opstarten, echter als ik handmatig het commando geef na opstarten werkt het .

Dit is het script
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
[Unit]
  Description=Plex Media Server files
  Requires=network-online.target
  After=network-online.service

[Mount]
  What=//192.168.1.3/HD-Series
  Where=/mnt/hdseries
  Options=credentials=/root/.cifs_credentials,_netdev,uid=999,gid=999
  Type=cifs

[Install]
  WantedBy=multi-user.target


Dit is de melding
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
x mnt-hdseries.mount - Plex Media Server files
     Loaded: loaded (/etc/systemd/system/mnt-hdseries.mount; enabled; vendor preset: enabled)
     Active: failed (Result: exit-code) since Wed 2025-04-16 15:48:17 CEST; 1min 22s ago
      Where: /mnt/hdseries
       What: //192.168.1.3/HD-Series
        CPU: 2ms

Apr 16 15:48:17 plex systemd[1]: Mounting Plex Media Server files...
Apr 16 15:48:17 plex mount[118]: mount error(101): Network is unreachable
Apr 16 15:48:17 plex mount[118]: Refer to the mount.cifs(8) manual page (e.g. man mount.cifs) and kernel log messages (dmesg)
Apr 16 15:48:17 plex systemd[1]: mnt-hdseries.mount: Mount process exited, code=exited, status=32/n/a
Apr 16 15:48:17 plex systemd[1]: mnt-hdseries.mount: Failed with result 'exit-code'.
Apr 16 15:48:17 plex systemd[1]: Failed to mount Plex Media Server files.

Op basis van de logs lijkt het erop dat het systeem niet klaar is en het netwerk nog niet beschikbaar.
zodra ik handmatig het commando "systemctl start mnt-hdseries.mount" geef werkt het naar behoren. Iemand een idee?

Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 05:05
Cardinal schreef op woensdag 16 april 2025 @ 16:34:
Ik heb een probleem met mijn CFIS mounts. Sinds een tijdje werkt het CFIS script niet meer bij het opstarten, echter als ik handmatig het commando geef na opstarten werkt het .

Dit is het script
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
[Unit]
  Description=Plex Media Server files
  Requires=network-online.target
  After=network-online.service

[Mount]
  What=//192.168.1.3/HD-Series
  Where=/mnt/hdseries
  Options=credentials=/root/.cifs_credentials,_netdev,uid=999,gid=999
  Type=cifs

[Install]
  WantedBy=multi-user.target


Dit is de melding
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
x mnt-hdseries.mount - Plex Media Server files
     Loaded: loaded (/etc/systemd/system/mnt-hdseries.mount; enabled; vendor preset: enabled)
     Active: failed (Result: exit-code) since Wed 2025-04-16 15:48:17 CEST; 1min 22s ago
      Where: /mnt/hdseries
       What: //192.168.1.3/HD-Series
        CPU: 2ms

Apr 16 15:48:17 plex systemd[1]: Mounting Plex Media Server files...
Apr 16 15:48:17 plex mount[118]: mount error(101): Network is unreachable
Apr 16 15:48:17 plex mount[118]: Refer to the mount.cifs(8) manual page (e.g. man mount.cifs) and kernel log messages (dmesg)
Apr 16 15:48:17 plex systemd[1]: mnt-hdseries.mount: Mount process exited, code=exited, status=32/n/a
Apr 16 15:48:17 plex systemd[1]: mnt-hdseries.mount: Failed with result 'exit-code'.
Apr 16 15:48:17 plex systemd[1]: Failed to mount Plex Media Server files.

Op basis van de logs lijkt het erop dat het systeem niet klaar is en het netwerk nog niet beschikbaar.
zodra ik handmatig het commando "systemctl start mnt-hdseries.mount" geef werkt het naar behoren. Iemand een idee?
Is er ook daadwerkelijk een service gedefinieerd in network-online.target? Want als het target leeg is dan zal die ook meteen klaar zijn en dus verder booten en heeft de after / requires geen nut. Dit kun je valideren met systemctl list-dependencies network-online.target. Op mijn PC (Arch) laat dit een "boom" zien met alleen NetworkManager-wait-online.service er in, en op mijn servertje (Debian) systemd-networkd-wait-online.service (maar op een standaard Debian installatie en Proxmox zal het vast anders zijn, want die gebruiken nog een ouderwetse interfaces.d file en niet systemd-networkd waar ikzelf voor gekozen heb).

Edit:
Ik meen trouwens dat systemd slim genoeg is om zelf te bepalen dat dit een mount vanaf een network share is en daarmee automatisch de dependency toe te voegen. Ik gok dus alleen dat systemd niet weet wanneer network-online.target nu daadwerkelijk klaar is en daardoor te vroeg start met de units die er op dependen.

[ Voor 6% gewijzigd door RobertMe op 16-04-2025 16:40 ]


Acties:
  • 0 Henk 'm!

  • Cardinal
  • Registratie: Maart 2002
  • Laatst online: 00:32
RobertMe schreef op woensdag 16 april 2025 @ 16:39:
[...]

Is er ook daadwerkelijk een service gedefinieerd in network-online.target? Want als het target leeg is dan zal die ook meteen klaar zijn en dus verder booten en heeft de after / requires geen nut. Dit kun je valideren met systemctl list-dependencies network-online.target.
code:
1
2
systemctl list-dependencies network-online.target
network-online.target

Acties:
  • +2 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 05:05
Cardinal schreef op woensdag 16 april 2025 @ 16:42:
[...]


code:
1
2
systemctl list-dependencies network-online.target
network-online.target
Dan zit daar dus je probleem :P

In mijn geval:
network-online.target
○ └─NetworkManager-wait-online.service

of dan:
network-online.target
● └─systemd-networkd-wait-online.service


Ik zit alleen even op het Debian systeem te zoeken, maar ik kan daar helemaal niks meer vinden van de Debian standaard interfaces.d opzet v.w.b. systemd service. Maar die zou er wel moeten zijn. En daaraan gerelateerd is er waarschijnlijk ook wel een "wait online" achtige service?

Acties:
  • +2 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
Wat is de output van: systemctl status systemd-networkd

Voor zover ik weet is iets met interfaces.d afkomstig van ifupdown.
En is systemd-networkd iets anders - wat wellicht goed kan samengaan - maar toch.
Het zijn verschillende manieren om een netwerk poortje actief te krijgen.
Elk met hun eigen manier van configureren en hun eigen config bestandjes.

Daarom:
Bestaat er een bestandje genaamd /etc/network/interfaces en wat is hiervan de inhoud?
Of zijn er een of meer config bestandjes in /etc/systemd/network? En wat is hiervan de inhoud?

De eerste wordt gebruikt door ifupdown en de tweede door systemd-networkd.

Ik had een tijdje terug wat rare problemen en heb alles omgezet naar systemd-networkd.
En zowel ifupdown als isc-dhcp-client verwijderd - gevolgd door het activeren van systemd-networkd.
In de systemd-networkd config bestandjes wordt bepaald hoe een interface een IP adres krijgt.

[ Voor 5% gewijzigd door Airw0lf op 16-04-2025 17:38 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Cardinal
  • Registratie: Maart 2002
  • Laatst online: 00:32
@RobertMe @Airw0lf Fixed! *O*

Met dank aan jullie duiding.

code:
1
2
3
4
5
systemctl list-dependencies network-online.target
network-online.target
* |-ifupdown-wait-online.service
* |-networking.service
* `-ping.service
  1. ifupdown bood niet de out-of-the-box oplossing, ik weet niet of ik het moet configureren
  2. ping.service heb ik aangemaakt op basis van systemd.io en een custom script gemaakt dat naar 1.1.1.1 pingt.
Airw0lf schreef op woensdag 16 april 2025 @ 17:17:
Wat is de output van: systemctl status systemd-networkd
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
* systemd-networkd.service - Network Configuration
     Loaded: loaded (/lib/systemd/system/systemd-networkd.service; enabled; vendor preset: enabled)
     Active: active (running) since Wed 2025-04-16 17:27:17 CEST; 8min ago
TriggeredBy: * systemd-networkd.socket
       Docs: man:systemd-networkd.service(8)
   Main PID: 92 (systemd-network)
     Status: "Processing requests..."
      Tasks: 1 (limit: 37898)
     Memory: 2.7M
        CPU: 23ms
     CGroup: /system.slice/systemd-networkd.service
             `-92 /lib/systemd/systemd-networkd

Apr 16 17:27:17 plex systemd[1]: Starting Network Configuration...
Apr 16 17:27:17 plex systemd-networkd[92]: lo: Link UP
Apr 16 17:27:17 plex systemd-networkd[92]: lo: Gained carrier
Apr 16 17:27:17 plex systemd-networkd[92]: Enumeration completed
Apr 16 17:27:17 plex systemd[1]: Started Network Configuration.
Apr 16 17:27:17 plex systemd-networkd[92]: eth0: Link UP
Apr 16 17:27:17 plex systemd-networkd[92]: eth0: Gained carrier
Apr 16 17:27:18 plex systemd-networkd[92]: eth0: Gained IPv6LL
Apr 16 17:27:21 plex systemd-networkd[92]: eth0: DHCPv4 address 192.168.1.12/24 via 192.168.1.1
Apr 16 17:27:22 plex systemd-networkd[92]: Could not set hostname: Access denied

[ Voor 57% gewijzigd door Cardinal op 16-04-2025 17:36 ]


Acties:
  • +2 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
Cardinal schreef op woensdag 16 april 2025 @ 17:35:
@RobertMe @Airw0lf Fixed! *O*

Apr 16 17:27:21 plex systemd-networkd[92]: eth0: DHCPv4 address 192.168.1.12/24 via 192.168.1.1
Mijn 0,500 Euro:
Een fix zou ik het niet willen noemen - eerder een workaround... :+

Je system lijkt via systemd-networkd en dhcp een ip adres te krijgen.
Ik vermoed dat dat proces soms vertraagd is waardoor de interface te laat start.
Met de ping "koop" je wat extra tijd om alles af te ronden.

Voor een "echte" oplossing zou je eigenlijk op zoek moeten naar de oorzaak van de vertraging in de dhcp-afhandeling. Of je geeft het systeem een vast ip adres.

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Beekforel
  • Registratie: November 2001
  • Laatst online: 23:58

Beekforel

Is eigenlijk geen vis

Wanneer ik een mountpoint aan een LXC koppel onder resources, van bijvoorbeeld 25 GB, is er dan een eenvoudige methode om de beschikbare ruimte in de gaten te houden?

Acties:
  • +1 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 21:39
@Beekforel Die mountpoint zie je toch gewoon terug via bijvoorbeeld df -h in de LXC?

Acties:
  • 0 Henk 'm!

  • Beekforel
  • Registratie: November 2001
  • Laatst online: 23:58

Beekforel

Is eigenlijk geen vis

lolgast schreef op woensdag 16 april 2025 @ 21:31:
@Beekforel Die mountpoint zie je toch gewoon terug via bijvoorbeeld df -h in de LXC?
Zeker, maar dat vind ik niet perse heel eenvoudig?

Ik zou het buiten de LXC willen kunnen zien. Ik ben naar CheckMK monitoring aan het kijken, misschien kan ik het daar mee bereiken.

Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 21:39
@Beekforel CheckMK kan het zeker, op meerdere manieren. De eenvoudigste is denk ik door simpelweg de agent te installeren op de LXC, dan rapporteert hij vanzelf o.a. alle disks. Maar dat voelt wel HEEL erg als overkill, of je moet CheckMK toch al hebben draaien..
Een andere optie is wellicht om de locatie als storage toe te voegen aan je proxmox datacenter? Dan zie je met een oplopend wit balkje hoe vol je storage zit?

Acties:
  • 0 Henk 'm!

  • Beekforel
  • Registratie: November 2001
  • Laatst online: 23:58

Beekforel

Is eigenlijk geen vis

@lolgast hm dat kan ik natuurlijk ook doen en dan op elke lxc de size van de locatie ingeven ipv een deel daarvan. Thanks

Acties:
  • 0 Henk 'm!

  • schemert
  • Registratie: April 2009
  • Laatst online: 23-08 13:38
Ik heb een Teclast N20 Pro minipctje met 16GB en daar proxmox opgezet.
Nu heb ik dat na korte tijd t ding niets meer lijkt te doen. Eerst dacht ik dat het de nic was, dus daar de settings van aangepast en ook nog wat in grub erbij gezet obv een blog.
Maar dat helpt niet. Hij loopt nog steeds vast. Als ik m uit mijn serverhokje haal, dan merk ik dat hij niet vastloopt. Nou kan hij bang zijn in het donker, ben ik ook dus ik snap dat wel, maar daar moet hij toch overheen groeien.
het verschil zit erin dat hij op mijn kantoortje ik, m aan een keyboard en scherm hang. In t serverhokje zit alleen een zigbee dongle en utp kabel erin.

Zou t kunnen dat zoon ding vastloopt als die geen keyboad en/of scherm verbonden heeft? De syslog laat helemaal niets zien.

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
@schemert - enig idee van de temperatuur in dat kompjoeterhok?

Wat bedoel je precies met "na korte tijd t ding niets meer lijkt te doen"?
Kun je dan niet meer inloggen via ssh? Werkt een ping ook niet meer?

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • schemert
  • Registratie: April 2009
  • Laatst online: 23-08 13:38
Airw0lf schreef op zaterdag 19 april 2025 @ 21:24:
@schemert - enig idee van de temperatuur in dat kompjoeterhok?

Wat bedoel je precies met "na korte tijd t ding niets meer lijkt te doen"?
Kun je dan niet meer inloggen via ssh? Werkt een ping ook niet meer?
Das niet echt warm. Had gisteren een memtest gedraaid en zag de cpu naar 85C gaan. Daar kon hij makkelijk tegen. Het zal daar 20 graden zijn ofzo, dus warm wordt het niet

net weer even verder getest. Lijkt er op dat als t keyboad er niet opzit, dat de minipc dan lost raakt. De nic knippert nog, dus helemaal foetsie is ie niet, maar op t scherm gebeurt er niets en in de syslog komt ook niets. Dat kan al na 5 minuten

Dit is van zojuist
Apr 19 21:23:34 pve sshd[1327]: pam_unix(sshd:session): session opened for user root(uid=0) by (uid=0)
Apr 19 21:23:34 pve systemd-logind[560]: New session 5 of user root.
Apr 19 21:23:34 pve systemd[1]: Started session-5.scope - Session 5 of User root.
Apr 19 21:23:34 pve sshd[1327]: pam_env(sshd:session): deprecated reading of user environment enabled

Network error: Software caused connection abort

De minipc is van Teclast en dacht miss een bios update, maar op hun site staat helemaal geen software. Laat staan een bios update.

[ Voor 3% gewijzigd door schemert op 19-04-2025 21:30 ]


Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 23:33

Quad

Doof

Wat gebeurt er als je de netwerkkabel er even uit haalt en dan weer koppelt?

Welke versie van PVE heb je draaien?

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • +1 Henk 'm!

  • schemert
  • Registratie: April 2009
  • Laatst online: 23-08 13:38
Quad schreef op zaterdag 19 april 2025 @ 21:56:
Wat gebeurt er als je de netwerkkabel er even uit haalt en dan weer koppelt?

Welke versie van PVE heb je draaien?
Ik heb het gevonden, denk ik. Als er geen toetsenbord verbonden is, dan crasht hij vanuit de bios na een aantal minuten. Geen vast patroon, maar uiteindelijk gaat het mis. Opstarten zonder keyboard gaat mis, starten met keyboard en dan een dag later het keyboard eruit en dan gaat het ook weer mis.
In de bios staat heeeeeel veel, maar geen halt on error, helaas.
Dus, ik heb nog een beetje defect keyboard liggen. Die ga ik dan aan de N20 hangen en dan zal hij blijven draaien.

Dit heeft natuurlijk niets met proxmox te maken. Proxmox zelf heb ik nu een weekje en vind het wel gaaf wat de opties zijn. Ik draaide eerste Virtualbox maar dan is proxmox echt een stuk beter; is ook een echte hypervisor natuurlijk.

Nu ik t issue gevonden heb, kan ik weer verder met mijn andere lijst issues. Dus mensen, wil je een N20 als proxmox pve neerzetten, stop er een keyboard in

Acties:
  • 0 Henk 'm!

  • XyRuS
  • Registratie: Augustus 2002
  • Laatst online: 00:42
schemert schreef op zondag 20 april 2025 @ 16:54:
[...]


Ik heb het gevonden, denk ik. Als er geen toetsenbord verbonden is, dan crasht hij vanuit de bios na een aantal minuten. Geen vast patroon, maar uiteindelijk gaat het mis. Opstarten zonder keyboard gaat mis, starten met keyboard en dan een dag later het keyboard eruit en dan gaat het ook weer mis.
In de bios staat heeeeeel veel, maar geen halt on error, helaas.
Dus, ik heb nog een beetje defect keyboard liggen. Die ga ik dan aan de N20 hangen en dan zal hij blijven draaien.

Dit heeft natuurlijk niets met proxmox te maken. Proxmox zelf heb ik nu een weekje en vind het wel gaaf wat de opties zijn. Ik draaide eerste Virtualbox maar dan is proxmox echt een stuk beter; is ook een echte hypervisor natuurlijk.

Nu ik t issue gevonden heb, kan ik weer verder met mijn andere lijst issues. Dus mensen, wil je een N20 als proxmox pve neerzetten, stop er een keyboard in
Heb je niet nog ergens een logitech receiver over? Stop je die erin om de N20 voor de gek te houden.

Afbeeldingslocatie: https://tweakers.net/i/8sHPw9FCw3BIHnoUZRyarU846Zs=/800x/filters:strip_icc():strip_exif()/f/image/baKTQitwKw8jgzT4IJKyhwzb.jpg?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • schemert
  • Registratie: April 2009
  • Laatst online: 23-08 13:38
is dat een gewone bluetooth receiver? of speciaal voor een keyboard?

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
schemert schreef op zondag 20 april 2025 @ 17:22:
is dat een gewone bluetooth receiver? of speciaal voor een keyboard?
Is een "radio" (niet-bluetooth) transceiver voor keyboard en muis.
Er zijn vele smaken - waaronder ook Dell, Microsoft, Trust, etc.

Wat bedoel je met een "beetje defect" keyboard?

[ Voor 6% gewijzigd door Airw0lf op 20-04-2025 18:19 ]

makes it run like clockwork


Acties:
  • +1 Henk 'm!

  • schemert
  • Registratie: April 2009
  • Laatst online: 23-08 13:38
mijn zoon heeft er cola overheen gegooid
dan doen sommige toetsen t niet meer, dus ideaal voor dit issue. ben nu gaan testen met een usb dongle voor een muis, kijken wat dat doet

Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 23:25
Ik heb een raar probleem met mijn nieuw (2e hands hardware) ingerichte proxmox server.
Ik ben van een NUC met een Intel(R) Core(TM) i5-10210U CPU en 32 GB ram over gegaan naar een Intel(R) Core(TM) i7-7700 CPU oude desktop PC.

Alle VM's en Containers die op de NUC draaide overgezet.
Deze draaide dat eigenlijk prima de load average was rond 0.80 .
Nu is de load van de nieuwe eigenlijk ontzettend instabiel, als ik alle VM's en LXC gewoon hun ding doen zit hij rond de 0.60 - 1.20 constant wisselend maar als ik ook maar iets ga doen in een container ofzo dan schiet hij naar =>2.00

Nu zat ik net een LXC container op te zetten en ineens ging de load richting 9.

Zou toch zeggen dat een desktop i7 dit toch makkelijker doet als die in de NUC.
Kan ook niet zien dat een VM of LXC ineens veel cpu gebruikt.
Enige wat ik kan bedenken is dat ik nu ZFS gebruik en nog maar 24GB ram erin heb.

In de log kan ik niet iets zien wat dit kan veroorzaken.
Iemand een idee ?

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
@ComTech - minder ram kan inderdaad dit soort dingen laten zien.
Maar loop ook de bios eens na - met name op hypervisor/vt instellingen - staan die allemaal aan?

Wat is de output van cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor?

[ Voor 23% gewijzigd door Airw0lf op 20-04-2025 18:32 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • ninjazx9r98
  • Registratie: Juli 2002
  • Laatst online: 22:22
@ComTech Sinds een paar dagen heb ik op een NUC die ik al meer dan een jaar heb draaien 'vanuit het niets' vreemde verschijnselen met CPU load en memory gebruik. Het is een i3 NUC van de 11e generatie met 64GB die tot grofweg vorige week altijd probleemloos gedraaid heeft. Afgelopen vrijdag had ik ineens DNS issues en was de Adguard LXC container niet meer fatsoenlijk te gebruiken/benaderen. Console wilde niet fatsoenlijk openen, shutdown wilde ook niet dus heb deze met een kill uit de lucht geschoten en daarna weer gestart.
Verder niet gekeken, gevalletje domme pech dacht ik.

Vandaag exact hetzelfde probleem, Adguard container niet meer te gebruiken, wil niet stoppen, geen console enz enz. Ingelogd met SSH op de hypervisor zelf en met top een load gezien schommelend tussen de 16 en 17. Grootverbruiker was Adguard en toen besloten om proxmox een volledige reboot te geven. Down brengen van de draaiende VM's en containers duurde een 'eeuwigheid', vooral Adguard duurde lang om down te gaan maar uiteindelijk is de reboot gelukt.
Adguard is pas geupdate, proxmox heeft begin van de maand redelijk wat updates gehad en een paar dagen terug wat perl updates.
Ik heb nu in ieder geval een schoon gestart systeem en ga de komende dagen regelmatig inloggen om te zien of en hoe snel de load weer oploopt. Op dit moment heb of Adguard de boosdoener is/was of een gevolg van iets anders.

Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 23:25
Airw0lf schreef op zondag 20 april 2025 @ 18:29:
@ComTech - minder ram kan inderdaad dit soort dingen laten zien.
Maar loop ook de bios eens na - met name op hypervisor/vt instellingen - staan die allemaal aan?

Wat is de output van cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor?
Ik heb de bios voor het installeren helemaal nagelopen, doe dat altijd ook dingen uitschakelen die toch niet nodig zijn (onboard sound bijvoorbeeld).

output van cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor
performance (8x)


@ninjazx9r98
Ik had wel iets soortgelijks met het overzetten van een LXC container.
Zodra ik die start op de nieuwe proxmox host dan gaat die ook gelijk naar 100% cpu.

Acties:
  • 0 Henk 'm!

  • Leaplasher
  • Registratie: Maart 2025
  • Niet online
Wie o wie heeft voor mij het inzicht met waar ik vastloop op de volgende casus.

Doel is om binnen Proxmox VMs op een aantal verschillende VLANs te draaien.
De fysieke machine draait op VLAN30 - 172.16.30.10
VM1 moet ook in VLAN30
VM2 moet in een VLAN zonder tag (core netwerk).

Op de switch heeft de poort VLAN30 als native VLAN en staat (voor nu) VLAN tagging aan voor all VLANs.

Binnen proxmox heb ik vmbr0 (Linux Brigde) "VLAN aware" aangevinkt (automatisch wordt dan VLAN IDs 2-4094 ingevuld).

VM1 heeft als VLAN Tag "30" - 172.16.30.101
VM2 heeft geen VLAN Tag. - 172.16.1.99

De host is prima te benaderen op z'n IP uit VLAN30.
Geen van de VMs zijn bereikbaar op hun IPs uit de IP ranges van de desbetreffende VLANs.


Wanneer ik 't Native VLAN uitzet op de switch port, zijn de VM's wel bereikbaar, maar de host weer niet.

Welk vinkje/optie mis ik hier?

[ Voor 6% gewijzigd door Leaplasher op 22-04-2025 09:10 ]


Acties:
  • 0 Henk 'm!

  • pc_freak1
  • Registratie: Maart 2018
  • Laatst online: 09-09 20:51
Leaplasher schreef op dinsdag 22 april 2025 @ 09:03:
Wie o wie heeft voor mij het inzicht met waar ik vastloop op de volgende casus.

Doel is om binnen Proxmox VMs op een aantal verschillende VLANs te draaien.
De fysieke machine draait op VLAN30 - 172.16.30.10
VM1 moet ook in VLAN30
VM2 moet in een VLAN zonder tag (core netwerk).

Op de switch heeft de poort VLAN30 als native VLAN en staat (voor nu) VLAN tagging aan voor all VLANs.

Binnen proxmox heb ik vmbr0 (Linux Brigde) "VLAN aware" aangevinkt (automatisch wordt dan VLAN IDs 2-4094 ingevuld).

VM1 heeft als VLAN Tag "30" - 172.16.30.101
VM2 heeft geen VLAN Tag. - 172.16.1.99

De host is prima te benaderen op z'n IP uit VLAN30.
Geen van de VMs zijn bereikbaar op hun IPs uit de IP ranges van de desbetreffende VLANs.


Wanneer ik 't Native VLAN uitzet op de switch port, zijn de VM's wel bereikbaar, maar de host weer niet.

Welk vinkje/optie mis ik hier?
op de switch zul je een trunk poort aan moeten bieden aan je host.
op de interface van de host zul je het vlan moeten taggen, daarmee zou het wel moeten lukken.
( in de volgorde van actie andersom dan beschreven dan wel )

Als je het niet probeert, kun je het sowieso niet.


Acties:
  • 0 Henk 'm!

  • Leaplasher
  • Registratie: Maart 2025
  • Niet online
Dan rest de vraag hoe ik de host interface kan taggen binnen proxmox.
Heb vmbr0.30 (VLAN 30) al aangemaakt. Maakt geen verschil.

Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 09-09 15:31

icecreamfarmer

en het is

Sinds kort een veel krachtigere server die ik nu aan het inrichten ben (HA, OMV, ARR, etc.) maar nu lees ik her en der dat er ook wat mensen zijn die er een Windows 11 VM opzetten.

Ik krijg echter niet gevonden waarom je dat zou doen en wat het voordeel er van is tov een normale Windows pc te gebruiken.

Is dat dan voor als je op vakantie bent en iets met Windows moet doen of zo en alleen een mac bij hebt?

ik zie ik zie wat jij niet ziet


Acties:
  • +1 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 12-09 16:30

Harmen

⭐⭐⭐⭐⭐⭐

icecreamfarmer schreef op dinsdag 22 april 2025 @ 10:45:
Sinds kort een veel krachtigere server die ik nu aan het inrichten ben (HA, OMV, ARR, etc.) maar nu lees ik her en der dat er ook wat mensen zijn die er een Windows 11 VM opzetten.

Ik krijg echter niet gevonden waarom je dat zou doen en wat het voordeel er van is tov een normale Windows pc te gebruiken.

Is dat dan voor als je op vakantie bent en iets met Windows moet doen of zo en alleen een mac bij hebt?
Heb zelf een PopOS! client op mn Proxmox mini pc staan, mocht ik iets willen testen of op afstand willen aanpassen. Virtueel heeft natuurlijk het voordeel dat je deze on demand kan aanzetten en kan herstarten indien nodig.

Whatever.


Acties:
  • 0 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 23:47
Harmen schreef op dinsdag 22 april 2025 @ 10:51:
[...]


Heb zelf een PopOS! client op mn Proxmox mini pc staan, mocht ik iets willen testen of op afstand willen aanpassen. Virtueel heeft natuurlijk het voordeel dat je deze on demand kan aanzetten en kan herstarten indien nodig.
Heb exact hetzelfde, juist om dingen van een vlan, vpn of firewall oid te kunnen testen.

Acties:
  • +1 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 01:51
icecreamfarmer schreef op dinsdag 22 april 2025 @ 10:45:
Sinds kort een veel krachtigere server die ik nu aan het inrichten ben (HA, OMV, ARR, etc.) maar nu lees ik her en der dat er ook wat mensen zijn die er een Windows 11 VM opzetten.

Ik krijg echter niet gevonden waarom je dat zou doen en wat het voordeel er van is tov een normale Windows pc te gebruiken.

Is dat dan voor als je op vakantie bent en iets met Windows moet doen of zo en alleen een mac bij hebt?
Stel, je gebruikt een programma dat alleen op Windows beschikbaar is en je wil het niet op je pc/laptop installeren of je draait geen Windows op je pc/laptop.

Acties:
  • 0 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 05:09
icecreamfarmer schreef op dinsdag 22 april 2025 @ 10:45:
Sinds kort een veel krachtigere server die ik nu aan het inrichten ben (HA, OMV, ARR, etc.) maar nu lees ik her en der dat er ook wat mensen zijn die er een Windows 11 VM opzetten.

Ik krijg echter niet gevonden waarom je dat zou doen en wat het voordeel er van is tov een normale Windows pc te gebruiken.

Is dat dan voor als je op vakantie bent en iets met Windows moet doen of zo en alleen een mac bij hebt?
nieuwe builds testen, gebruik kunnen maken van snapshots om snel terug te kunnen naar een werkende config of omdat je iets moet doen zakelijk wat niet kan op een MacBook.

genoeg redenen, ik draai hier ook een paar Windows 11 en Server 2025 VMs op die miniPC met proxmox om dingen te testen.

A wise man's life is based around fuck you


Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 12-09 08:27
icecreamfarmer schreef op dinsdag 22 april 2025 @ 10:45:
Sinds kort een veel krachtigere server die ik nu aan het inrichten ben (HA, OMV, ARR, etc.) maar nu lees ik her en der dat er ook wat mensen zijn die er een Windows 11 VM opzetten.

Ik krijg echter niet gevonden waarom je dat zou doen en wat het voordeel er van is tov een normale Windows pc te gebruiken.

Is dat dan voor als je op vakantie bent en iets met Windows moet doen of zo en alleen een mac bij hebt?
Ik heb een nieuwe ARM laptop gekocht en daar op werken sommige programma's niet, ben dus blij met een gewone x64 windows versie op proxmox

Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 09-09 15:31

icecreamfarmer

en het is

tomdh76 schreef op dinsdag 22 april 2025 @ 11:40:
[...]


Ik heb een nieuwe ARM laptop gekocht en daar op werken sommige programma's niet, ben dus blij met een gewone x64 windows versie op proxmox
Bedankt voor de antwoorden maar dan zat ik goed met mijn aanname.
Maar werkt dat een beetje fatsoenlijk of is het behelpen en lukt bv het streamen van video's en dergelijke niet?

En je komt er dan in middels Remote desktop?

ik zie ik zie wat jij niet ziet


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
Leaplasher schreef op dinsdag 22 april 2025 @ 10:13:
Dan rest de vraag hoe ik de host interface kan taggen binnen proxmox.
Heb vmbr0.30 (VLAN 30) al aangemaakt. Maakt geen verschil.
Wat bedoel je met "maakt geen verschil"?
Wat had je verwacht?

Een Proxmox server krijgt met een vlan trunk op vmbr0 altijd een pootje in het management vlan.
Standaard is dat vlan-1 en untagged - dit aanpassen kan - maar heeft nogal wat impact... :+

Met een vm of lxc is het een ander verhaal.
Daar bepaal je met de host instellingen op de vm- of lxc-nic wat die gaat doen.

Tag je deze nic, dan is de vm/lxc alleen in dat vlan bereikbaar.
Zo laat ik de home assistant vm alleen meedoen in het iot vlan.

Tag je deze nic niet, dan heb je in de vm/lxc dezelfde mogelijkheden als met de host.
Dit gebruik ik als ik een vm/lxc in 2 of meer vlans bereikbaar wil hebben.
En dat dan naast het management vlan.

Wellicht zijn er nog combinaties te bedenken.
Maar die heb ik tot nu toe blijkbaar niet nodig gehad.

Wel heb ik het aantal vlans op de trunk-poorten beperkt - scheelt weer wat overhead.
Dit doe je door in advanced settings van de host-nic de vlan range op te geven.
Deze range start normaliter met 2... ;)

[ Voor 8% gewijzigd door Airw0lf op 22-04-2025 14:24 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 12-09 08:27
icecreamfarmer schreef op dinsdag 22 april 2025 @ 12:33:
[...]


Bedankt voor de antwoorden maar dan zat ik goed met mijn aanname.
Maar werkt dat een beetje fatsoenlijk of is het behelpen en lukt bv het streamen van video's en dergelijke niet?

En je komt er dan in middels Remote desktop?
Ik heb een monitor hangen aan mijn proxmox server zodat ik daarop gewoon windows kan gebruiken. Maar ik gebruik het ook remotely in een andere kamer op mijn ARM laptop. Hiervoor gebruik ik de combi moonlight met sunshine en kan ik ook prima games streamen naar mijn laptop (in mijn proxmox server heb ik een GTX4060 die ik passthrough naar de windows vm: (https://forum.proxmox.com...aming-setup-guide.137718/)

Acties:
  • 0 Henk 'm!

  • Leaplasher
  • Registratie: Maart 2025
  • Niet online
Airw0lf schreef op dinsdag 22 april 2025 @ 14:11:
[...]


Wat bedoel je met "maakt geen verschil"?
Wat had je verwacht?

Een Proxmox server krijgt met een vlan trunk op vmbr0 altijd een pootje in het management vlan.
Standaard is dat vlan-1 en untagged - dit aanpassen kan - maar heeft nogal wat impact... :+

Met een vm of lxc is het een ander verhaal.
Daar bepaal je met de host instellingen op de vm- of lxc-nic wat die gaat doen.

Tag je deze nic, dan is de vm/lxc alleen in dat vlan bereikbaar.
Zo laat ik de home assistant vm alleen meedoen in het iot vlan.

Tag je deze nic niet, dan heb je in de vm/lxc dezelfde mogelijkheden als met de host.
Dit gebruik ik als ik een vm/lxc in 2 of meer vlans bereikbaar wil hebben.
En dat dan naast het management vlan.

Wellicht zijn er nog combinaties te bedenken.
Maar die heb ik tot nu toe blijkbaar niet nodig gehad.

Wel heb ik het aantal vlans op de trunk-poorten beperkt - scheelt weer wat overhead.
Dit doe je door in advanced settings van de host-nic de vlan range op te geven.
Deze range start normaliter met 2... ;)
Wat ik graag wil is het volgende:

Host in IOT netwerk (VLAN 30). (Fysieke poort van de host)
VM1 in het IOT netwerk (VLAN 30).
VM2 in 't Core Netwerk (VLAN 1)
(en dan later wellicht nog 1 of 2 VM's in andere VLANs).

Ik vermoed dat 't em ergens in de combi switch poort config / tagging van de interfaces zit.

Switch poort op Native VLAN1
Switch poort op Native VLAN30
Switch poort op geen Native VLAN

En dan op deze switchpoort combi's met tagged VLANs (alles, VLANs getagt en/of VLAN30 en/of VLAN1).

Heb al een aantal combi's geprobeerd zonder succes, waarbij dan óf de VM's bereikbaar zijn, óf de host. Maar niet beide, dat laatste is uiteraard de wens. Maar welke combi tot succes leidt, weet ik (nog) niet.


-edit-
Geen idee wat ik nou gedaan heb, maar 't werk nu uiteindelijk.
Zoals het nu staat:

Switch poort op Native VLAN1, met tagged VLAN30
VM1 in VLAN30
VM2 in VLAN1
Host met IP van VLAN30 (vmbr0)

Hele host nog eens een reboot gegeven.
Switch (nog) niet, wil ik nog wel doen om te zien of het ook na een (power) failure blijft leven allemaal.

[ Voor 8% gewijzigd door Leaplasher op 22-04-2025 17:14 ]


Acties:
  • +1 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
Leaplasher schreef op dinsdag 22 april 2025 @ 15:02:
[...]

Wat ik graag wil is het volgende:

Host in IOT netwerk (VLAN 30). (Fysieke poort van de host)
VM1 in het IOT netwerk (VLAN 30).
VM2 in 't Core Netwerk (VLAN 1)
(en dan later wellicht nog 1 of 2 VM's in andere VLANs).

Ik vermoed dat 't em ergens in de combi switch poort config / tagging van de interfaces zit.

Switch poort op Native VLAN1
Switch poort op Native VLAN30
Switch poort op geen Native VLAN

En dan op deze switchpoort combi's met tagged VLANs (alles, VLANs getagt en/of VLAN30 en/of VLAN1).

Heb al een aantal combi's geprobeerd zonder succes, waarbij dan óf de VM's bereikbaar zijn, óf de host. Maar niet beide, dat laatste is uiteraard de wens. Maar welke combi tot succes leidt, weet ik (nog) niet.


-edit-
Geen idee wat ik nou gedaan heb, maar 't werk nu uiteindelijk.
Zoals het nu staat:

Switch poort op Native VLAN1, met tagged VLAN30
VM1 in VLAN30
VM2 in VLAN1
Host met IP van VLAN30 (vmbr0)

Hele host nog eens een reboot gegeven.
Switch (nog) niet, wil ik nog wel doen om te zien of het ook na een (power) failure blijft leven allemaal.
Ok - een paar suggesties:
  • Zie je core netwerk als je management/beheer vlan (vlan-1)
  • Alle overige vlans zijn voor specieke functies of gebruikersgroepen (bijvoorbeeld vlan-30)
  • De host krijgt alleen een (untagged) "pootje" in vlan-1 met bijbehorende ip adres op vmbr0.
  • De host-aansluiting op de switch heeft vlan-1 als native, untagged vlan staan.
  • De switch zet alle vlans tagged door naar de host en andere netwerk apparaten zodat daar alle vlans bekend zijn. Al deze poorten hebben vlan-1 als native/untagged ingesteld staan.
Op deze manier blijft het geheel goed te overzien. En door vlan-1 overal native te zetten is de kans niet zo heel groot dat je jezelf buiten sluit.

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 23:33

Quad

Doof

ThinkPad schreef op zondag 13 april 2025 @ 14:47:
Lijkt erop dat dit het issue is (uit 2019 al schijnbaar, vreemd dat ik er nu met update naar 8.4 pas tegenaan loop): https://forum.proxmox.com...driver-hang.58284/page-13

Apr 13 07:53:19 proxmox kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:


Heb het nu hopelijk opgelost door in /etc/network/interfaces een post-up commando toe te voegen:

Diff:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
auto lo
iface lo inet loopback

iface eno1 inet manual

auto vmbr0
iface vmbr0 inet static
        address 192.168.4.3/24
        gateway 192.168.4.1
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0
+       post-up /sbin/ethtool -K eno1 tso off gso off gro off

source /etc/network/interfaces.d/*


Daarna netwerkkaart herstarten (let op: je systeem verliest kort even de netwerkverbinding):
 ifdown vmbr0 && ifup vmbr0


En checken met ethtool of deze 'off' aangeeft voor tso / gso / gro:
ethtool -k eno1 | grep -E 'tso|gso|gro'


Vanavond maar even kijken of het goed gaat als de backup heeft gedraaid (de bug wordt getriggerd als de netwerkkaart flink belast wordt).
Heb jij hier nog issues mee gehad na je aanpassing?
Ik heb ook een aantal keren sinds de update naar 8.4.x deze foutmelding dat de eno1 hardware Unit Hang melding geeft.
De fix die je geeft en ook wordt genoemd op PVe forum net toegepast, benieuwd of dit enig effect heeft.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • +1 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 20:45
Nee bovenstaande heeft mijn issue opgelost, draait als een trein d:)b

Na 13 april geen meldingen meer in de logs:
journalctl -k | grep -i 'e1000'

Acties:
  • +1 Henk 'm!

  • Room42
  • Registratie: September 2001
  • Niet online
Dit kan een interessante ontwikkeling worden voor GPU passthrough maar ook multi-core vGPU support op Proxmox VE:

"Technological advancements don't feel fun anymore because of the motivations behind so many of them." Bron


Acties:
  • 0 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 06-09 21:51
Willen jullie meekijken wat ik fout doe of beter kan doen?
Ik heb aan de hand van diverse tutorials een OMV shared folder.
Deze mount ik naar proxmox en vanaf daar weer naar een LXC met jellyfin.

De mount tussen OMV en Proxmox verdwijnt na een reboot, dus heb ik een script gemaakt (aan de hand van Youtube)

code:
1
2
3
4
5
6
7
8
9
10
#!/usr/bin/env bash
qm start 106
until [ "$(qm status 106 | awk '{print $2}')" == "running" ];
do
       sleep 2
done
sleep 20
mount -t cifs -o user=USER,password=PW //192.168.1.17/jellyfin /mnt/jellyfin
sleep 20
lxc-start -n 107


Eerst start OMV (VM106)
Daarna een loopje om te zorgen dat OMV draait.
Dan volgt er een mount regel. (deze wordt niet opgepakt na reboot)
En daarna de jellyfin LXC

Als ik de mount regel in de Proxmoxx Shell plak, werkt het.
Als ik de "mount.sh" handmatig draait, werkt alles
Als ik reboot, werkt alleen het opstarten van de VM en LXC. Ofwel, het script draait wel maar de mount doet het niet.

Zit ik op een goed spoor? Maak ik ergens een fout? Kan dit beter of effectiever?

Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 23:06

Cyphax

Moderator LNX
RedRayMann schreef op donderdag 24 april 2025 @ 19:43:
Willen jullie meekijken wat ik fout doe of beter kan doen?
Ik heb aan de hand van diverse tutorials een OMV shared folder.
Deze mount ik naar proxmox en vanaf daar weer naar een LXC met jellyfin.
Is OMV ook een VM ofzo op dezelfde proxmox-machine?

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 06-09 21:51
Cyphax schreef op donderdag 24 april 2025 @ 21:11:
[...]

Is OMV ook een VM ofzo op dezelfde proxmox-machine?
Excuus. Ja.

Op Proxmox heb ik OMV (Open Media Vault) op 192.168.1.17 (VM106)
Ook heb ik er een docker container op 192.168.1.18 (LXC107)
In de docker container draai ik Jellyfinn

Alles op de zelfde machine.

Het "Start at boot" heb ik in de GUI uit gezet, zodat ik kon controleren of dit script werkt. Dat doet het dus deels.

Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 23:06

Cyphax

Moderator LNX
RedRayMann schreef op donderdag 24 april 2025 @ 21:25:
[...]

Excuus. Ja.

Op Proxmox heb ik OMV (Open Media Vault) op 192.168.1.17 (VM106)
Ook heb ik er een docker container op 192.168.1.18 (LXC107)
In de docker container draai ik Jellyfinn

Alles op de zelfde machine.

Het "Start at boot" heb ik in de GUI uit gezet, zodat ik kon controleren of dit script werkt. Dat doet het dus deels.
Ik ben afgestapt van de storage naar buiten toe openzetten via smb, maar ik heb ook lange tijd omv gedraaid en shares gemaakt, maar dan gemount in privileged containers. Ik heb die hele laag er tussenuit gehaald. De data die omv had kwam al van de host, dus ik geef de containers nu bind mounts vanaf de host. Geen afhankelijkheden meer van mount points of containers die al dan niet actief zijn. Ik denk dat dat uiteindelijk de betere weg is. :)

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 06-09 21:51
Cyphax schreef op donderdag 24 april 2025 @ 21:40:
[...]

Ik ben afgestapt van de storage naar buiten toe openzetten via smb, maar ik heb ook lange tijd omv gedraaid en shares gemaakt, maar dan gemount in privileged containers. Ik heb die hele laag er tussenuit gehaald. De data die omv had kwam al van de host, dus ik geef de containers nu bind mounts vanaf de host. Geen afhankelijkheden meer van mount points of containers die al dan niet actief zijn. Ik denk dat dat uiteindelijk de betere weg is. :)
Naar buiten open zetten, bedoel je mee naar buiten de server?
Ik wil nu nog wel de mappen in mijn netwerk zien om data heen te pompen, alles na te lopen en controleren omdat ik lerende ben.

Ik ben blij dat ik eindelijk een share zichtbaar had en in de LXC had gekregen.

Ik kan later kijken naar alternatieven, want zie nu nog niet geheel de werkwijze die jij hanteert.

Eventuele extra infor;
- Odroid H4+
- 1x 265gb NVME boot met Proxmox
- 2x 8tb ssd waar ik nu mee aan het spelen ben om shared folders op te krijgen
- 1x 5tb hdd waar later de "interne backups" komen van belangrijke data

"externe backups" komen later

Acties:
  • 0 Henk 'm!

  • HowsMyApple
  • Registratie: November 2010
  • Laatst online: 22:58
RedRayMann schreef op donderdag 24 april 2025 @ 19:43:
Willen jullie meekijken wat ik fout doe of beter kan doen?
Ik heb aan de hand van diverse tutorials een OMV shared folder.
Deze mount ik naar proxmox en vanaf daar weer naar een LXC met jellyfin.

De mount tussen OMV en Proxmox verdwijnt na een reboot, dus heb ik een script gemaakt (aan de hand van Youtube)

code:
1
2
3
4
5
6
7
8
9
10
#!/usr/bin/env bash
qm start 106
until [ "$(qm status 106 | awk '{print $2}')" == "running" ];
do
       sleep 2
done
sleep 20
mount -t cifs -o user=USER,password=PW //192.168.1.17/jellyfin /mnt/jellyfin
sleep 20
lxc-start -n 107


Eerst start OMV (VM106)
Daarna een loopje om te zorgen dat OMV draait.
Dan volgt er een mount regel. (deze wordt niet opgepakt na reboot)
En daarna de jellyfin LXC

Als ik de mount regel in de Proxmoxx Shell plak, werkt het.
Als ik de "mount.sh" handmatig draait, werkt alles
Als ik reboot, werkt alleen het opstarten van de VM en LXC. Ofwel, het script draait wel maar de mount doet het niet.

Zit ik op een goed spoor? Maak ik ergens een fout? Kan dit beter of effectiever?
Zie mijn post hier, wellicht heb je er wat aan.
Tl;dr is mount in je /etc/fstab toevoegen

Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 23:06

Cyphax

Moderator LNX
RedRayMann schreef op donderdag 24 april 2025 @ 21:57:
[...]

Naar buiten open zetten, bedoel je mee naar buiten de server?
Ik wil nu nog wel de mappen in mijn netwerk zien om data heen te pompen, alles na te lopen en controleren omdat ik lerende ben.
Buiten de container bedoel ik, dat heb ik een beetje onduidelijk geformuleerd. Nee, omdat het allemaal op 1 server bleef heb ik het er tussenuit gehaald. Ik kan via ssh de boel ook nog wel mounten, en je kan iets als WinSCP ook gebruiken voor data-overdracht. :)

Het kan ook losstaan van elkaar; je kunt de storage via omv doen voor binnen je netwerk en bind mounts gebruiken voor je containers. Je bent dan wel af van de noodzaak van dat script. Daar zou ik iig zelf wel vanaf willen als ik in jouw schoenen stond. :)

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 06-09 21:51
HowsMyApple schreef op donderdag 24 april 2025 @ 22:05:
[...]


Zie mijn post hier, wellicht heb je er wat aan.
Tl;dr is mount in je /etc/fstab toevoegen
Super, fijn verwoord. Ik ga er later induiken en proberen. Nu iets te moe na een lange werkdag en dan ga ik fouten maken.
Cyphax schreef op donderdag 24 april 2025 @ 22:12:
[...]

Buiten de container bedoel ik, dat heb ik een beetje onduidelijk geformuleerd. Nee, omdat het allemaal op 1 server bleef heb ik het er tussenuit gehaald. Ik kan via ssh de boel ook nog wel mounten, en je kan iets als WinSCP ook gebruiken voor data-overdracht. :)

Het kan ook losstaan van elkaar; je kunt de storage via omv doen voor binnen je netwerk en bind mounts gebruiken voor je containers. Je bent dan wel af van de noodzaak van dat script. Daar zou ik iig zelf wel vanaf willen als ik in jouw schoenen stond. :)
Ik vond het script ook niet echt de beste oplossing, maar heb het geprobeerd. Ook om te leren hoe sommige zaken werken.
Ik ga de how-to van @HowsMyApple volgen en kijken of ik dat aan de praat krijg.

Begrijp ik dat bij jou de container direct toegang heeft tot een schijf en daar dus ook direct zijn data opslaat/ vanaf haalt? Wel sneller en directer. Maar dan werk je weer met privileged containers, daar lees ik ook weer dubbele verhalen over.
En als ik het weer mis heb, ga ik later uitzoeken wat je bedoelt. Eerst de post van @HowsMyApple uitzoeken en proberen.

In ieder geval bedankt voor de duwtjes in de rug.

Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 23:06

Cyphax

Moderator LNX
RedRayMann schreef op donderdag 24 april 2025 @ 22:28:
[...]

Begrijp ik dat bij jou de container direct toegang heeft tot een schijf en daar dus ook direct zijn data opslaat/ vanaf haalt? Wel sneller en directer.
Ja precies, de mapping voor toegang is dan op userid.
Maar dan werk je weer met privileged containers, daar lees ik ook weer dubbele verhalen over.
En als ik het weer mis heb, ga ik later uitzoeken wat je bedoelt. Eerst de post van @HowsMyApple uitzoeken en proberen.
Die bind mounts werken gewoon met unprivileged containers. :)

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

RedRayMann schreef op donderdag 24 april 2025 @ 19:43:
Willen jullie meekijken wat ik fout doe of beter kan doen?
Ik heb aan de hand van diverse tutorials een OMV shared folder.
Deze mount ik naar proxmox en vanaf daar weer naar een LXC met jellyfin.

De mount tussen OMV en Proxmox verdwijnt na een reboot, dus heb ik een script gemaakt (aan de hand van Youtube)

code:
1
2
3
4
5
6
7
8
9
10
#!/usr/bin/env bash
qm start 106
until [ "$(qm status 106 | awk '{print $2}')" == "running" ];
do
       sleep 2
done
sleep 20
mount -t cifs -o user=USER,password=PW //192.168.1.17/jellyfin /mnt/jellyfin
sleep 20
lxc-start -n 107


Eerst start OMV (VM106)
Daarna een loopje om te zorgen dat OMV draait.
Dan volgt er een mount regel. (deze wordt niet opgepakt na reboot)
En daarna de jellyfin LXC

Als ik de mount regel in de Proxmoxx Shell plak, werkt het.
Als ik de "mount.sh" handmatig draait, werkt alles
Als ik reboot, werkt alleen het opstarten van de VM en LXC. Ofwel, het script draait wel maar de mount doet het niet.

Zit ik op een goed spoor? Maak ik ergens een fout? Kan dit beter of effectiever?
Is dit de manier waarop je de storage mount? Zo ja, waarom heb je dit niet via de Proxmox GUI gedaan? Desnoods via fstab?

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 06-09 21:51
orvintax schreef op vrijdag 25 april 2025 @ 11:20:
[...]

Is dit de manier waarop je de storage mount? Zo ja, waarom heb je dit niet via de Proxmox GUI gedaan? Desnoods via fstab?
Ik zag door de bomen het bos niet meer. Heb uiteindelijk een youtube kanaal gebruikt om mij te verdiepen in OMV en hoe dit te gebruiken.
Die gebruikte dit script. Omdat ik het niet mooi vind én het niet werkte, heb ik hier gevraagd wat alternatieven zijn.

Ik heb nu de fstab-post van @HowsMyApple gevolgd en nu vind er een reboot plaats. Ben benieuwd of ik het goed heb gedaan en of alles werkt. De stappen zijn erg simpel dus hoor van wel.

Klopt het dat ik voor elke regel die ik toevoeg een ander credentials bestand moet maken?

En op de vraag waarom niet via de GUI?
Eerst heb ik een PCI passthrough geprobeerd, daarna via GUI mappen aan containers proberen te krijgen, echter ik heb het idee dat ik dan vaste groottes moest meegeven.

Hoe ik het nu heb gedaan is de volledige ssd naar OMV en hebben de folders geen vaste maat.

Maar ook hier, lerende en lees graag alternatieven.

--edit--

aanpassing van fstab werkt, alleen moet ik nu elke keer mount -a doen na een reboot. Eens kijken of ik dit kan automatiseren

[ Voor 5% gewijzigd door RedRayMann op 26-04-2025 16:27 ]


Acties:
  • 0 Henk 'm!

  • Dutchess_Nicole
  • Registratie: Augustus 2001
  • Laatst online: 12-09 18:25
RedRayMann schreef op zaterdag 26 april 2025 @ 15:58:
[...]

Ik zag door de bomen het bos niet meer. Heb uiteindelijk een youtube kanaal gebruikt om mij te verdiepen in OMV en hoe dit te gebruiken.
Die gebruikte dit script. Omdat ik het niet mooi vind én het niet werkte, heb ik hier gevraagd wat alternatieven zijn.

Ik heb nu de fstab-post van @HowsMyApple gevolgd en nu vind er een reboot plaats. Ben benieuwd of ik het goed heb gedaan en of alles werkt. De stappen zijn erg simpel dus hoor van wel.

Klopt het dat ik voor elke regel die ik toevoeg een ander credentials bestand moet maken?

En op de vraag waarom niet via de GUI?
Eerst heb ik een PCI passthrough geprobeerd, daarna via GUI mappen aan containers proberen te krijgen, echter ik heb het idee dat ik dan vaste groottes moest meegeven.

Hoe ik het nu heb gedaan is de volledige ssd naar OMV en hebben de folders geen vaste maat.

Maar ook hier, lerende en lees graag alternatieven.

--edit--

aanpassing van fstab werkt, alleen moet ik nu elke keer mount -a doen na een reboot. Eens kijken of ik dit kan automatiseren
Zorg dat je in de flags voor die mountpoint de optie `auto` meeneemt. Dan wordt die automatisch gemount.

ex:
code:
1
dev/disk/by-id/usb-JMicron_Generic_0123456789ABCDEF-0:0 /mnt/usb-JMicron_Generic_0123456789ABCDEF-0:0 auto nosuid,nodev,nofail,noauto,x-gvfs-show 0 0


Er staan 2 auto's hier. De eerste is het type filesystem dat het OS moet gebruiken (hier dus zoek het maar uit) en de tweede is in dit geval noauto wat het omgekeerde betekent van wat jij wilt. Jij zou daar auto willen hebben

Kia E-Niro 2019 Executiveline. OTGW/HA Enthousiasteling.


Acties:
  • 0 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 06-09 21:51
Dutchess_Nicole schreef op zondag 27 april 2025 @ 14:05:
[...]


Zorg dat je in de flags voor die mountpoint de optie `auto` meeneemt. Dan wordt die automatisch gemount.

ex:
code:
1
dev/disk/by-id/usb-JMicron_Generic_0123456789ABCDEF-0:0 /mnt/usb-JMicron_Generic_0123456789ABCDEF-0:0 auto nosuid,nodev,nofail,noauto,x-gvfs-show 0 0


Er staan 2 auto's hier. De eerste is het type filesystem dat het OS moet gebruiken (hier dus zoek het maar uit) en de tweede is in dit geval noauto wat het omgekeerde betekent van wat jij wilt. Jij zou daar auto willen hebben
Dit lijkt niet te werken. Kan dat komen dat tijdens boot de OMV VM nog niet acties is en dus de mount niet mogelijk is omdat de share niet online is?

(Ben nu verder aan het zoeken)

--edit--
Heb snel mijn vraag in ChatGPT gegooid
Puur om snel te controleren of mijn basis ok is. Hij adviseert het volgende "nofail,x-systemd.automount,_netdev"

[ Voor 9% gewijzigd door RedRayMann op 28-04-2025 20:30 ]


Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 23:06

Cyphax

Moderator LNX
RedRayMann schreef op maandag 28 april 2025 @ 20:27:
[...]

Dit lijkt niet te werken. Kan dat komen dat tijdens boot de OMV VM nog niet acties is en dus de mount niet mogelijk is omdat de share niet online is?
fstab is eerder aan de beurt dan die containers. Met noauto kan je voorkomen dat ie daarop blijft hangen maar moet je na elke boot handmatig dat punt mounten (het is dan genoeg om "mount /mnt/mountpoint" te doen), dat gebeurt niet meer automatisch.
Ik raad nog steeds af om je host zo afhankelijk te maken van een van z'n vms/containers, om dit soort redenen. Het mondt vaak uit in een houtje-touwtjeoplossing die foutgevoelig is, en erger: waarvan je over een tijd bent vergeten dat je dit had gedaan, of hoe je het ook weer had gedaan. Ik zou vreselijk hard liegen als ik zei dat ik niet sprak uit ervaring :)

[ Voor 3% gewijzigd door Cyphax op 28-04-2025 20:52 ]

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • RedRayMann
  • Registratie: Maart 2005
  • Laatst online: 06-09 21:51
Cyphax schreef op maandag 28 april 2025 @ 20:49:
[...]

fstab is eerder aan de beurt dan die containers. Met noauto kan je voorkomen dat ie daarop blijft hangen maar moet je na elke boot handmatig dat punt mounten (het is dan genoeg om "mount /mnt/mountpoint" te doen), dat gebeurt niet meer automatisch.
Ik raad nog steeds af om je host zo afhankelijk te maken van een van z'n vms/containers, om dit soort redenen. Het mondt vaak uit in een houtje-touwtjeoplossing die foutgevoelig is, en erger: waarvan je over een tijd bent vergeten dat je dit had gedaan, of hoe je het ook weer had gedaan. Ik zou vreselijk hard liegen als ik zei dat ik niet sprak uit ervaring :)
Begrijpelijk. Ik merk de laatste dagen dat er mooiere oplossingen zijn.
Voor nu dit werkbaar voor mij. Ga wel op zoek naar alternatieven.

Verbruik is blijft wel netjes naar mijn idee. (Terug OT)
Rond de 5 watt

Incl de volgende LXC's;
Unifi, AdGuard, NGINX Proxy Manager, Vaultwarden, Actual Budget, Docker (Portainer, JellyFin)
En de volgende VM's;
Home Assistant, OMV

--edit--

Ik zie nu pas dat ik in het Proxmox topic zat en niet het zuinige server topic :)
Maar alsnog ter info, ik zit rond de 5 watt

[ Voor 5% gewijzigd door RedRayMann op 28-04-2025 22:29 ]


Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

RedRayMann schreef op zaterdag 26 april 2025 @ 15:58:
[...]

Ik zag door de bomen het bos niet meer. Heb uiteindelijk een youtube kanaal gebruikt om mij te verdiepen in OMV en hoe dit te gebruiken.
Die gebruikte dit script. Omdat ik het niet mooi vind én het niet werkte, heb ik hier gevraagd wat alternatieven zijn.

Ik heb nu de fstab-post van @HowsMyApple gevolgd en nu vind er een reboot plaats. Ben benieuwd of ik het goed heb gedaan en of alles werkt. De stappen zijn erg simpel dus hoor van wel.

Klopt het dat ik voor elke regel die ik toevoeg een ander credentials bestand moet maken?

En op de vraag waarom niet via de GUI?
Eerst heb ik een PCI passthrough geprobeerd, daarna via GUI mappen aan containers proberen te krijgen, echter ik heb het idee dat ik dan vaste groottes moest meegeven.

Hoe ik het nu heb gedaan is de volledige ssd naar OMV en hebben de folders geen vaste maat.

Maar ook hier, lerende en lees graag alternatieven.

--edit--

aanpassing van fstab werkt, alleen moet ik nu elke keer mount -a doen na een reboot. Eens kijken of ik dit kan automatiseren
Begrijpelijk, maar ik denk dat in jouw situatie wel makkelijk is om het via de Proxmox GUI te doen. Die regelt ook het automatisch mounten voor je. :)

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • Beekforel
  • Registratie: November 2001
  • Laatst online: 23:58

Beekforel

Is eigenlijk geen vis

Ik heb sinds kort een Ugreen dxp2800 waarop ik Proxmox PVE heb geïnstalleerd. 2 x 2 TB nvme in ZFS voor de containers en vm's en 2 x 10 TB als storagepool (ook ZFS).

In mijn vorige setup had ik relatief veel gecentraliseerd naar smb/nfs shares via een fileserver maar heb nu voor een andere strategie gekozen. Een aantal dingen laat ik via fileshares lopen, wanneer er meer dan 1 container bij deze data moet (Plex, Arr, etc) en de rest sla ik op in volumes die ik aan de lxc koppel (in geval van m'n Docker host zijn dat volumes per service).

De bedoeling is om elke nacht een backup te maken naar m'n oude NAS, via een Proxmox backupjob die snapshots naar deze NAS zet (die idealiter wat verder weg staat dan naast de Promxox server, maar dat komt nog wel :+ ).
Voor m'n Vaultwarden overweeg ik nog een extra applicatieve backup op te zetten, misschien nog voor andere zaken ook, om zo niet volledig afhankelijk te zijn van Proxmox.

Hebben jullie nog tips voor verdere verbetering van backups? Ik heb recent een kapotte disk gehad en toen bleek ik het niet goed op orde te hebben dus ik wil nu wel even doorpakken om dit te verbeteren.

Acties:
  • +1 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 23:06

Cyphax

Moderator LNX
Beekforel schreef op dinsdag 29 april 2025 @ 20:56:
Hebben jullie nog tips voor verdere verbetering van backups? Ik heb recent een kapotte disk gehad en toen bleek ik het niet goed op orde te hebben dus ik wil nu wel even doorpakken om dit te verbeteren.
Als je een tweede datastore aan pbs toevoegt die wijst naar een tweede plek, dan kan je pbs zelf de mirror laten regelen. Die van mij backupt naar de host in eerste instantie en pbs zorgt zelf voor een mirror op een nas.

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • Beekforel
  • Registratie: November 2001
  • Laatst online: 23:58

Beekforel

Is eigenlijk geen vis

Cyphax schreef op dinsdag 29 april 2025 @ 21:00:
[...]

Als je een tweede datastore aan pbs toevoegt die wijst naar een tweede plek, dan kan je pbs zelf de mirror laten regelen. Die van mij backupt naar de host in eerste instantie en pbs zorgt zelf voor een mirror op een nas.
Ah dat is een goeie tip. Ik had al wel eens wat getest met PBS op een los pc'tje maar kan deze natuurlijk ook virtueel draaien bovenop PVE. :9

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 23:33

Quad

Doof

Beekforel schreef op dinsdag 29 april 2025 @ 21:25:
[...]

Ah dat is een goeie tip. Ik had al wel eens wat getest met PBS op een los pc'tje maar kan deze natuurlijk ook virtueel draaien bovenop PVE. :9
Gebruik de LXC via de community scripts voor weinig overhead. Werkt bij mij feilloos.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • +1 Henk 'm!

  • Beekforel
  • Registratie: November 2001
  • Laatst online: 23:58

Beekforel

Is eigenlijk geen vis

Quad schreef op dinsdag 29 april 2025 @ 21:43:
[...]

Gebruik de LXC via de community scripts voor weinig overhead. Werkt bij mij feilloos.
Zeker, ik ben groot fan van de Community Scripts.

Acties:
  • 0 Henk 'm!

  • sailor_dg
  • Registratie: Januari 2019
  • Laatst online: 12-09 18:17
Hoe doe je disaster recovery in dit geval? Stel je hele PVE gaat down dus ook je PBS LXC. Hoe recovery je nu je node. De mirror op je NAS is niet direct leesbaar voor een nieuwe PVE setup?

Ik had zelf een PBS draaien bij Oracle voor daily backups en een tweede PBS op een lokale tweede server die 1x per week aanging. Deze had de datastore op een NFS share staan en terwijl dit niet ondersteund is werkte dit mwah. Wellicht ga ik toch weer terug naar rechtstreeks naar NFS.

All-electric | Deye 12KSG04LP3 met 2x Yixiang V2, 32x MB31 314 Ah | Panasonic Aquarea J 5kW | Tesla MY, SmartEVSE | 5.2 kWp PV | Proxmox met HomeAssistant, Docker host, PfSense, TrueNas & Mailcow


Acties:
  • +1 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 23:06

Cyphax

Moderator LNX
sailor_dg schreef op woensdag 30 april 2025 @ 08:07:
Hoe doe je disaster recovery in dit geval? Stel je hele PVE gaat down dus ook je PBS LXC. Hoe recovery je nu je node. De mirror op je NAS is niet direct leesbaar voor een nieuwe PVE setup?
Ik heb een tweede node met een pbs lxc, die kan bij de backups van de nas. Die kan ie wel degelijk inlezen. Als de eerste node ermee ophoudt kan ik die container starten en dan op die manier bij de backups. Da's in elk geval het idee. :+

Nog mooier zou eigenlijk zijn om pbs los te draaien op een pi ofzo met z'n eigen storage maar dan heb je weer extra hardware met energieverbruik en dat staat me dan ook weer tegen. Ik zou ook de tweede lxc z'n eigen storage kunnen geven en er dan een "echte" tweede pbs-instantie van maken maar dan moet ik die ruimte ergens vandaan zien te halen.

[ Voor 24% gewijzigd door Cyphax op 30-04-2025 09:08 ]

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 23:33

Quad

Doof

Cyphax schreef op woensdag 30 april 2025 @ 09:05:
[...]

Ik heb een tweede node met een pbs lxc, die kan bij de backups van de nas. Die kan ie wel degelijk inlezen. Als de eerste node ermee ophoudt kan ik die container starten en dan op die manier bij de backups. Da's in elk geval het idee. :+

Nog mooier zou eigenlijk zijn om pbs los te draaien op een pi ofzo met z'n eigen storage maar dan heb je weer extra hardware met energieverbruik en dat staat me dan ook weer tegen. Ik zou ook de tweede lxc z'n eigen storage kunnen geven en er dan een "echte" tweede pbs-instantie van maken maar dan moet ik die ruimte ergens vandaan zien te halen.
Ik heb PBS als VM op mijn Synology gehad. Maar de prestaties vielen toch iets tegen.
In het geval van een DR zou je op de nieuwe installatie een tijdelijke PBS kunnen uitvoeren om de (PBS) LXC('s) en VMs te herstellen.

Als je bijvoorbeeld Veeam BR gebruikt is dat ook gewoon de manier bij ESXi.

[ Voor 4% gewijzigd door Quad op 30-04-2025 09:33 ]

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • Beekforel
  • Registratie: November 2001
  • Laatst online: 23:58

Beekforel

Is eigenlijk geen vis

Ja de storage is uiteindelijk gewoon de backup, de PBS instance niet meer dan een hulpmiddel.

Ik ga bekijken of ik m'n oude nas kan voorzien van PBS, dan is het mooi los van elkaar.

Bedacht wel dat ik nog wat moet bedenken voor de backup van configuratie van de pve server.

Acties:
  • +1 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 12-09 11:32
Beekforel schreef op woensdag 30 april 2025 @ 09:59:
Ja de storage is uiteindelijk gewoon de backup, de PBS instance niet meer dan een hulpmiddel.

Ik ga bekijken of ik m'n oude nas kan voorzien van PBS, dan is het mooi los van elkaar.

Bedacht wel dat ik nog wat moet bedenken voor de backup van configuratie van de pve server.
Ik weet niet of je hele specifieke dingen doet met je PVE, maar bij mijn laatste crash, vergde het kopen en inbouwen van de schijf meer tijd dan het weer laten draaien van een PVE (wel wat tijd nodig om de VM en PXC terug te zetten).
Ik draai een pbs op mijn nas in een VM.

Acties:
  • +3 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 21:39
Ik backup gewoon vanuit Proxmox naar een USB-disk en Backblaze. 2 VM’s en 15 LXC’s met een retentie van 3 backups, gaat om 240GB ofzo. Ik heb 1 keer moeten restoren en dat is eigenlijk ook zo simpel als importeren en starten..
Enige waar ik PBS voor zou overwegen is de deduplicatie en incremental backups, maar met de kosten van een GB ga ik de moeite niet nemen

[ Voor 7% gewijzigd door lolgast op 30-04-2025 10:35 ]


Acties:
  • 0 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 23:47
Iemand al eens bezig geweest met de firewall in Proxmox en dan juist het IPv6 gedeelte?
Het lukt mij nog niet echt op basis van IPv6 bepaalde poorten bereikbaar te maken nml.

Ik kom ook bij protocol de volgende tegen: ipv6, ipv6-route, ipv6-frag, ipv6-icmp, ipv6-nonxt en ipv6-opts

Als ik bij protocol iets anders invul dan ipv6-icmp van bovenste waardes en een destination port benoem, krijg ik altijd de melding:
dport: protocol 'ipv6' does not support ports
Heb wel gezocht, maar heb tot nu toe niet veel posts gevonden die bruikbaar waren.

Acties:
  • 0 Henk 'm!

  • sailor_dg
  • Registratie: Januari 2019
  • Laatst online: 12-09 18:17
lolgast schreef op woensdag 30 april 2025 @ 10:33:
Ik backup gewoon vanuit Proxmox naar een USB-disk en Backblaze. 2 VM’s en 15 LXC’s met een retentie van 3 backups, gaat om 240GB ofzo. Ik heb 1 keer moeten restoren en dat is eigenlijk ook zo simpel als importeren en starten..
Enige waar ik PBS voor zou overwegen is de deduplicatie en incremental backups, maar met de kosten van een GB ga ik de moeite niet nemen
Ik kom hier eigenlijk ook weer op terug, PBS is leuk maar eigenlijk alleen extra complexiteit. Heb twee keer volledig moeten recoveren en deed dat toen van een oud Nasje die op een NFS share de backups had staan. Werkte perfect, ook het aanpassen van de PVE config was snel handmatig gedaan. Wat ik nooit meer vergeet is het vinkje VLAN aware aan te zetten, dat heeft wat uren gekost.

All-electric | Deye 12KSG04LP3 met 2x Yixiang V2, 32x MB31 314 Ah | Panasonic Aquarea J 5kW | Tesla MY, SmartEVSE | 5.2 kWp PV | Proxmox met HomeAssistant, Docker host, PfSense, TrueNas & Mailcow


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
lolgast schreef op woensdag 30 april 2025 @ 10:33:
Ik backup gewoon vanuit Proxmox naar een USB-disk en Backblaze. 2 VM’s en 15 LXC’s met een retentie van 3 backups, gaat om 240GB ofzo. Ik heb 1 keer moeten restoren en dat is eigenlijk ook zo simpel als importeren en starten..
Enige waar ik PBS voor zou overwegen is de deduplicatie en incremental backups, maar met de kosten van een GB ga ik de moeite niet nemen
Hoe heb je dat met Blackblaze aangepakt?

makes it run like clockwork


Acties:
  • +1 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 21:39
Airw0lf schreef op woensdag 30 april 2025 @ 21:52:
[...]


Hoe heb je dat met Blackblaze aangepakt?
Die upload ik via Duplicati (in een LXC). Volgens mij is daar tegenwoordig een community script voor.

Acties:
  • 0 Henk 'm!

  • Beekforel
  • Registratie: November 2001
  • Laatst online: 23:58

Beekforel

Is eigenlijk geen vis

htca schreef op woensdag 30 april 2025 @ 10:22:
[...]

Ik weet niet of je hele specifieke dingen doet met je PVE, maar bij mijn laatste crash, vergde het kopen en inbouwen van de schijf meer tijd dan het weer laten draaien van een PVE (wel wat tijd nodig om de VM en PXC terug te zetten).
Ik draai een pbs op mijn nas in een VM.
Ongemerkt toch best wat kleine dingetjes die ik niet allemaal even netjes registreer of onthoud. Configuratie van mail, opstartvolgorde (of zit dat wel in de backup?), powertop, wat crontab, vast nog wel meer.

Ik verwacht niet volgende week een rebuild te moeten doen maar pas over een aantal jaar. Dan heb ik het meeste niet meer scherp.

Acties:
  • +3 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 23:06

Cyphax

Moderator LNX
Beekforel schreef op donderdag 1 mei 2025 @ 07:11:
[...]
Dan heb ik het meeste niet meer scherp.
Dit is sowieso altijd een vervelend probleem. Ik zet alles in notities bij de containers/vm's. Die komen in de configuratie van de container terecht als commentaar, in /etc/pve/lxc/id.conf, en de UI van Proxmox ondersteunt markdown en html.
Dus als je die backupt hou je ook die notities erbij. :)

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 12-09 11:32
Cyphax schreef op donderdag 1 mei 2025 @ 09:17:
[...]

Dit is sowieso altijd een vervelend probleem. Ik zet alles in notities bij de containers/vm's. Die komen in de configuratie van de container terecht als commentaar, in /etc/pve/lxc/id.conf, en de UI van Proxmox ondersteunt markdown en html.
Dus als je die backupt hou je ook die notities erbij. :)
Dat doe ik inderdaad ook, ik meen me te herinneren dat de opstart sequence (lees vertraging bij opstarten) ook in de vm/lxc backup mee gaat.
Maar voor specifieke cron en instellingen op pve niveau heb je daar niet zoveel aan. Ik doe zo min mogelijk op de pve en hou die zo clean mogelijk

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
lolgast schreef op woensdag 30 april 2025 @ 23:06:
[...]

Die upload ik via Duplicati (in een LXC). Volgens mij is daar tegenwoordig een community script voor.
En dat dan met de PVE backup disk (of folder) ln een RO bind mount in die Duplicati-LXC?

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 21:39
Airw0lf schreef op donderdag 1 mei 2025 @ 09:34:
[...]


En dat dan met de PVE backup disk (of folder) ln een RO bind mount in die Duplicati-LXC?
Ik gebruik een readonly mountpoint om de backup data vanuit Duplicati te kunnen zien inderdaad

Acties:
  • 0 Henk 'm!

  • Beekforel
  • Registratie: November 2001
  • Laatst online: 23:58

Beekforel

Is eigenlijk geen vis

Het kost een avondje prutsen maar m'n 15 (!!) jaar oude QNAP draait nu Proxmox Backup Server. Met 1GB geheugen wel wat krapjes dus daar heb ik nog wat uitbreiding voor besteld maar verder primadeluxe zo.

De disken moet ik wellicht wel even in de gaten gaan houden, die zijn denk ik ook al zo oud (en hebben inmiddels zo'n 4,5 jaar draaiuren).

[edit]Ok misschien toch wat te traag:
[code]INFO: processed 248.647 GiB in 6h 11m 0s, uploaded 241.35 GiB[/]

100 mbit gaat idd niet zo snel. :X

[ Voor 18% gewijzigd door Beekforel op 04-05-2025 22:02 ]


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
Beekforel schreef op dinsdag 29 april 2025 @ 20:56:
Ik heb sinds kort een Ugreen dxp2800 waarop ik Proxmox PVE heb geïnstalleerd.

[...]
Wat heb je precies gedaan om dat voor elkaar te krijgen?

Ik overweeg namelijk hetzelfde te gaan doen.
Met daarnaast een tweede in een 4-bay uitvoering.

makes it run like clockwork


Acties:
  • +2 Henk 'm!

  • Beekforel
  • Registratie: November 2001
  • Laatst online: 23:58

Beekforel

Is eigenlijk geen vis

Airw0lf schreef op zondag 4 mei 2025 @ 08:47:
[...]


Wat heb je precies gedaan om dat voor elkaar te krijgen?

Ik overweeg namelijk hetzelfde te gaan doen.
Met daarnaast een tweede in een 4-bay uitvoering.
Booten van usb en installeren. :D

Beschrijving in Duits: https://ugreen-forum.de/f...ion-proxmox-8-2-tutorial/

Acties:
  • +1 Henk 'm!

  • Robbie-1
  • Registratie: Februari 2020
  • Laatst online: 07-07 20:16
Ik ben al jaren een redelijk tevreden ESXi gebruiker, maar denk er nu toch over om te migreren naar proxmox.
Volgens mij zijn daar o.a. de auto back-up mogelijkheden standaard goed geregeld. Bij ESXi moet dat met een best ingewikkeld script.
Ik heb een Intel NUC met een SSD voor mijn standaard images, en een HDD als back-up.
ESXi zelf draait op een USB-stick.

De migratie is best wel spannend, ik ben best afhankelijk van de images, dus wil dat veilig doen.
Ik zou een SanDisk Extreme Portable SSD willen gebruiken om Proxmox op te installeren. Ik weet dat een "normale" USB niet ondersteund wordt, maar zo'n Sandisk moet toch kunnen?

Ik maak een copy van de VM-images, en importeer deze dan in Proxmox. Als alles goed werkt, kunnen de oude VM-images weg.
Mocht het toch niet goed werken, zou theoretisch eenvoudig mijn USB-stick met ESXi terug kunnen, en zou alles weer moeten werken.

Gaat dit zo werken?

Acties:
  • +1 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 20:45
Quad schreef op woensdag 30 april 2025 @ 09:31:
[...]
Als je bijvoorbeeld Veeam BR gebruikt is dat ook gewoon de manier bij ESXi.
Vergeet Veeam Backup & Replication Community Edition niet, gratis versie die ook gewoon Proxmox ondersteunt. Je kunt er max. 10 VM's mee backuppen maar dat is voor thuis zat.

Enige nadeel is dat je er een Windows machine (ik draai het in een VM) voor moet optuigen (ik gebruik Windows Server in evaluation mode). Ik heb m'n Synology NAS als NFS-target in Veeam gekoppeld, werkt als een trein! PBS heb ik bekeken maar vond ik te gebruiksonvriendelijk werken.

Acties:
  • 0 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 05:09
Robbie-1 schreef op zondag 4 mei 2025 @ 19:08:
Ik ben al jaren een redelijk tevreden ESXi gebruiker, maar denk er nu toch over om te migreren naar proxmox.
Volgens mij zijn daar o.a. de auto back-up mogelijkheden standaard goed geregeld. Bij ESXi moet dat met een best ingewikkeld script.
Ik heb een Intel NUC met een SSD voor mijn standaard images, en een HDD als back-up.
ESXi zelf draait op een USB-stick.

De migratie is best wel spannend, ik ben best afhankelijk van de images, dus wil dat veilig doen.
Ik zou een SanDisk Extreme Portable SSD willen gebruiken om Proxmox op te installeren. Ik weet dat een "normale" USB niet ondersteund wordt, maar zo'n Sandisk moet toch kunnen?

Ik maak een copy van de VM-images, en importeer deze dan in Proxmox. Als alles goed werkt, kunnen de oude VM-images weg.
Mocht het toch niet goed werken, zou theoretisch eenvoudig mijn USB-stick met ESXi terug kunnen, en zou alles weer moeten werken.

Gaat dit zo werken?
installatie op externe USB disk moet werken, zelf nog nooit gedaan maar er is iemand op YouTube die er een filmpje van heeft gemaakt waarin het werkend te krijgen is.

A wise man's life is based around fuck you


Acties:
  • +1 Henk 'm!

  • RailHenk87
  • Registratie: September 2018
  • Laatst online: 12-09 16:19
Robbie-1 schreef op zondag 4 mei 2025 @ 19:08:

Ik zou een SanDisk Extreme Portable SSD willen gebruiken om Proxmox op te installeren. Ik weet dat een "normale" USB niet ondersteund wordt, maar zo'n Sandisk moet toch kunnen?
Ik draai het hier in test op 2 sata SSD’s in elk een eigen externe behuizing in ZFS raid1 opstelling via usb3.0 op een Proliant DL360 Gen10.
Werkt prima!

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
Robbie-1 schreef op zondag 4 mei 2025 @ 19:08:
Ik ben al jaren een redelijk tevreden ESXi gebruiker, maar denk er nu toch over om te migreren naar proxmox.
Volgens mij zijn daar o.a. de auto back-up mogelijkheden standaard goed geregeld. Bij ESXi moet dat met een best ingewikkeld script.
Ik heb een Intel NUC met een SSD voor mijn standaard images, en een HDD als back-up.
ESXi zelf draait op een USB-stick.

De migratie is best wel spannend, ik ben best afhankelijk van de images, dus wil dat veilig doen.
Ik zou een SanDisk Extreme Portable SSD willen gebruiken om Proxmox op te installeren. Ik weet dat een "normale" USB niet ondersteund wordt, maar zo'n Sandisk moet toch kunnen?

Ik maak een copy van de VM-images, en importeer deze dan in Proxmox. Als alles goed werkt, kunnen de oude VM-images weg.
Mocht het toch niet goed werken, zou theoretisch eenvoudig mijn USB-stick met ESXi terug kunnen, en zou alles weer moeten werken.

Gaat dit zo werken?
Hoeveel ruimte/aansluitingen heb je in die NUC voor disken?

Overweeg om een seperate disk te gebruiken om pve van te booten.
Mocht er ergens iets fout gaan tijdens of kort na de conversie, dan kan die nodig/handig zijn om eventuele instellingen van de vm's aan te passen - die worden nl. allemaal opgeslagen in een subfolder van /etc/pve.

Ik heb een jaar of twee geleden dezelfde switch gemaakt. En daarbij ergens iets fout gedaan.
Die aparte boot disk bleek achteraf mijn "redding" - de details weet ik helaas niet meer precies - maar just-in-case. :+

makes it run like clockwork


Acties:
  • +1 Henk 'm!

  • tjanssen
  • Registratie: Augustus 2012
  • Niet online
@Robbie-1 ik heb afgelopen Kerst vakantie dezelfde switch gemaakt. Heb er nog geen seconde spijt van gehad.

Ik weet niet wat je setup is. Maar misschien kan je een usb drive aan je ESXi hangen, en daar alle vmdk's opzetten. Deze kun je vervolgens op een (snelle) Windows of Linux bak omzetten naar qow2. Deze bestanden kun je dan weer vanaf dezelfde disk weer terug zetten onder Proxmox. Ik weet niet hoe oud je huidige SSD is, maar misschien kun je een nieuwe kopen om Proxmox op te zetten? Begin je qua endurance met een schone lei, en heb je tevens je oude schijf nog als fallback.

Acties:
  • +1 Henk 'm!

  • Robbie-1
  • Registratie: Februari 2020
  • Laatst online: 07-07 20:16
Overweeg om een seperate disk te gebruiken om pve van te booten.
Mocht er ergens iets fout gaan tijdens of kort na de conversie, dan kan die nodig/handig zijn om eventuele instellingen van de vm's aan te passen - die worden nl. allemaal opgeslagen in een subfolder van /etc/pve.
Dat hoop ik te bereiken, door de USB stick waarop ESXi op staat te ruilen voor die externe USB van Sandisk.
Ik ga er vanuit, dat proxmox, net zoals ESXi verder niets met de interne disks doet toch? Nou ja, wel met de VM images natuurijk. Mijn ESXi boot disk was ook al eens stuk. Die kon ik vrij eenvoudig vervangen, door de setup nogmaals te draaien, en weer te koppelen met de VM's, dat gaat met proxmox net zo toch?
Pagina: 1 ... 56 ... 61 Laatste