Acties:
  • +2 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

DethStryke schreef op zaterdag 24 februari 2024 @ 21:47:
Ik heb een HP Proliant DL380p Gen 8 server. Daarop draait een Windows server op, nu een 2019. De server zelf was altijd stil, stiller dan m'n desktop, dus geen klachten van.

Deze week ProxmoxVE geinstalleerd, en compleet idle draaien de fans redelijk luid.
Nog mensen hier met een DL380p G8 die hiervoor een oplossing zouden weten?
Het moet *iets* in het OS zijn, want nu bij wijze van test opnieuw een Windows server op geinstalleerd, en draait weer stil.
DethStryke schreef op woensdag 28 februari 2024 @ 10:41:
Oh well, misschien ga ik dan toch maar terug naar Windows Server op dit moment, en herbekijk ik ProxmoxVE wel opnieuw als deze server de geest zou geven of wanneer de server niet meer op m'n thuiswerkplek staat en geluid dan iets minder een issue is.

In ieder geval bedankt om mee te kijken.
Ik denk dat jij gewoon iets moet finetunen binnen Proxmox want er is echt totaal geen reden voor zulk gedrag voor zover ik me dat nog goed kan herinneren op basis van mijn ervaringen met heel wat DL160/180/360/380 modellen uit de G6/G7/G8/G9 generaties :)

Als jij namelijk via iLO of de BIOS/UEFI aangeeft dat de boel op Balanced moet draaien dan blijft dat ook zo gewoon!

Alleen i.c.m. bepaalde toepassingen moest de boel op High Performance staan en is over het algemeen dus niet nodig !! ;)


Mijn gok is dat er iets is veranderd de afgelopen jaren of ergens een foute patch is toegepast/vergeten of iets in die trant dus misschien moet je effe op het officiële Proxmox Forum rondkijken/rondvragen in dit geval :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 16-06 19:12
Je hebt gelijk, de consumer grade ssd in een van mijn proxmox servertjes is zojuist overleden! ;)

Dan maar op zoek naar wat beters.

Acties:
  • 0 Henk 'm!

  • -EvoLution-
  • Registratie: Februari 2010
  • Laatst online: 06:55
Vraagje, ik krijg DHCP in mijn LXC containers niet meer aan de praat. Ik had hier altijd static IP's op ingesteld, maar wil graag via DHCP vanaf mijn router een IP toegewezen krijgen.

Het volgende heb ik in proxmox in /etc/network/interfaces staan:
code:
1
2
3
4
5
6
7
8
9
10
11
12
auto lo
iface lo inet loopback

iface eno1 inet manual

auto vmbr0
iface vmbr0 inet static
        address 192.168.2.91/24
        gateway 192.168.2.1
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0


Waarbij 192.168.2.91 het IP adres van de proxmox server is en 192.168.2.1 het ip adres van mijn router.

Netwerk instellingen van mijn Ubuntu LXC container:
Afbeeldingslocatie: https://tweakers.net/i/Ggyo93zzRYE61Nh1ji3BKVqNGic=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/MaTSqaCZ8CFmTip3piHJ6LHT.png?f=user_large

Als ik de container opstart en IP A en daarna IP R invoer is dit het resultaat:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
root@DSMRPostgreSQL:~# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: eth0@if14: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether aa:6b:7d:79:e7:50 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet6 fe80::a86b:7dff:fe79:e750/64 scope link 
       valid_lft forever preferred_lft forever
root@DSMRPostgreSQL:~# ip r
root@DSMRPostgreSQL:~#


Dus ik krijg géén IP toegewezen.
Als ik vervolgens dhclient -r gevolgd door dhclient invoer krijg ik wél een ip adres.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
root@DSMRPostgreSQL:~# dhclient -r
root@DSMRPostgreSQL:~# dhclient
root@DSMRPostgreSQL:~# ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: eth0@if14: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether aa:6b:7d:79:e7:50 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet 192.168.2.85/24 brd 192.168.2.255 scope global dynamic eth0
       valid_lft 86400sec preferred_lft 86400sec
    inet6 fe80::a86b:7dff:fe79:e750/64 scope link 
       valid_lft forever preferred_lft forever
root@DSMRPostgreSQL:~# ip r
default via 192.168.2.1 dev eth0 
192.168.2.0/24 dev eth0 proto kernel scope link src 192.168.2.85


Ook een static adres invoeren in de LXC container instellingen werkt gewoon.
Enig idee waar dit mis gaat?

Acties:
  • 0 Henk 'm!

  • stimpyMGS
  • Registratie: Mei 2004
  • Laatst online: 24-05 21:02
Hoi, ik zoek ondersteuning bij het opzetten/aanpassen van mijn lokale server. Door de vele mogelijkheden heb ik echter geen overzicht meer. Ik ben benieuwd naar jullie input. Ik zal beginnen met mijn gewenste situatie:
Een host die Proxmox draait, waar vervolgens Home Assistant en Nextcloud op draait. Indien mogelijk, wil ik vanuit Nextcloud samba shares opzetten voor het lokale netwerk.
Proxmox draait op een NVME SSD. Alle files (tbv Nextcloud) staan verspreid op 2 x 18TB HDD's.
Ik wil dat alle VM's (dus Home Assistant en Nextcloud) volledig vanaf de NVME SSD draaien, maar dat Nextcloud dus wel toegang heeft tot de HDD's. Home Assistant hoeft dat niet.


Huidige situatie: Proxmox machine met een aantal VM's:
Altijd aan:
1. Home Assistant
2. Openmediavault (OMV)
standaard uit, maar soms aan om wat te experimenteren:
1. Windows 11
2. Ubuntu

Proxmox draait op een NVME SSD. In de host hangen 2 HDD's van ieder 18TB. Die zijn gemount naar de OMV VM met het commando
code:
1
qm set 101 -scsi1 /dev/disk/by-id/(hdd1)

idem voor de 2e HDD
Een HDD is NTFS, de andere EXT4 geformatteerd.
In OMV draait portainer met een docker voor Transmission en Sabnzbd. Deze schrijven rechtstreeks naar de HDD's. De bestanden op de HDD's worden gedeeld via SMB naar apparaten in het lokale netwerk (nvidia shield).

Vraag: Wat is het handigste in mijn situatie? Zal ik een Nextcloud docker instance opzetten die draait vanuit de OMV VM? Of is het handiger als ik alle dockers zo dicht mogelijk vanuit de host (proxmox) draai? In beide gevallen snap ik niet hoe ik Nextcloud toegang kan geven tot mijn HDD's.
Ik kan me voorstellen dat het het meest 'clean' is, als ik een docker instance draai op Proxmox (dus niet vanuit een andere VM) en daar Nextcloud op zet. Als Nextcloud dezelfde functionaliteit kan bieden als OMV, dan kan ik OMV eraf knikkeren.

Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 10:58

Cyphax

Moderator LNX
stimpyMGS schreef op zondag 10 maart 2024 @ 13:06:
Hoi, ik zoek ondersteuning bij het opzetten/aanpassen van mijn lokale server. Door de vele mogelijkheden heb ik echter geen overzicht meer. Ik ben benieuwd naar jullie input. Ik zal beginnen met mijn gewenste situatie:
Een host die Proxmox draait, waar vervolgens Home Assistant en Nextcloud op draait. Indien mogelijk, wil ik vanuit Nextcloud samba shares opzetten voor het lokale netwerk.
Proxmox draait op een NVME SSD. Alle files (tbv Nextcloud) staan verspreid op 2 x 18TB HDD's.
Ik wil dat alle VM's (dus Home Assistant en Nextcloud) volledig vanaf de NVME SSD draaien, maar dat Nextcloud dus wel toegang heeft tot de HDD's. Home Assistant hoeft dat niet.


Huidige situatie: Proxmox machine met een aantal VM's:
Altijd aan:
1. Home Assistant
2. Openmediavault (OMV)
standaard uit, maar soms aan om wat te experimenteren:
1. Windows 11
2. Ubuntu

Proxmox draait op een NVME SSD. In de host hangen 2 HDD's van ieder 18TB. Die zijn gemount naar de OMV VM met het commando
code:
1
qm set 101 -scsi1 /dev/disk/by-id/(hdd1)

idem voor de 2e HDD
Een HDD is NTFS, de andere EXT4 geformatteerd.
In OMV draait portainer met een docker voor Transmission en Sabnzbd. Deze schrijven rechtstreeks naar de HDD's. De bestanden op de HDD's worden gedeeld via SMB naar apparaten in het lokale netwerk (nvidia shield).

Vraag: Wat is het handigste in mijn situatie? Zal ik een Nextcloud docker instance opzetten die draait vanuit de OMV VM? Of is het handiger als ik alle dockers zo dicht mogelijk vanuit de host (proxmox) draai? In beide gevallen snap ik niet hoe ik Nextcloud toegang kan geven tot mijn HDD's.
Ik kan me voorstellen dat het het meest 'clean' is, als ik een docker instance draai op Proxmox (dus niet vanuit een andere VM) en daar Nextcloud op zet. Als Nextcloud dezelfde functionaliteit kan bieden als OMV, dan kan ik OMV eraf knikkeren.
Ik heb het zelf met Nextcloud andersom gedaan: de nextcloud-data staat op een share, samen met de data voor enkele diensten (Jellyfin, git) en die shares regel ik via OMV. Daarmee hoef ik eigenlijk bijna alleen nog maar vanuit OMV te backuppen.

Bij mij draait Nextcloud in een LXC-container, en OMV en HA in VMs. Nextcloud is een handmatige installatie die prima draait en alles kan, maar soms wat meer werk nodig heeft bij upgrades dan een kant-en-klare container.

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • bmaster001
  • Registratie: April 2010
  • Laatst online: 12-06 19:42
Sorry dat ik even een oud bericht vanonder het stof haal, maar ik probeer de vlan configuratie te begrijpen...

In het voorbeeld hieronder worden de vlans op de host interface gezet (eno1.6 bijvoorbeeld) en wordt er een bridge gemaakt met die eno1.6 interface als port (vmbr2 in ditzelfde voorbeeld).
CurlyMo schreef op maandag 5 juni 2023 @ 20:56:
[...]

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
auto lo
iface lo inet loopback

auto eno1
iface eno1 inet manual
        post-up /usr/sbin/ethtool -K eno1 tso off gso off

auto eno1.6
iface eno1.6 inet manual

auto eno1.2
iface eno1.2 inet manual

auto eno1.3
iface eno1.3 inet manual

auto vmbr0
iface vmbr0 inet static
        address x.x.x.x/24
        gateway x.x.x.y
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2-4094

auto vmbr1
iface vmbr1 inet static
        address a.a.a.a/24
        bridge-ports none
        bridge-stp off
        bridge-fd 0

auto vmbr2
iface vmbr2 inet manual
        bridge-ports eno1.6
        bridge-stp off
        bridge-fd 0

auto vmbr3
iface vmbr3 inet manual
        bridge-ports eno1.2
        bridge-stp off
        bridge-fd 0

auto vmbr4
iface vmbr4 inet manual
        bridge-ports eno1.3
        bridge-stp off
        bridge-fd 0
In andere voorbeelden wordt één host interface behouden, en wordt een bridge gemaakt voor de vlan. Iets als dit:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
auto lo
iface lo inet loopback

auto eno1
iface eno1 inet manual

auto vmbr0.6
iface vmbr0.6 inet static
        address x.x.x.x/24
        gateway x.x.x.y

auto vmbr0
iface vmbr0 inet static
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2-4094


Enkele vraagjes:
1) Wat is het verschil tussen beide manieren?
2) In voorbeeld 1: het ip x.x.x.x zit op de vmbr0 interface, zonder vlan dus. Hoe staat de switchport in dit geval ingesteld? Iets als pvid = 1, untagged?

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

bmaster001 schreef op dinsdag 12 maart 2024 @ 11:36:
In andere voorbeelden wordt één host interface behouden, en wordt een bridge gemaakt voor de vlan. Iets als dit:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
auto lo
iface lo inet loopback

auto eno1
iface eno1 inet manual

auto vmbr0.6
iface vmbr0.6 inet static
        address x.x.x.x/24
        gateway x.x.x.y

auto vmbr0
iface vmbr0 inet static
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2-4094


Enkele vraagjes:
2) In voorbeeld 1: het ip x.x.x.x zit op de vmbr0 interface, zonder vlan dus.

Hoe staat de switchport in dit geval ingesteld? Iets als pvid = 1, untagged?
Gewoon Untagged het VLAN waarin dat Management IP adres zit en daar bovenop meerdere Tagged VLAN's voor al het andere dat je nodig hebt :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:07
bmaster001 schreef op dinsdag 12 maart 2024 @ 11:36:

Enkele vraagjes:
1) Wat is het verschil tussen beide manieren?
2) In voorbeeld 1: het ip x.x.x.x zit op de vmbr0 interface, zonder vlan dus. Hoe staat de switchport in dit geval ingesteld? Iets als pvid = 1, untagged?
(1) - verschil is:
In voorbeeld 1 komt de interface met x.x.x.x/24 terecht in vlan-1 en is untagged.
In voorbeeld 2 komt de interface met x.x.x.x/24 terecht in vlan-6 en is tagged.
De switch poort moet hier op ingesteld zijn.

(2) - Ja

Mijn persoonlijk voorkeur is voorbeeld 2 omdat er dan maar één plek is waar bepaald wordt in welk vlan een bepaalde interface terecht komt. In voorbeeld 1 zijn dat 2 plekken - een keer bij de fysieke interface en een tweede keer bij de bridge interface => lastiger troubleshooten als iets niet werkt.

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • iGadget
  • Registratie: Januari 2000
  • Laatst online: 14-06 16:46

iGadget

Wowsers!

Iemand toevallig interesse om samen op te trekken vwbt PVE? Zie mijn post :)

"I'll just use my Go-Go-Gadget handbook!"


Acties:
  • 0 Henk 'm!

  • bmaster001
  • Registratie: April 2010
  • Laatst online: 12-06 19:42
Airw0lf schreef op dinsdag 12 maart 2024 @ 16:01:
In voorbeeld 1 komt de interface met x.x.x.x/24 terecht in vlan-1 en is untagged.
Hoe weet je of die in vlan 1 komt? Enkel omdat de switchpoort op pvid 1 staat? Dus als die switchport op een andere pvid staat, komt die x.x.x.x/24 in die andere vlan?

Stel dat ik vlan 1 wil gebruiken als default, en niet wakker lig van eventuele security risks. Klopt onderstaande dan om die x.x.x.x/24 in vlan-1 te krijgen? Is die dan ook untagged zoals eerder, of moet ik die wel taggen in de switch? En indien het getagged wordt, dan moet vlan 1 ook bij de bridge-vids opgenomen worden neem ik aan?

Sorry voor de vele vragen... ik begrijp dingen graag zo volledig mogelijk vooraleer ik ermee ga experimenteren... (en bedankt voor de antwoorden natuurlijk :-) )

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
auto lo
iface lo inet loopback

auto eno1
iface eno1 inet manual

auto vmbr0.6
iface vmbr0.6 inet static

auto vmbr0
iface vmbr0 inet static
        address x.x.x.x/24
        gateway x.x.x.y
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2-4094

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:07
bmaster001 schreef op dinsdag 12 maart 2024 @ 16:18:
[...]

Hoe weet je of die in vlan 1 komt? Enkel omdat de switchpoort op pvid 1 staat? Dus als die switchport op een andere pvid staat, komt die x.x.x.x/24 in die andere vlan?

Stel dat ik vlan 1 wil gebruiken als default, en niet wakker lig van eventuele security risks. Klopt onderstaande dan om die x.x.x.x/24 in vlan-1 te krijgen? Is die dan ook untagged zoals eerder, of moet ik die wel taggen in de switch? En indien het getagged wordt, dan moet vlan 1 ook bij de bridge-vids opgenomen worden neem ik aan?

Sorry voor de vele vragen... ik begrijp dingen graag zo volledig mogelijk vooraleer ik ermee ga experimenteren... (en bedankt voor de antwoorden natuurlijk :-) )

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
auto lo
iface lo inet loopback

auto eno1
iface eno1 inet manual

auto vmbr0.6
iface vmbr0.6 inet static

auto vmbr0
iface vmbr0 inet static
        address x.x.x.x/24
        gateway x.x.x.y
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2-4094
De server stuurt pakketjes untagged het netwerk in.
Als de switchpoort ook untagged is bepaald het PVID voor welk vlan-id dat geldt.

Als je pakketjes perse in vlan 1 wil hebben moet je overal gaan taggen.
Dus vmbr0 wordt dan vmbr0.1. En de switch poort wordt tagged voor vlan-id 1.

Mijn advies:
Zet voor beheer alles untagged in vlan 1 en gebruik voor dit vlan geen wifi-SSID. Dat wil zeggen dat alle apparaten die iets met beheer doen bekabeld moeten zijn aangesloten.

Voor alle andere subnetten/vlans ga je taggen tot aan de aansluiting van het gebruikersapparaat (een Windows PC of een Android). De betreffende aansluiting zelf zet je op untagged en de PVID zet je op het betreffende vlan-id.

[ Voor 4% gewijzigd door Airw0lf op 12-03-2024 19:47 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • bmaster001
  • Registratie: April 2010
  • Laatst online: 12-06 19:42
Airw0lf schreef op dinsdag 12 maart 2024 @ 16:39:
[...]

Mijn advies:
Zet voor beheer alles untagged in vlan 1 en gebruik voor dit vlan geen wifi-SSID. Dat wil zeggen dat alle apparaten die iets met beheer doen bekabeld zijn aangesloten.

Voor alle andere subnetten/vlans ga je taggen tot aan de aansluiting van het gebruikersapparaat (een Windows PC of een Android). De betreffende aansluiting zelf zet je op untagged en de PVID zet je op het betreffende vlan-id.
Als ik het goed begrijp komt mijn onderstaande voorbeeld dan overeen met jouw advies? vmbr0 met adres x.x.x.x is untagged en zal door de pvid van de switch van een vlan voorzien worden?

En de opmerking over de wifi-ssid is dan bedoeld om ervoor te zorgen dat iemand niet via de wifi in het beheer kan?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
auto lo
iface lo inet loopback

auto eno1
iface eno1 inet manual

auto vmbr0.6
iface vmbr0.6 inet static

auto vmbr0
iface vmbr0 inet static
        address x.x.x.x/24
        gateway x.x.x.y
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2-4094

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:07
bmaster001 schreef op dinsdag 12 maart 2024 @ 16:51:
[...]


Als ik het goed begrijp komt mijn onderstaande voorbeeld dan overeen met jouw advies? vmbr0 met adres x.x.x.x is untagged en zal door de pvid van de switch van een vlan voorzien worden?
Mja - tis een beetje verwarrend...
Hij wordt juist niet van een vlan voorzien - het is immers untagged.
Maar dit geldt alleen voor poorten met pvid 1
En de opmerking over de wifi-ssid is dan bedoeld om ervoor te zorgen dat iemand niet via de wifi in het beheer kan?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
auto lo
iface lo inet loopback

auto eno1
iface eno1 inet manual

auto vmbr0.6
iface vmbr0.6 inet static

auto vmbr0
iface vmbr0 inet static
        address x.x.x.x/24
        gateway x.x.x.y
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2-4094
Bijna - ik gebruik in PVE nooit een interface met een vlan.
Dus geen vmbr0.6 of iets dergelijks - alleen vmbr0.
En als het toch echt nodig is dan "iface vmbr0.6 inet dhcp".
Of een "iface vmbr0.6 inet static" met direct eronder de IP gegevens.

En ja - het idee is dat er via wifi geen beheermogelijkheden zijn.

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • bmaster001
  • Registratie: April 2010
  • Laatst online: 12-06 19:42
Airw0lf schreef op dinsdag 12 maart 2024 @ 20:00:
[...]
Hij wordt juist niet van een vlan voorzien - het is immers untagged.
Ik bekijk het alsof het intern in de switch wel in vlan 1 gezet wordt. En bij het verlaten van de switch is het dan opnieuw untagged. Hetzelfde als wat jij bedoelt volgens mij :-)
Bijna - ik gebruik in PVE nooit een interface met een vlan.
Dus geen vmbr0.6 of iets dergelijks - alleen vmbr0.
En als het toch echt nodig is dan "iface vmbr0.6 inet dhcp".
Of een "iface vmbr0.6 inet static" met direct eronder de IP gegevens.
Nu ben ik helemaal niet meer mee :| Je schreef eerder dat jouw voorkeur naar voorbeeld 2 ging, en nu zeg je dat je geen vmbr0.6 gebruikt...

Even heel concreet waar ik eigenlijk naartoe wil, want dat is soms een stuk duidelijker :-)

Momenteel zijn er dus geen vlans bij mij thuis. Ik wil nu een virtuele opnsense/pfsense opzetten op mijn proxmox server die maar één lan interface heeft. De bedoeling is dan dat de modem in bridge mode komt, en via vlan 99 op opnsense toekomt als 2e interface zodat die rechtstreeks een public ip krijgt via dhcp.

Mijn huidige /etc/network/interfaces ziet eruit als volgt:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
auto lo
iface lo inet loopback

iface enp3s0 inet manual

auto vmbr0
iface vmbr0 inet static
        address 192.168.0.3/24
        gateway 192.168.0.1
        bridge-ports enp3s0
        bridge-stp off
        bridge-fd 0
#LAN


Ik wil dus vlan 99 aanmaken, en de modem aan de switch op een poort met pvid 99 hangen. Die vlan moet dan ook toegevoegd worden aan de poort waar Proxmox hangt. Ik dacht aan volgende config, waarna ik dan vmbr0 als LAN en vmbr0.99 als WAN aan de OPNsense VM kan doorgeven.

De gateway verwijst in deze config nog naar de modem die nog in router mode staat (192.168.0.1), maar dat zal dan moeten wijzigen naar de LAN interface van OPNsense.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
auto lo
iface lo inet loopback

iface enp3s0 inet manual

auto vmbr0.99
iface vmbr0.99 inet manual

auto vmbr0
iface vmbr0 inet static
        address 192.168.0.3/24
        gateway 192.168.0.1
        bridge-ports enp3s0
        bridge-stp off
        bridge-fd 0
#LAN


Wat zegt dat?

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:07
bmaster001 schreef op dinsdag 12 maart 2024 @ 20:26:
[...]

Ik bekijk het alsof het intern in de switch wel in vlan 1 gezet wordt. En bij het verlaten van de switch is het dan opnieuw untagged. Hetzelfde als wat jij bedoelt volgens mij :-)
Inderdaad :P
[...]

Nu ben ik helemaal niet meer mee :| Je schreef eerder dat jouw voorkeur naar voorbeeld 2 ging, en nu zeg je dat je geen vmbr0.6 gebruikt...
Mja - sorry voor de verwarring.
Er moet echt een goede reden zijn om de beheerkant van een Proxmox server in een vlan te steken. En als het dan toch moet, dan liefst met een config die ook echt een IP-adres toekent.

Standaard wordt de SMB client geinstalleerd op basis van de interface instellingen.
En als je achteraf een vlan-interface weghaalt/veranderd gebeuren er allemaal rare dingen doordat de SMB client die verandering niet meeneemt.
Even heel concreet waar ik eigenlijk naartoe wil, want dat is soms een stuk duidelijker :-)

Momenteel zijn er dus geen vlans bij mij thuis. Ik wil nu een virtuele opnsense/pfsense opzetten op mijn proxmox server die maar één lan interface heeft. De bedoeling is dan dat de modem in bridge mode komt, en via vlan 99 op opnsense toekomt als 2e interface zodat die rechtstreeks een public ip krijgt via dhcp.

Mijn huidige /etc/network/interfaces ziet eruit als volgt:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
auto lo
iface lo inet loopback

iface enp3s0 inet manual

auto vmbr0
iface vmbr0 inet static
        address 192.168.0.3/24
        gateway 192.168.0.1
        bridge-ports enp3s0
        bridge-stp off
        bridge-fd 0
#LAN


Ik wil dus vlan 99 aanmaken, en de modem aan de switch op een poort met pvid 99 hangen. Die vlan moet dan ook toegevoegd worden aan de poort waar Proxmox hangt. Ik dacht aan volgende config, waarna ik dan vmbr0 als LAN en vmbr0.99 als WAN aan de OPNsense VM kan doorgeven.

De gateway verwijst in deze config nog naar de modem die nog in router mode staat (192.168.0.1), maar dat zal dan moeten wijzigen naar de LAN interface van OPNsense.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
auto lo
iface lo inet loopback

iface enp3s0 inet manual

auto vmbr0.99
iface vmbr0.99 inet manual

auto vmbr0
iface vmbr0 inet static
        address 192.168.0.3/24
        gateway 192.168.0.1
        bridge-ports enp3s0
        bridge-stp off
        bridge-fd 0
#LAN


Wat zegt dat?
Inzake vlan 99 en OpnSense:
Ik begrijp waar je naar toe wil werken (heb zelf een vergelijkbare opstelling).
Suggestie: doe jezelf een plezier en steek er een 2- of 4-poorts ethernet kaart bij - scheelt wat gepuzzel en troubleshooting... :+

Ik heb er een 4-poorts ethernet kaart bij gestoken. En gebruik een vmbr0 interface met vlan-aware voor 2-4094. Hier wordt in OpnSense de LAN interface aan gekoppeld - in de VM-config is dat bij mij net0.

Met daarnaast een vmbr1 interface (zonder een vlan-iets) voor de WAN-kant van OpnSense - in de VM-config is dat bij mij net1.

Op de switch-poort van de "PVE-LAN" aansluiting staat de PVID op 1. En bij de switch-poort van de "PVE-WAN" aansluiting (samen met de switch-poort van de modem) staat de PVID op 99.

Op deze manier kan ik binnen OpnSense de standaard instellingen gebruiken voor de LAN en WAN poort - leek me wel handig voor de daaraan gekoppelde firewall en NAT instellingen. :)

code:
1
2
3
4
5
6
7
8
9
10
auto vmbr0
iface vmbr0 inet static
        address 192.168.139.251/24
        gateway 192.168.139.240
        bridge-ports eth0
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2-4094
# LAN server-vlan-trunk


code:
1
2
3
4
5
6
auto vmbr1
iface vmbr1 inet manual
        bridge-ports eth1
        bridge-stp off
        bridge-fd 0
# WAN port


Met maar één PVE interface (d.w.z. vmbr0) denk ik dat de PVID van de switch-poort nog steeds 1 gaat moeten zijn. En de PVID van de switch-poort met de modem 99. Dit vlan-id wordt dan in PVE gekoppeld aan vmbr0.99.

Waarna je dan in de VM-config van de OpnSense router de vmbr0.99 interface koppelt aan net1 (de WAN-kant; de LAN-kant blijft op net0 via vmbr0). Daarmee zou OpnSense dan de standaard LAN en WAN poorten hebben.

code:
1
2
3
4
5
6
auto vmbr0.99
iface vmbr0.99 inet manual
        bridge-ports eth0
        bridge-stp off
        bridge-fd 0
# WAN port

In dit geval zou vmbr1 komen te vervallen waardoor je inderdaad de config hebt die je voorstelde. :D

De OpnSense-LAN-poort komt dan uiteindelijk in vlan-1/untagged terecht en krijgt (al dan niet via DHCP) een IP adres uit het beheer-subnet. En de OpnSense-WAN-poort komt uiteindelijk in vlan-99/untagged terecht en krijgt via DHCP een publiek IP-adres van de provider.

Maar heel eerlijk - ik heb dit nooit geprobeerd... :X geen idee of het (goed) gaat werken... maar vooralsnog zie ik niks wat blocking zou kunnen zijn... d:)b

[ Voor 19% gewijzigd door Airw0lf op 13-03-2024 07:05 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • bmaster001
  • Registratie: April 2010
  • Laatst online: 12-06 19:42
Airw0lf schreef op dinsdag 12 maart 2024 @ 22:35:
Suggestie: doe jezelf een plezier en steek er een 2- of 4-poorts ethernet kaart bij - scheelt wat gepuzzel en troubleshooting... :+
Soms is het puzzelen en troubleshooten leuker dan de uiteindelijke oplossing, niet? :-)
We hebben op het werk - lang geleden - pfsense op een gelijkaardige manier gedraaid op een ESXi host. Simpel gezegd was die host op een cisco switch gekoppeld via een trunk poort, en kreeg alle vlans die hij nodig had op die manier door. Binnen ESXi hadden we dan meerdere virtuele switches, eentje voor elke vlan die we nodig hadden voor de VMs.
[...]
In dit geval zou vmbr1 komen te vervallen waardoor je inderdaad de config hebt die je voorstelde. :D
Haha.. Best grappig dat je de hele denkwijze neerpent om dat te concluderen dat het eindresultaat hetzelfde is :-)
Maar heel eerlijk - ik heb dit nooit geprobeerd... :X geen idee of het (goed) gaat werken... maar vooralsnog zie ik niks wat blocking zou kunnen zijn... d:)b
De ervaring leert ons dat de theorie dikwijls anders is dan de praktijk. Dus: there's only one way to find out!
Ik ga daar toch maar wat tijd voor inplannen om dat op het gemak uit te proberen, liefst op een moment dat de anderen thuis er niet teveel last van hebben... ik hoor de zoon al klagen dat zijn xbox geen internet heeft, dat zou hij niet overleven ;-)

Bedankt voor het meedenken!

Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 17-06 14:02

zeroday

There is no alternative!

-EvoLution- schreef op zondag 10 maart 2024 @ 10:02:
Vraagje, ik krijg DHCP in mijn LXC containers niet meer aan de praat. Ik had hier altijd static IP's op ingesteld, maar wil graag via DHCP vanaf mijn router een IP toegewezen krijgen.

Het volgende heb ik in proxmox in /etc/network/interfaces staan:
[code]auto lo

..

Ook een static adres invoeren in de LXC container instellingen werkt gewoon.
Enig idee waar dit mis gaat?
Volgens mij zitten we naar appels en peren te kijken .. Ik heb niets aan de netwerk interface instellingen van Proxmox als jij een probleem hebt met DHCP op een van je LXC of VM's ..

Je zal even moeten kijken welke eth0 of welk ander device op je virtuele machines wordt gebruikt
mijn linux interfaces bestand

Bevat onderstaande:

auto lo
iface lo inet loopback

auto eth0
iface eth0 inet dhcp

En dat werkt gewoon.
Omdat wij niet zien wat er in jouw bestand staat kunnen we dus niets anders dan veronderstellen dat
of iets fout is in de interface configuratie en/of iets binnen je DHCP server die bijv. nog een fixed lease heeft op de machine of .. vul maar verder in ..

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:07
@bmaster001 - graag gedaan - was voor mij een leuke vingeroefening.

In een eerdere versie van de post was het uitgangspunt nog "kan niet werken met één netwerk touwtje". Toen ik dat aan het uitleggen/beschrijven was, was ik mezelf aan het tegenspreken en kon ik dat dus niet uitleggen. :X

Daarop ben ik omgeschakeld in het redeneren/beschrijven met de insteek dat het wel kan werken. En toen ik dat eenmaal sluitend had heb ik alles laten staan - alleen hier en daar wat ingekort... ter-meerdere-lering-ende-vermaak voor anderen die mogelijk met dezelfde vraag aan het puzzelen zijn. :+

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

bmaster001 schreef op dinsdag 12 maart 2024 @ 20:26:
Even heel concreet waar ik eigenlijk naartoe wil, want dat is soms een stuk duidelijker :-)

Momenteel zijn er dus geen vlans bij mij thuis. Ik wil nu een virtuele opnsense/pfsense opzetten op mijn proxmox server die maar één lan interface heeft. De bedoeling is dan dat de modem in bridge mode komt, en via vlan 99 op opnsense toekomt als 2e interface zodat die rechtstreeks een public ip krijgt via dhcp.
Airw0lf schreef op dinsdag 12 maart 2024 @ 22:35:
Suggestie: doe jezelf een plezier en steek er een 2- of 4-poorts ethernet kaart bij - scheelt wat gepuzzel en troubleshooting... :+

Ik heb er een 4-poorts ethernet kaart bij gestoken.
+1 d:)b

Uiteraard wel op voorwaarde dat je Proxmox bakkie iets van IOMMU/VT-D/enz. kan doen qua zowel CPU als Moederbord ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • bmaster001
  • Registratie: April 2010
  • Laatst online: 12-06 19:42
nero355 schreef op woensdag 13 maart 2024 @ 15:24:
[...]


[...]

+1 d:)b

Uiteraard wel op voorwaarde dat je Proxmox bakkie iets van IOMMU/VT-D/enz. kan doen qua zowel CPU als Moederbord ;)
Daar heb ik geen enkel idee van, dus voorlopig probeer ik de vlan-met-één-interface methode wel eens uit :-)

Acties:
  • 0 Henk 'm!

  • bmaster001
  • Registratie: April 2010
  • Laatst online: 12-06 19:42
Ik heb nu even dit in mijn interfaces file gezet:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
auto vmbr0
iface vmbr0 inet static
        address 192.168.0.3/24
        gateway 192.168.0.1
        bridge-ports enp3s0
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2-4094
#LAN

auto vmbr0.99
iface vmbr0.99 inet manual
#WAN


Ik heb dan een nieuwe vm gemaakt. Eerste netwerk adapter = vmbr0. Tweede adapter wou ik dan vmbr0.99 kiezen maar die is er niet... moet ik daar dan vmbr0 nemen en 99 als vlan invullen?

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:07
@bmaster001 - wat bedoel je precies met "vmbr0.99 kiezen maar die is er niet"?

Interpretatie met antwoord voor nu:
Die interface maak je aan in /etc/network/interfaces - gevolgd door een reboot.
Pas daarna kan je hem kiezen bij de aanmaak van de VM.

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • bmaster001
  • Registratie: April 2010
  • Laatst online: 12-06 19:42
Airw0lf schreef op woensdag 13 maart 2024 @ 18:20:
@bmaster001 - wat bedoel je precies met "vmbr0.99 kiezen maar die is er niet"?

Interpretatie met antwoord voor nu:
Die interface maak je aan in /etc/network/interfaces - gevolgd door een reboot.
Pas daarna kan je hem kiezen bij de aanmaak van de VM.
In de dropdown zie ik enkel vmbr0, en geen vmbr0.99
Is die reboot nodig? Als ik bij de host -> system -> network ga kijken, zie ik wel de vmbr0.99 staan (met als type 'Linux VLAN' overigens. Op de commandline had ik "ifreload -a" gedaan om de wijzigingen in de interfaces file te activeren.

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:07
bmaster001 schreef op woensdag 13 maart 2024 @ 18:56:
[...]


In de dropdown zie ik enkel vmbr0, en geen vmbr0.99
Is die reboot nodig? Als ik bij de host -> system -> network ga kijken, zie ik wel de vmbr0.99 staan (met als type 'Linux VLAN' overigens. Op de commandline had ik "ifreload -a" gedaan om de wijzigingen in de interfaces file te activeren.
Ow ja - my bad - je voegt via de PVE-webui twee keer de vmbr0 interface toe aan de VM.
De eerste zonder vlans te noemen. En de tweede koppel je aan vlan 99.
In /etc/network/interfaces kan vmbr0.99 vervallen.

[ Voor 6% gewijzigd door Airw0lf op 14-03-2024 07:44 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • -EvoLution-
  • Registratie: Februari 2010
  • Laatst online: 06:55
zeroday schreef op woensdag 13 maart 2024 @ 08:00:
[...]


Volgens mij zitten we naar appels en peren te kijken .. Ik heb niets aan de netwerk interface instellingen van Proxmox als jij een probleem hebt met DHCP op een van je LXC of VM's ..

Je zal even moeten kijken welke eth0 of welk ander device op je virtuele machines wordt gebruikt
mijn linux interfaces bestand

Bevat onderstaande:

auto lo
iface lo inet loopback

auto eth0
iface eth0 inet dhcp

En dat werkt gewoon.
Omdat wij niet zien wat er in jouw bestand staat kunnen we dus niets anders dan veronderstellen dat
of iets fout is in de interface configuratie en/of iets binnen je DHCP server die bijv. nog een fixed lease heeft op de machine of .. vul maar verder in ..
/etc/network/interfaces bestaat niet in mijn LXC container, /etc/systemd/network bestaat wel. Deze folder bevat 1 bestand met de naam eth0.network.
Inhoud van dat bestand:
code:
1
2
3
4
5
6
7
[Match]
Name = eth0

[Network]
Description = Interface eth0 autoconfigured by PVE
DHCP = ipv4
IPv6AcceptRA = false


Als ik de container opnieuw start krijg ik dus géén IP adres toegewezen.
Als ik handmatig 'dhclient -v eth0' uitvoer in de container wél.
Dit lijkt zeer veel op het probleem wat in dit topic op het proxmox forum beschreven staat.

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:07
@-EvoLution- - welk image heb je gebruikt bij de aanmaak van deze LXC-container?

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • -EvoLution-
  • Registratie: Februari 2010
  • Laatst online: 06:55
Airw0lf schreef op woensdag 13 maart 2024 @ 19:44:
@-EvoLution- - welk image heb je gebruikt bij de aanmaak van deze LXC-container?
ubuntu-22.10-standard_22.10-1_amd64.tar.zst

Maar ik heb hetzelfde wanneer ik via een Proxmox VE Helper-script van TTeck het script laad voor een nieuwe LXC voor Omada Controller LXC. Deze is gebasseerd op Debian 12.

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:07
Ik heb geen ervaring met die helper scripts.

Mijn aanvliegroute tot nu toe is een LXC container met een Debian image wat is opgehaald via "CT Templates" - "templates". Daarbinnen heb ik Docker geinstalleerd.

Vervolgens haal ik de Omada Docker container op via onderstaand cli script.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
#!/bin/sh
docker stop omada
docker rm omada
docker pull mbentley/omada-controller:latest
docker run \
  --name omada \
  --net=host \
  -v /opt/docker/omada/data:/opt/tplink/EAPController/data \
  -v /opt/docker/omada/logs:/opt/tplink/EAPController/logs \
  -e PORTAL_HTTP_PORT=8888 \
  -d \
  --restart=unless-stopped \
  mbentley/omada-controller:latest

# Remove all unused images
docker image prune --all --force


Eventuele updates worden opgehaald m.b.v. Watchtower - ook een Docker container.

Dat updaten gebeurd een keer per week - voor zowel PVE, als LXC containers en de Docker containers.
Mocht er tussentijds iets zijn waardoor er onmiddellijk een update uitgevoerd moet worden, dan start ik datzelfde script nog een keer.

[ Voor 14% gewijzigd door Airw0lf op 14-03-2024 07:50 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • bmaster001
  • Registratie: April 2010
  • Laatst online: 12-06 19:42
Airw0lf schreef op woensdag 13 maart 2024 @ 19:26:
[...]


Ow ja - my bad - je voegt twee keer een interface toe.
En de tweede koppel je aan vlan 99 in de webui.
In /etc/network/interfaces kan vmbr0.99 vervallen.
Achzo, dus in de /etc/network/interfaces komt enkel "bridge-vlan-aware yes" en "bridge-vids 2-4094" o.i.d. erbij, en verder niets? Ik probeer het asap uit :-)

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 17-06 14:02

zeroday

There is no alternative!

-EvoLution- schreef op woensdag 13 maart 2024 @ 19:37:
[...]


/etc/network/interfaces bestaat niet in mijn LXC container, /etc/systemd/network bestaat wel. Deze folder bevat 1 bestand met de naam eth0.network.
Inhoud van dat bestand:
[code]
[Match]
Name = eth0
Ah Ubuntu ..
heb je je network via systemd al een keer opnieuw gestart?
systemctl restart systemd-networkd

en daarna bijv. met journalctl -xe gekeken naar de error? als die er is? Verder heb ik geen idee

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

-EvoLution- schreef op woensdag 13 maart 2024 @ 19:37:
/etc/network/interfaces bestaat niet in mijn LXC container, /etc/systemd/network bestaat wel. Deze folder bevat 1 bestand met de naam eth0.network.
Inhoud van dat bestand:
code:
1
2
3
4
5
6
7
[Match]
Name = eth0

[Network]
Description = Interface eth0 autoconfigured by PVE
DHCP = ipv4
IPv6AcceptRA = false


Als ik de container opnieuw start krijg ik dus géén IP adres toegewezen.
Als ik handmatig 'dhclient -v eth0' uitvoer in de container wél.
-EvoLution- schreef op woensdag 13 maart 2024 @ 19:50:
ubuntu-22.10-standard_22.10-1_amd64.tar.zst
Gebruikt Ubuntu dat hele NetPlan geneuzel niet meer dan :?

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • -EvoLution-
  • Registratie: Februari 2010
  • Laatst online: 06:55
zeroday schreef op donderdag 14 maart 2024 @ 11:01:
[...]


Ah Ubuntu ..
heb je je network via systemd al een keer opnieuw gestart?
systemctl restart systemd-networkd

en daarna bijv. met journalctl -xe gekeken naar de error? als die er is? Verder heb ik geen idee
Ja, heeft helaas niet geholpen..
Voor nu hou ik t maar op een static ip ingesteld in de container.

Acties:
  • 0 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 17-06 17:43
Even met de deur in huis vallen hier. Ik had vannacht wat raar gedrag en een probleem wat ik wel eens vaker heb gehad.

Ik heb wat stukken uit de log geknipt:


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
Mar 14 23:49:35 pve kernel: e1000e 0000:00:1f.6 eno1: NIC Link is Down
Mar 14 23:49:35 pve kernel: vmbr0: port 1(eno1) entered disabled state
.....
Mar 15 06:18:50 pve systemd[1]: Starting apt-daily-upgrade.service - Daily apt upgrade and clean activities...
Mar 15 06:18:50 pve systemd[1]: apt-daily-upgrade.service: Deactivated successfully.
Mar 15 06:18:50 pve systemd[1]: Finished apt-daily-upgrade.service - Daily apt upgrade and clean activities.
-- Reboot --
......
Mar 15 06:30:14 pve systemd[1]: Starting systemd-journal-flush.service - Flush Journal to Persistent Storage...
Mar 15 06:30:14 pve systemd[1]: systemd-pstore.service - Platform Persistent Storage Archival was skipped because of an unmet condition check (ConditionDirectoryNotEmpty=/sys/fs/pstore).
Mar 15 06:30:14 pve systemd[1]: Starting systemd-random-seed.service - Load/Save Random Seed...
Mar 15 06:30:14 pve systemd[1]: Starting systemd-sysusers.service - Create System Users...
Mar 15 06:30:14 pve systemd-journald[490]: Time spent on flushing to /var/log/journal/054231d408264c00af5ef374abbe6f82 is 2.640ms for 954 entries.
-- Reboot --


Mijn systeem is wel 25x opnieuw opgestart vanaf 06:30. En telkens met dezelfde reden een reboot. En toen opeens is die wel doorgestart. Ik heb dit wel eens eerder gehad. En het gekke was telkens dat zodra ik er een monitor aan had gehangen hij wel doorstarte. Maar dit vind ik eigenlijk zo vreemd dat ik niet geloof dat hier een link mee is.

edit: proxmox 8.1.4 volledig up-to-date

Acties:
  • +1 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

In dit stukje logs zie ik geen reden voor een reboot, dus dan lijkt het er op neer te komen dat op het moment van de reboot het voor Proxmox (of eigenlijk journald) niet meer mogelijk was om nog wat weg te schrijven naar de logs. De Reboot-marker wordt er bij de volgende boot-poging pas aan toegevoegd.

Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Mich schreef op vrijdag 15 maart 2024 @ 23:01:
Ik had vannacht wat raar gedrag en een probleem wat ik wel eens vaker heb gehad.
Hoe vaak/lang heb je dat probleem al dan ?!
Mijn systeem is wel 25x opnieuw opgestart vanaf 06:30. En telkens met dezelfde reden een reboot. En toen opeens is die wel doorgestart.
Ik zie meldingen over twee dingen :
- Een of ander automatisch APT UPDATE proces : Heb je zoiets ergens ingesteld staan ?
- Een directory of path dat niet bestaat en de Journal Flush dus niet goed lijk te gaan in eerste instantie maar dan toch op de een of andere manier wordt voltooid dus hoe staat het met je Storage qua S.M.A.R.T. data ??
Ik heb dit wel eens eerder gehad. En het gekke was telkens dat zodra ik er een monitor aan had gehangen hij wel doorstarte. Maar dit vind ik eigenlijk zo vreemd dat ik niet geloof dat hier een link mee is.
Heb je niet toevallig een of ander NUC achtig kastje in gebruik dat niet goed werkt als deze headless zonder monitor draait :?

Zo JA, dan moet je effe een HDMI Dummy of iets regelen :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +2 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

nero355 schreef op vrijdag 15 maart 2024 @ 23:32:
[...]
Ik zie meldingen over twee dingen :
- Een of ander automatisch APT UPDATE proces : Heb je zoiets ergens ingesteld staan ?
Dat is standaardgedrag in Proxmox.
- Een directory of path dat niet bestaat en de Journal Flush dus niet goed lijk te gaan in eerste instantie maar dan toch op de een of andere manier wordt voltooid dus hoe staat het met je Storage qua S.M.A.R.T. data ??
De melding gaat niet specifiek over journals, maar over een service die kernel dumps kan opslaan (en omdat systemd alles parallel probeert te doen staat het tussen een paar regels over journals). Met een probleem als dit is dat misschien wel de moeite waard om te fixen, in de hoop dat er ergens wel informatie achterblijft over het onverwacht rebooten.
SMART nalopen ben ik het overigens zeker mee eens, onverwachte reboots zonder logs kunnen komen door een niet werkende SSD/HDD (of door vele andere oorzaken die misschien lastiger te vinden zijn).

[ Voor 4% gewijzigd door dcm360 op 15-03-2024 23:42 ]


Acties:
  • +3 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
dcm360 schreef op vrijdag 15 maart 2024 @ 23:40:
[...]

De melding gaat niet specifiek over journals, maar over een service die kernel dumps kan opslaan (en omdat systemd alles parallel probeert te doen staat het tussen een paar regels over journals). Met een probleem als dit is dat misschien wel de moeite waard om te fixen, in de hoop dat er ergens wel informatie achterblijft over het onverwacht rebooten.
SMART nalopen ben ik het overigens zeker mee eens, onverwachte reboots zonder logs kunnen komen door een niet werkende SSD/HDD (of door vele andere oorzaken die misschien lastiger te vinden zijn).
Wellicht een nog beter alteenatief is in ieder geval de kernel messages remote in de gaten houden. Of door vanaf een ander systeem (middels SSH) cat /dev/kmsg te draaien, in afwachting van "iets", of door netconsole in te regelen.

De (journal) logs die nu gepost zijn zeggen in ieder geval helemaal niks. Die "Reboot" regel betekent volgens mij niet meer of minder dan "dit is het einde van de ('vorige') logs en nu begint een boot". Waarbij de regels ervoor nergens op duiden.
Waarschijnlijker is dus een crash tijdens het opstarten waardoor die juist midden in de boot een "Reboot" geeft.

Acties:
  • +1 Henk 'm!

  • stormfly
  • Registratie: Juli 2001
  • Laatst online: 11:09
Mich schreef op vrijdag 15 maart 2024 @ 23:01:
Even met de deur in huis vallen hier. Ik had vannacht wat raar gedrag en een probleem wat ik wel eens vaker heb gehad.

Ik heb wat stukken uit de log geknipt:


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
Mar 14 23:49:35 pve kernel: e1000e 0000:00:1f.6 eno1: NIC Link is Down
Mar 14 23:49:35 pve kernel: vmbr0: port 1(eno1) entered disabled state
.....
Mar 15 06:18:50 pve systemd[1]: Starting apt-daily-upgrade.service - Daily apt upgrade and clean activities...
Mar 15 06:18:50 pve systemd[1]: apt-daily-upgrade.service: Deactivated successfully.
Mar 15 06:18:50 pve systemd[1]: Finished apt-daily-upgrade.service - Daily apt upgrade and clean activities.
-- Reboot --
......
Mar 15 06:30:14 pve systemd[1]: Starting systemd-journal-flush.service - Flush Journal to Persistent Storage...
Mar 15 06:30:14 pve systemd[1]: systemd-pstore.service - Platform Persistent Storage Archival was skipped because of an unmet condition check (ConditionDirectoryNotEmpty=/sys/fs/pstore).
Mar 15 06:30:14 pve systemd[1]: Starting systemd-random-seed.service - Load/Save Random Seed...
Mar 15 06:30:14 pve systemd[1]: Starting systemd-sysusers.service - Create System Users...
Mar 15 06:30:14 pve systemd-journald[490]: Time spent on flushing to /var/log/journal/054231d408264c00af5ef374abbe6f82 is 2.640ms for 954 entries.
-- Reboot --


Mijn systeem is wel 25x opnieuw opgestart vanaf 06:30. En telkens met dezelfde reden een reboot. En toen opeens is die wel doorgestart. Ik heb dit wel eens eerder gehad. En het gekke was telkens dat zodra ik er een monitor aan had gehangen hij wel doorstarte. Maar dit vind ik eigenlijk zo vreemd dat ik niet geloof dat hier een link mee is.

edit: proxmox 8.1.4 volledig up-to-date
Bij mijn waren de reboots gerelateerd aan memory errors, een 48G module is niet ondersteund in een N100/N305 een 32G module wel.

Ik zag:

---Powerbutton pressed shutdown---
of
---Reboot----

Memory tests gedraaid en toen kwam eruit dat het de module was die bij hogere/langdurige temperaturen faalde.

Wat ook handig is: even een andere powersupply testen zodat je deze ook uitgesloten hebt.

Acties:
  • 0 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 17-06 17:43
RobertMe schreef op zaterdag 16 maart 2024 @ 07:33:
[...]

Wellicht een nog beter alteenatief is in ieder geval de kernel messages remote in de gaten houden. Of door vanaf een ander systeem (middels SSH) cat /dev/kmsg te draaien, in afwachting van "iets", of door netconsole in te regelen.

De (journal) logs die nu gepost zijn zeggen in ieder geval helemaal niks. Die "Reboot" regel betekent volgens mij niet meer of minder dan "dit is het einde van de ('vorige') logs en nu begint een boot". Waarbij de regels ervoor nergens op duiden.
Waarschijnlijker is dus een crash tijdens het opstarten waardoor die juist midden in de boot een "Reboot" geeft.
code:
1
2
3
4
5
6
7
8
Mar 15 06:32:58 pve systemd-journald[492]: Time spent on flushing to /var/log/journal/054231d408264c00af5ef374abbe6f82 is 2.643ms for 957 entries.
Mar 15 06:32:58 pve systemd-journald[492]: System Journal (/var/log/journal/054231d408264c00af5ef374abbe6f82) is 662.2M, max 4.0G, 3.3G free.
Mar 15 06:32:58 pve systemd-journald[492]: Received client request to flush runtime journal.
Mar 15 06:32:58 pve systemd-journald[492]: File /var/log/journal/054231d408264c00af5ef374abbe6f82/system.journal corrupted or uncleanly shut down, renaming and replacing.
Mar 15 06:32:58 pve systemd[1]: Finished systemd-random-seed.service - Load/Save Random Seed.
Mar 15 06:32:58 pve systemd[1]: first-boot-complete.target - First Boot Complete was skipped because of an unmet condition check (ConditionFirstBoot=yes).
Mar 15 06:32:58 pve systemd[1]: Finished systemd-journal-flush.service - Flush Journal to Persistent Storage.
Mar 15 06:32:58 pve systemd[1]: Finished systemd-sysusers.service - Create System Users.


Toen hij het uiteindelijk deed krijg je wel de melding dat de file corrupt was. Maar uiteindelijk lukt het wel om hem te repareren ofzo. Dit keer was de pc denk ik spontaan uitgevallen dus ik snap dat er een file corrupt kan zijn door niet netjes afsluiten.

Acties:
  • 0 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 17-06 17:43
stormfly schreef op zaterdag 16 maart 2024 @ 08:43:
[...]


Bij mijn waren de reboots gerelateerd aan memory errors, een 48G module is niet ondersteund in een N100/N305 een 32G module wel.

Ik zag:

---Powerbutton pressed shutdown---
of
---Reboot----

Memory tests gedraaid en toen kwam eruit dat het de module was die bij hogere/langdurige temperaturen faalde.

Wat ook handig is: even een andere powersupply testen zodat je deze ook uitgesloten hebt.
Ik heb wel eens een memory test gedraaid uit de bios (volgens mij via ingebouwde memtest86). Kan hem nog wel een paar keer draaien.

Acties:
  • 0 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 17-06 17:43
dcm360 schreef op vrijdag 15 maart 2024 @ 23:40:
[...]

Dat is standaardgedrag in Proxmox.

[...]

De melding gaat niet specifiek over journals, maar over een service die kernel dumps kan opslaan (en omdat systemd alles parallel probeert te doen staat het tussen een paar regels over journals). Met een probleem als dit is dat misschien wel de moeite waard om te fixen, in de hoop dat er ergens wel informatie achterblijft over het onverwacht rebooten.
SMART nalopen ben ik het overigens zeker mee eens, onverwachte reboots zonder logs kunnen komen door een niet werkende SSD/HDD (of door vele andere oorzaken die misschien lastiger te vinden zijn).
SMART output:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
Smart Log for NVME device:nvme0n1 namespace-id:ffffffff
critical_warning                        : 0
      Available Spare[0]             : 0
      Temp. Threshold[1]             : 0
      NVM subsystem Reliability[2]   : 0
      Read-only[3]                   : 0
      Volatile mem. backup failed[4] : 0
      Persistent Mem. RO[5]          : 0
temperature                             : 30°C (303 Kelvin)
available_spare                         : 100%
available_spare_threshold               : 10%
percentage_used                         : 2%
endurance group critical warning summary: 0
Data Units Read                         : 6,909,846 (3.54 TB)
Data Units Written                      : 12,274,192 (6.28 TB)
host_read_commands                      : 123,240,809
host_write_commands                     : 364,742,749
controller_busy_time                    : 4,279
power_cycles                            : 510
power_on_hours                          : 862
unsafe_shutdowns                        : 277
media_errors                            : 0
num_err_log_entries                     : 0
Warning Temperature Time                : 0
Critical Composite Temperature Time     : 0
Temperature Sensor 1           : 30°C (303 Kelvin)
Temperature Sensor 2           : 30°C (303 Kelvin)
Thermal Management T1 Trans Count       : 0
Thermal Management T2 Trans Count       : 0
Thermal Management T1 Total Time        : 0
Thermal Management T2 Total Time        : 0

[ Voor 48% gewijzigd door Mich op 16-03-2024 09:23 ]


Acties:
  • +1 Henk 'm!

  • stormfly
  • Registratie: Juli 2001
  • Laatst online: 11:09
Mich schreef op zaterdag 16 maart 2024 @ 09:04:
[...]


Ik heb wel eens een memory test gedraaid uit de bios (volgens mij via ingebouwde memtest86). Kan hem nog wel een paar keer draaien.
Die zou ik niet draaien, in het RouterZelfbouw topic stormfly in "Zelfbouw project: Firewall / Router / AP" hebben we geconcludeerd dat een andere memtest (via USBstick) net wat meer pressure op het systeem legt waardoor een fout sneller zichtbaar werd. Zie link voor screenshot met naam.

Acties:
  • 0 Henk 'm!

  • Mich
  • Registratie: December 2000
  • Laatst online: 17-06 17:43
stormfly schreef op zaterdag 16 maart 2024 @ 09:24:
[...]


Die zou ik niet draaien, in het RouterZelfbouw topic stormfly in "Zelfbouw project: Firewall / Router / AP" hebben we geconcludeerd dat een andere memtest (via USBstick) net wat meer pressure op het systeem legt waardoor een fout sneller zichtbaar werd. Zie link voor screenshot met naam.
Ga ik proberen. Thanks.

Acties:
  • +1 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

nero355 schreef op donderdag 5 oktober 2023 @ 00:07:
[...]

Android TV neem ik aan ?? :)


[...]

Als je toch al Proxmox gebruikt dan kan je toch net zo goed een Debian LXC of VM aanmaken voor je Plex i.p.v. zwaar overkill en irritant Windows te draaien :?

Het kan net zo goed een Windows Update zijn die roet in het eten gooit !! :P
Het is even geleden :P. Geen idee als het verhaal nog bij staat. Deze week andere pc (andere mobo, cpu i5-13500, merk, vorige pc is retour gegaan). Proxmox erop. Op de nieuwe plex draaien exact hetzelfde. LG tv laat heel het netwerk eruit klappen. Het zit hem niet in de hardware z'n beetje alles is anders.

Kortom je advies om Plex in een LXC of VM te draaien moet ik dan toch maar opvolgen ;). Alleen wat of welke is het beste? Ik ben totaal geen linux kenner. De een zegt ubuntu met plex, de ander debian met plex.

Vanuit windows gezien was plex al 50 GB groot (covers van media en metadata).

Nu heb ik dit gevonden: https://tteck.github.io/Proxmox/ vervolgens Plex gepakt. Als OS debian 12 gekozen, opslag (100GB) en cores ( 8 ) en ram (4GB) en swap (512 MB) toegekend en klaar. Is dat ok?

Daarna nog een 'handleiding' gevolgd hoe ik een netwerk share connect: https://tecadmin.net/mounting-samba-share-on-ubuntu/ dat is ook gelukt.

Met de LG tv getest. Netwerk klapt er nu niet uit.

Installatie ongeveer 15 min. reboot in 7 sec :D . Plex draait dus onder linux. Maar is dit het beste? Of moet ik nog meer ram of wat doen ook toekennen? Of een totaal andere OS pakken VM ipv LXC?

Het enige wat mij wel opvalt is dat ik bij debian/linux met io delay krijg terwijl dat bij de windows vm niet was. Enige idee waardoor dat komt?

Gisteren tussen 20:00 en 00:00 uur 6 streams geen delay (die piek voor 20:00 is door windows update)
Zojuist 1 stream een redelijk piek... en daarna nog een wat vlakke piek
Afbeeldingslocatie: https://tweakers.net/i/dh-olI2UUHZqZGERLFvWzHFU4xw=/800x/filters:strip_exif()/f/image/neGSFqtxi6mIiqJUwRcyMVzk.png?f=fotoalbum_large

Nu lees ik dat kom door de HDD maar er zit WD Black SN850X 2TB dat moet toch snel genoeg zijn?

Of moet ik in Plex nog wat settings aanpassen?

Update
Aangezien LXC IO delay geeft. Een vm met debian 12 gemaakt en daarop plex werkend gekregen. Kijken wat dat doet. Alleen ook daar gebeurd weer wat vreemds. Ik voeg een film bieb toe. In plex amper ram gebruik. Terwijl in proxmox in een record tempo de ram word volgepompt

Afbeeldingslocatie: https://tweakers.net/i/AkBl-6jp1jtjfiNgEEZR1bVjWBI=/x800/filters:strip_exif()/f/image/Yar3QCxyezY0LevZTWJvTuBH.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/Gvu6Qyj7-oJN2vfYt6bFsoaGooc=/800x/filters:strip_exif()/f/image/rFfeohBLfin4YUN1gQNMSaIe.png?f=fotoalbum_large

Gebruikte bronnen

https://www.linuxcapable....a-server-on-debian-linux/
https://tecadmin.net/mounting-samba-share-on-ubuntu/

[ Voor 22% gewijzigd door RobbyTown op 17-03-2024 22:46 ]

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • 0 Henk 'm!

  • MakhouT
  • Registratie: September 2016
  • Laatst online: 09-06 14:25
Ik heb een unprivileged container dat ik nu graag privileged wil maken. Maar ik kan die option niet meer aanpassen, de container staat wel uit.
Enig idee hoe ik de switch in orde kan maken?

Acties:
  • +2 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:07
MakhouT schreef op dinsdag 19 maart 2024 @ 09:39:
Ik heb een unprivileged container dat ik nu graag privileged wil maken. Maar ik kan die option niet meer aanpassen, de container staat wel uit.
Enig idee hoe ik de switch in orde kan maken?
Zelf nooit gedaan - maar ik dacht dat zoiets alleen gaat via backup-en-restore:
https://harish2k01.in/con...rivileged-lxc-in-proxmox/

Een oude post hierover in het Proxmox forum:
https://forum.proxmox.com...security-namespace.63166/

[ Voor 16% gewijzigd door Airw0lf op 19-03-2024 10:10 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • MakhouT
  • Registratie: September 2016
  • Laatst online: 09-06 14:25
Thanks dat is gelukt en redelijk simpel!

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 17-06 14:02

zeroday

There is no alternative!

RobbyTown schreef op zaterdag 16 maart 2024 @ 12:32:
[...]
Kortom je advies om Plex in een LXC of VM te draaien moet ik dan toch maar opvolgen ;). Alleen wat of welke is het beste? Ik ben totaal geen linux kenner. De een zegt ubuntu met plex, de ander debian met plex.


Nu heb ik dit gevonden: https://tteck.github.io/Proxmox/ vervolgens Plex gepakt. Als OS debian 12 gekozen, opslag (100GB) en cores ( 8 ) en ram (4GB) en swap (512 MB) toegekend en klaar. Is dat ok?

Met de LG tv getest. Netwerk klapt er nu niet uit.

Installatie ongeveer 15 min. reboot in 7 sec :D . Plex draait dus onder linux. Maar is dit het beste? Of moet ik nog meer ram of wat doen ook toekennen? Of een totaal andere OS pakken VM ipv LXC?
ik snap niet 1-2-3 wat je nu wil. Ik heb hier Plex draaien als server met LXC, met ik geloof 16GB disk, ik zou niet weten waarom Plex, die alleen maar hoeft te indexeren meer HDD ruimte zou moeten hebben.


Nu snap ik dat als je veel streams laat draaien en deze streams laat transcoden dat je dan een goede CPU met wat memory moet hebben. (nu heb ik natuurlijk geen ervaring met het afspelen van data direct van HDMI van een server naar de TV.. die van mij doet het via een Plex App op de TV

Maar goed, ik maak me dan ook geheel niet druk om de CPU/Mem gebruik, het systeem gebruikt wat hij krijgt toegewezen.
Dus ga eens spelen met de instellingen van Plex. Is het noodzakeljk dat je dingen laat transcoden?

een LXC neemt karakteristieken van Proxmox over dus ja daar kan je dan een CPU/Memory gebruik van die LXC zien. een VM is wat meer op zichzelf binnen proxmox en is 'nog meer' een virtuele machine dan een LXC .. De een heeft bepaalde voordelen en de ander ook.

Om dingen te leren zou ik een LXC en een VM bouwen en dat lekker even de data laten indexeren en dan gewoon even uitproberen wat het lekkerste bij je draait.

[ Voor 4% gewijzigd door zeroday op 20-03-2024 08:03 ]

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

zeroday schreef op woensdag 20 maart 2024 @ 08:00:
[...]


ik snap niet 1-2-3 wat je nu wil. Ik heb hier Plex draaien als server met LXC, met ik geloof 16GB disk, ik zou niet weten waarom Plex, die alleen maar hoeft te indexeren meer HDD ruimte zou moeten hebben.


Nu snap ik dat als je veel streams laat draaien en deze streams laat transcoden dat je dan een goede CPU met wat memory moet hebben. (nu heb ik natuurlijk geen ervaring met het afspelen van data direct van HDMI van een server naar de TV.. die van mij doet het via een Plex App op de TV

Maar goed, ik maak me dan ook geheel niet druk om de CPU/Mem gebruik, het systeem gebruikt wat hij krijgt toegewezen.
Dus ga eens spelen met de instellingen van Plex. Is het noodzakeljk dat je dingen laat transcoden?

een LXC neemt karakteristieken van Proxmox over dus ja daar kan je dan een CPU/Memory gebruik van die LXC zien. een VM is wat meer op zichzelf binnen proxmox en is 'nog meer' een virtuele machine dan een LXC .. De een heeft bepaalde voordelen en de ander ook.

Om dingen te leren zou ik een LXC en een VM bouwen en dat lekker even de data laten indexeren en dan gewoon even uitproberen wat het lekkerste bij je draait.
Vraagje hoe heb je die Plex LXC gemaakt ook via https://tteck.github.io/Proxmox/ Media - Photo > Plex Media Server LXC of anders?

Met 16 GB aan opslag ga ik het niet redden. Hij is ongeveer 24 uur bezig geweest om alles te indexseren

Nu totaal 21 GB in gebruik.
Afbeeldingslocatie: https://tweakers.net/i/DUezAYzb7nutRynxMwS9xd6JSP4=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/5zhFk7vzOs3iFXfbsX2n449a.png?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/13B3qJYiDvZkZzEPCslKnad-uPE=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/6EEvgIqyVbtl1fdgrVtLFdKK.png?f=user_large

Data (de content) staat op een nas die word ingeladen via mp0
Afbeeldingslocatie: https://tweakers.net/i/xCXRjkEg5o_PHcWOnkYrmtKjaaQ=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/IRZKPE62SAE6nOXGFfN4jZle.png?f=user_large
(nu heb ik natuurlijk geen ervaring met het afspelen van data direct van HDMI van een server naar de TV.. die van mij doet het via een Plex App op de TV
Ik ook niet. Proxmox server staat in de netwerkkast, zit alleen HDMI met los scherm aan om even de BIOS te updaten op zijn tijd. Hier ook casten naar de TV.

Gisterenavond Vannacht even een filmpje gekeken. Helaas komt er dan aardig wat io delay op de cpu zie screenshot (bij indexseren io delay van 1 tot 2% af en toe naar de 5%). Dat had ik bij windows niet.

Waar die io delay vandaan komt is mij een raadsel. i5-13500 cpu, 2TB M.2 opslag dat moet toch allemaal snel genoeg zijn? (dat is sneller dan mijn vorige systeem dat was i5-7500 cpu)
Afbeeldingslocatie: https://tweakers.net/i/nOQdzxHgBclUE5OCQEGCLmRSVEY=/800x/filters:strip_exif()/f/image/EztN6QJqxFtj32meVQx704Hv.png?f=fotoalbum_large

Het stukje dat er even niets gemeten is was een bios update.

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • +2 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 16-06 10:22

orvintax

www.fab1an.dev

RobbyTown schreef op woensdag 20 maart 2024 @ 10:14:
[...]

Vraagje hoe heb je die Plex LXC gemaakt ook via https://tteck.github.io/Proxmox/ Media - Photo > Plex Media Server LXC of anders?

Met 16 GB aan opslag ga ik het niet redden. Hij is ongeveer 24 uur bezig geweest om alles te indexseren

Nu totaal 21 GB in gebruik.
[Afbeelding]

[Afbeelding]

Data (de content) staat op een nas die word ingeladen via mp0
[Afbeelding]


[...]

Ik ook niet. Proxmox server staat in de netwerkkast, zit alleen HDMI met los scherm aan om even de BIOS te updaten op zijn tijd. Hier ook casten naar de TV.

Gisterenavond Vannacht even een filmpje gekeken. Helaas komt er dan aardig wat io delay op de cpu zie screenshot (bij indexseren io delay van 1 tot 2% af en toe naar de 5%). Dat had ik bij windows niet.

Waar die io delay vandaan komt is mij een raadsel. i5-13500 cpu, 2TB M.2 opslag dat moet toch allemaal snel genoeg zijn? (dat is sneller dan mijn vorige systeem dat was i5-7500 cpu)
[Afbeelding]

Het stukje dat er even niets gemeten is was een bios update.
Ik denk persoonlijk niet dat 5% IO delay veel is en iets is om je "druk" over te maken, maar misschien kun je spelen met je disk caches. Link

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 09:42
RobbyTown schreef op woensdag 20 maart 2024 @ 10:14:
[...]


Gisterenavond Vannacht even een filmpje gekeken. Helaas komt er dan aardig wat io delay op de cpu zie screenshot (bij indexseren io delay van 1 tot 2% af en toe naar de 5%). Dat had ik bij windows niet.

Waar die io delay vandaan komt is mij een raadsel. i5-13500 cpu, 2TB M.2 opslag dat moet toch allemaal snel genoeg zijn? (dat is sneller dan mijn vorige systeem dat was i5-7500 cpu)
[Afbeelding]

Het stukje dat er even niets gemeten is was een bios update.
IO-delay komt meestal voor als de hypervisor niet snel genoeg de data kan wegschrijven.

Mogelijk is er iets met je ssd's, weet niet welke ssd je hebt maar vaker bij consumenten ssd's kakt de snelheid vaker in bij bepaalde workloads.

Acties:
  • 0 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

powerboat schreef op woensdag 20 maart 2024 @ 11:42:
[...]


IO-delay komt meestal voor als de hypervisor niet snel genoeg de data kan wegschrijven.

Mogelijk is er iets met je ssd's, weet niet welke ssd je hebt maar vaker bij consumenten ssd's kakt de snelheid vaker in bij bepaalde workloads.
Deze zit erin: uitvoering: WD Black SN850X (zonder heatsink) 2TB

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • +3 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Ook op mijn server met een Optane-drive er in is de I/O-delay niet altijd 0, en ik denk niet dat ik er daar nog wat aan kan verbeteren. Software is gewoon af en toe zo onaardig om I/O te genereren dat niet per direct afgehandeld kan worden.

Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 17-06 14:02

zeroday

There is no alternative!

RobbyTown schreef op woensdag 20 maart 2024 @ 10:14:
[...]

Vraagje hoe heb je die Plex LXC gemaakt ook via https://tteck.github.io/Proxmox/ Media - Photo > Plex Media Server LXC of anders?
ik laat 8TB aan TV series indexeren en 1TB aan films. Meer niet
Plex heeft daarmee minder dan 5GB in gebruik van mijn 16GB

Maar als je 21GB hebt dan laat je op de een of andere manier veel indexeren ;)

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

zeroday schreef op woensdag 20 maart 2024 @ 18:04:
[...]


ik laat 8TB aan TV series indexeren en 1TB aan films. Meer niet
Plex heeft daarmee minder dan 5GB in gebruik van mijn 16GB

Maar als je 21GB hebt dan laat je op de een of andere manier veel indexeren ;)
Dat klopt ook :)

Die 100 GB heb ik meer als voorzorg gedaan ik wist niet zoveel het aan ruimte zou kosten (achteraf gezien 50 GB dus prima geweest). Maar heb 100 GB gedaan aangezien ik bij de Windows al 80 GB had (ok daar moet je dan wel 30 GB aftrekken van het Windows OS :P). Maar zo te zien is het via debian op een of andere manier compacter met plex dan op windows. Maar er zit een 2 TB M.2 SSD in dus 50 GB of 100 GB dat is wel te overzien zit ik later niet te klooien met schijf uitbreiden wat ik dus al een paar keer met de Windows heb gehad 60 GB > 100 GB > 120 GB ivm updates en als maar groeiende collectie ;).

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

RobbyTown schreef op woensdag 20 maart 2024 @ 18:45:
Maar heb 100 GB gedaan aangezien ik bij de Windows al 80 GB had (ok daar moet je dan wel 30 GB aftrekken van het Windows OS :P).
Maak daar maar iets van 60 a 65 GiB van ;)
Maar zo te zien is het via Debian op een of andere manier compacter met plex dan op windows.
Debian installatie helemaal vers is geloof ik met 2 tot 4 GiB prima te doen, maar toch maak ik vaak een 32 GB partitie aan of gebruik ik gewoon een losse 120 GB SSD voor het OS :+
Maar er zit een 2 TB M.2 SSD in dus 50 GB of 100 GB dat is wel te overzien zit ik later niet te klooien met schijf uitbreiden wat ik dus al een paar keer met de Windows heb gehad 60 GB > 100 GB > 120 GB ivm updates en als maar groeiende collectie ;)
Kan je niet de Plex Database op dezelfde plek als je Media zetten dan :?

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

nero355 schreef op woensdag 20 maart 2024 @ 19:01:
[...]

Maak daar maar iets van 60 a 65 GiB van ;)


[...]

Debian installatie helemaal vers is geloof ik met 2 tot 4 GiB prima te doen, maar toch maak ik vaak een 32 GB partitie aan of gebruik ik gewoon een losse 120 GB SSD voor het OS :+


[...]

Kan je niet de Plex Database op dezelfde plek als je Media zetten dan :?
Klopt Debian was in het begin wat ik zag 2 GB in gebruik.

Database op andere locatie (NAS). Los van dat ik geen idee heb hoe. Zit ik met wat als...

Aangezien nu alleen de media word geladen is die dan even niet beschikbaar. Ik ben bang dat die database van Plex snel corrupt raakt omdat het over 2 locaties is verdeeld. Plex draait nog maar de database is er even niet omdat de nas word herstart.

Die proxmox server heeft 2TB opslag (zoveel vms, lxc ga ik nou ook weer niet draaien, nu ik Plex op Windows afscheid heb genomen nog eens 100 GB minder nodig/meer over :P )

Mocht mijn nas eruit klappen dan is Plex nog heel ik ben alleen de content kwijt / die zal dan niet beschikbaar zijn. Als ik dat ga verdelen haal ik denk ik nogal een werk op mijn hals.

Nu heb ik die schijf 100GB gemaakt. Gelukkig/mooi dat het zo is, hij backupt alleen de GBs die ingebruik zijn en nog onnodig 80GB lege ruimte.

Dat ik nu 80GB in die Plex lxc niet gebruik kan toch geen kwaad of wel?

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • +1 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 09:42
Afbeeldingslocatie: https://tweakers.net/i/2X3MjsdM5IaEa3E9irF7ZpQe-Uo=/800x/filters:strip_exif()/f/image/AHJF2L6ilsC98tJVXJPDFPhw.png?f=fotoalbum_large

Oei,joei,joei :z consumenten SSD die op is, had hem aan TrueNas SCALE gemount. Begon een beetje traag te worden :(. Maar goed, het is maar een test servertje.

Acties:
  • +2 Henk 'm!

  • deHakkelaar
  • Registratie: Februari 2015
  • Laatst online: 27-07-2024
RobbyTown schreef op zaterdag 16 maart 2024 @ 12:32:
Alleen ook daar gebeurd weer wat vreemds. Ik voeg een film bieb toe. In plex amper ram gebruik. Terwijl in proxmox in een record tempo de ram word volgepompt
Ik draai zelf geen Proxmox maar spiek wel eens in dit draadje ;)
Kan het niet gewoon onder zijn?
https://www.linuxatemyram.com/

Wat geeft onder dan weer in die Proxmox VM?
code:
1
free -h

There are only 10 types of people in the world: those who understand binary, and those who don't


Acties:
  • 0 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

deHakkelaar schreef op woensdag 20 maart 2024 @ 22:12:
[...]

Ik draai zelf geen Proxmox maar spiek wel eens in dit draadje ;)
Kan het niet gewoon onder zijn?
https://www.linuxatemyram.com/

Wat geeft onder dan weer in die Proxmox VM?
code:
1
free -h
Thanks voor het command. Echter dat is niet meer te achter halen, die VM is al verwijderd. Dat die het zwaar had / alle ram pakte of iets was er wel aan de hand. Als ik een film aanklikte voor ik dan de info zag (acteurs, rating, waar de film over gaat, ...) was die gewoon flink aan het laden voor ik wat zag. Terwijl dat normaal direct is.

Maar dat commando heb ik nu zojuist wel even gedraaid bij LXC Plex (waar de ram niet van vol knalt)
total used free shared buff/cache available
Mem: 8.0Gi 332Mi 2.7Gi 56Ki 5.0Gi 7.7Gi
Swap: 512Mi 13Mi 498Mi

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • +2 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

RobbyTown schreef op woensdag 20 maart 2024 @ 19:29:
Dat ik nu 80GB in die Plex lxc niet gebruik kan toch geen kwaad of wel?
Zolang je het je kan veroorloven is er uiteraard niks aan de hand :)
powerboat schreef op woensdag 20 maart 2024 @ 21:37:
[Afbeelding]

Oei,joei,joei :z consumenten SSD die op is, had hem aan TrueNas SCALE gemount. Begon een beetje traag te worden :(. Maar goed, het is maar een test servertje.
Balen man... :-(

Crucial MX500 is nou eenmaal helaas geen M500 (DC) meer ;w

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +2 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 09:42
nero355 schreef op donderdag 21 maart 2024 @ 02:11:
[...]

Zolang je het je kan veroorloven is er uiteraard niks aan de hand :)


[...]

Balen man... :-(

Crucial MX500 is nou eenmaal helaas geen M500 (DC) meer ;w
Geen probleem, back-ups voorhanden en daarvoor is het een testmachine zodat we kunnen leren wat het doet :z.

Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 17-06 14:02

zeroday

There is no alternative!

RobbyTown schreef op woensdag 20 maart 2024 @ 10:14:

Waar die io delay vandaan komt is mij een raadsel. i5-13500 cpu, 2TB M.2 opslag dat moet toch allemaal snel genoeg zijn? (dat is sneller dan mijn vorige systeem dat was i5-7500 cpu)
[Afbeelding]

Het stukje dat er even niets gemeten is was een bios update.
IO delay kan komen door de wijze waarop je je opslag hebt gedefinieerd, NFS / SMB, wel of niet correcte gebruikersrechten, juiste manier van mounten etc.

Althans.. er zijn veel 'experts' die hier en daar in fora tips geven. E.e.a. kun je zelf proberen op te zoeken en uit te proberen ;)

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

zeroday schreef op donderdag 21 maart 2024 @ 13:45:
[...]


IO delay kan komen door de wijze waarop je je opslag hebt gedefinieerd, NFS / SMB, wel of niet correcte gebruikersrechten, juiste manier van mounten etc.

Althans.. er zijn veel 'experts' die hier en daar in fora tips geven. E.e.a. kun je zelf proberen op te zoeken en uit te proberen ;)
Klopt die antwoorden kwam ik ook tegen. Maar ik heb zelfs speciaal een user aangemaakt zodat die in de folder 'video' kan. Had een al een folder 'proxmox' met daarbij de behoorde user voor de backups.
Afbeeldingslocatie: https://tweakers.net/i/35-wToMs7eux3b89vYZcJ2EuZA0=/800x/filters:strip_exif()/f/image/g6MWZJLsMKY01ugXNhbw3pYh.png?f=fotoalbum_large

Ben nog even wat verder gaan testen. Het lijkt erop dat die io delay komt (in de grafiek zichtbaar maar merk er zelf weinig van) wanneer er word getranscode. Als ik een iets start zonder transcode dan komt de io delay niet.

Het viel mij trouwens op dat met debian plex nu sneller start of als ik stuk skip. Dat is bij direct bij windows zat er 1 of 2 seconden vertraging in. Al met al positief.

Zag trouwens dat ik bij Plex op debian automatisch updaten mis.

Plex Debian LXC
Afbeeldingslocatie: https://tweakers.net/i/lZezXuD_9DPS1FkgMdqgKbVfNP0=/800x/filters:strip_exif()/f/image/sUdobBY5pFlMtlHhzYyvn2ZB.png?f=fotoalbum_large

Plex Windows
Afbeeldingslocatie: https://tweakers.net/i/V8OZBn0Kgr4faV50Dvq4N2soL-s=/800x/filters:strip_exif()/f/image/7s8vhvhraa5LIdqZNYucC2us.png?f=fotoalbum_large

Mocht er een update zijn dan is het een kwestie van
code:
1
apt-get update && apt-get upgrade
toch?

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 17-06 14:02

zeroday

There is no alternative!

[quote]RobbyTown schreef op donderdag 21 maart 2024 @ 14:22:
[...]

Klopt die antwoorden kwam ik ook tegen. Maar ik heb zelfs speciaal een user aangemaakt zodat die in de folder 'video' kan. Had een al een folder 'proxmox' met daarbij de behoorde user voor de backups.
[Afbeelding]

ugh .. jij mount je disk in je proxmox .. ja dat kan .. maar zo doe ik het niet.
Ik mount mijn NAS met data via /etc/fstab in de lxc of in de mv.
Dan heb ik controle. Natuurlijk zal proxmox het wel goed doen, maar ik heb er geen directe controle dan op.
Ben nog even wat verder gaan testen. Het lijkt erop dat die io delay komt (in de grafiek zichtbaar maar merk er zelf weinig van) wanneer er word getranscode. Als ik een iets start zonder transcode dan komt de io delay niet.
Ik transcode nooit, staat volgens mij zelfs uit bij mij.dus ik zou het niet weten.
Zag trouwens dat ik bij Plex op debian automatisch updaten mis.

Mocht er een update zijn dan is het een kwestie van
code:
1
apt-get update && apt-get upgrade
toch?
Nee. Althans.. dan kun je bij debian lang wachten..
ik upload altijd de .deb package en met dpkg -i [package naam] update ik hem altijd handmatig

Zag toevallig dat er weer een nieuwe versie staat. Die download ik, met winscp zet ik hem op de plex server en ga dan aan de slag.
Maar denk dat ik ga kijken of ik daar een scriptje voor kan maken.

oh misschien werkt dit ook
https://github.com/mrworf/plexupdate

update .. yup werkt ;)

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

zeroday schreef op donderdag 21 maart 2024 @ 14:27:
[quote]RobbyTown schreef op donderdag 21 maart 2024 @ 14:22:
[...]

Klopt die antwoorden kwam ik ook tegen. Maar ik heb zelfs speciaal een user aangemaakt zodat die in de folder 'video' kan. Had een al een folder 'proxmox' met daarbij de behoorde user voor de backups.
[Afbeelding]

ugh .. jij mount je disk in je proxmox .. ja dat kan .. maar zo doe ik het niet.
Ik mount mijn NAS met data via /etc/fstab in de lxc of in de mv.
Dan heb ik controle. Natuurlijk zal proxmox het wel goed doen, maar ik heb er geen directe controle dan op.


[...]


Ik transcode nooit, staat volgens mij zelfs uit bij mij.dus ik zou het niet weten.


[...]


Nee. Althans.. dan kun je bij debian lang wachten..
ik upload altijd de .deb package en met dpkg -i [package naam] update ik hem altijd handmatig

Zag toevallig dat er weer een nieuwe versie staat. Die download ik, met winscp zet ik hem op de plex server en ga dan aan de slag.
Maar denk dat ik ga kijken of ik daar een scriptje voor kan maken.

oh misschien werkt dit ook
https://github.com/mrworf/plexupdate

update .. yup werkt ;)
Dat mounten kan inderdaad op meerdere manieren. Had deze gevonden: https://tecadmin.net/mounting-samba-share-on-ubuntu/ jou manier. Had vooral gedaan om te testen als er verschil was in snelheid of iets. Maar dat is dus niet.

https://github.com/mrworf/plexupdate
Cool. Ook maar erop erop gezet. Dank u :).

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • +2 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 16-06 10:22

orvintax

www.fab1an.dev

zeroday schreef op donderdag 21 maart 2024 @ 14:27:
Nee. Althans.. dan kun je bij debian lang wachten..
ik upload altijd de .deb package en met dpkg -i [package naam] update ik hem altijd handmatig
Plex heeft een officiele repository voor onderandere APT (Link). Dan hoef je niet meer zo lang te wachten ;)

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 17-06 14:02

zeroday

There is no alternative!

orvintax schreef op donderdag 21 maart 2024 @ 17:34:
[...]

Plex heeft een officiele repository voor onderandere APT (Link). Dan hoef je niet meer zo lang te wachten ;)
Ja, maar dan ben ik afhankelijk van wanneer ik het systeem wil updaten ;)
want auto updates doe ik niet aan.

Dus dan is het scriptje voor mij een goed alternatief. Plex buiten de normale updates houden.

There are no secrets, only information you do not yet have


Acties:
  • +2 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 16-06 10:22

orvintax

www.fab1an.dev

zeroday schreef op vrijdag 22 maart 2024 @ 10:24:
[...]
Dus dan is het scriptje voor mij een goed alternatief. Plex buiten de normale updates houden.
Gewoon uit benieuwdheid, maar waarom zou je dit willen? Je kunt packages in apt ook "holden" zodat ze niet geupdate worden, dan kun je kiezen wanneer je het doet. :)

https://dontasktoask.com/


Acties:
  • +2 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 17-06 14:02

zeroday

There is no alternative!

orvintax schreef op vrijdag 22 maart 2024 @ 12:28:
[...]

Gewoon uit benieuwdheid, maar waarom zou je dit willen? Je kunt packages in apt ook "holden" zodat ze niet geupdate worden, dan kun je kiezen wanneer je het doet. :)
Teveel gedoe ;)

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Niet echt :

De UniFi Controller staat hier al jarenlang op HOLD zodat ik niet ineens naar versie 6.x.x/7.x.x/8.x.x zit te kijken en lekker bij 5.x.x blijf :Y) 8) :*) O+

* nero355 kan die nieuwere versies echt gewoon niet uitstaan !!! :r

O-) :+

/EDIT :
Omdat de webGUI daarna alleen maar crappier werd :(

[ Voor 19% gewijzigd door nero355 op 26-03-2024 16:01 ]

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 10:14
nero355 schreef op zaterdag 23 maart 2024 @ 18:24:
[...]

Niet echt :

De UniFi Controller staat hier al jarenlang op HOLD zodat ik niet ineens naar versie 6.x.x/7.x.x/8.x.x zit te kijken en lekker bij 5.x.x blijf :Y) 8) :*) O+

* nero355 kan die nieuwere versies echt gewoon niet uitstaan !!! :r

O-) :+
But why?
nero355 schreef op zaterdag 23 maart 2024 @ 18:24:
/EDIT :

[...]

Omdat de webGUI daarna alleen maar crappier werd :(
Misschien toch maar bijwerken, https://community.ui.com/...de-4372-b2c1-745b8d6b0399
Moet zeggen dat ik met 8.x de web UI best wel goed vind worden.

[ Voor 34% gewijzigd door maxxie85 op 26-03-2024 16:43 ]


Acties:
  • 0 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

@zeroday Toch ook maar overgestapt op fstab om te mounten binnen de lxc dan ben ik meteen van die map af die plex aanmaakt als je het via datacenter > storage hebt toegevoegd.

Ben trouwens in unprivileged en privileged gedoken geen idee wat dat eigenlijk was.

Zag deze post van @orvintax orvintax in "Het grote Proxmox VE topic"

Komt op neer privileged is een no-go

Nu even een nieuwe plex opgezet (meteen de schijf maar kleiner gemaakt ;) ) maar dan op unprivileged.
https://tteck.github.io/Proxmox/
code:
1
bash -c "$(wget -qLO - https://github.com/tteck/Proxmox/raw/main/ct/plex.sh)"


Goed dan nu mounten naar SMB/CIFS dat gaat met unprivileged niet zo 123 heb ik gelezen maar niet onmogelijk

Met deze handleiding lukt het in elk geval niet (wel op privileged want zo draait het nu): https://tecadmin.net/mounting-samba-share-on-ubuntu/

Blijkt dus iets met uid en gid dan zou het wel moeten werken.
https://dev.to/oswllt/pro...ntainer-the-easy-way-3l4k

Alleen nu wil ik het zo veilig mogelijk hebben.

Op mijn Synology nas staat de content. Ik heb/had al een gebruiker speciaal aangemaakt voor plex namelijk svc_plex (lees en schrijfrechten alleen in de video map van de nas, al zou denk ik alleen lezen voldoende moeten zijn denk ik omdat er niets word weggeschreven alleen data opgehaald).

.smbcredentials zet ik dus
username=svc_plex
password=hetwachtwoord-voor-svc_plex

Maar dan komt de afwijking. Welke chmod moet ik nu hebben? Het ene artikel doet 400 (make it readable for the root account only. This will restrict access to all non-root accounts.) de andere 700 (set R/W access for the owner only ). Welke van de 2 is het beste/veiligste?

[ Voor 6% gewijzigd door RobbyTown op 24-03-2024 11:10 ]

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • +3 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 16-06 10:22

orvintax

www.fab1an.dev

RobbyTown schreef op zondag 24 maart 2024 @ 11:07:
Goed dan nu mounten naar SMB/CIFS dat gaat met unprivileged niet zo 123 heb ik gelezen maar niet onmogelijk
Wat ik beschrijf in die post komt ongeveer op hetzelfde neer als wat er in die link staat. Dus je mount je SMB/CIFS share in de Proxmox host en vervolgens maak je dan een mountpoint aan voor je container in die share.
Maar dan komt de afwijking. Welke chmod moet ik nu hebben? Het ene artikel doet 400 (make it readable for the root account only. This will restrict access to all non-root accounts.) de andere 700 (set R/W access for the owner only ). Welke van de 2 is het beste/veiligste?
Om met de makkelijkste vraag te beginnen, 400 is veiliger dan 700. Met 400 kan de owner alleen lezen, met 700 kan de owner lezen, schrijven en uitvoeren. Als je puur en alleen je bestanden wilt laten uitlezen (door de owner) dan is 400 de beste keus.

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 17-06 14:02

zeroday

There is no alternative!

RobbyTown schreef op zondag 24 maart 2024 @ 11:07:
@zeroday Toch ook maar overgestapt op fstab om te mounten binnen de lxc dan ben ik meteen van die map af die plex aanmaakt als je het via datacenter > storage hebt toegevoegd.
.. over het mounten .. ik heb voor mijn TV series nu nog een NFS share in gebruik. In principe is het niet noodzakelijk omdat samba in de loop der jaren z'n stabiliteit en performance beter heeft gemaakt, maar dit werkt voor mij en als je een nieuwe machine maakt is het makkelijker om een regel te kopieren dan wat nieuws te doen

10.1.1.101:/mnt/nasje/TV-Meuk /media/TV-Series nfs auto,rw,noatime,async,nolock,bg,intr,tcp,actimeo=0,_netdev 0 0

dit werkt voor mij

Volgens mij moet ik ook nog wel ergens wat SMB shares hebben maar daar maakt plex geen gebruik van.

simpel te installeren bovenstaande door je NAS in te richten als NFS server en apt-get install nfs-common te installeren op je lxc ..

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • Ruudstertje
  • Registratie: April 2021
  • Laatst online: 05-06 23:59
Goedemiddag,

Ik probeer Sonarr en Radarr aan de gang te krijgen op Proxmox maar tot nu toe lukt dit niet.
Ik heb via Tteck scripts beide apps geinstalleerd maar als ik naar het bijbehoordende ip:poortnummer ga krijg ik niks anders te zien dan:
Deze site is niet bereikbaar

192.168.178.138 heeft de verbinding geweigerd.

Probeer dit eens:

Controleer de verbinding
Controleer de proxy en firewall
ERR_CONNECTION_REFUSED


Apps als Pi-Hole en Home Assistant heb ik zonder problemen geïnstalleerd werk ook

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 09:42
Ruudstertje schreef op donderdag 28 maart 2024 @ 15:27:
Goedemiddag,

Ik probeer Sonarr en Radarr aan de gang te krijgen op Proxmox maar tot nu toe lukt dit niet.
Ik heb via Tteck scripts beide apps geinstalleerd maar als ik naar het bijbehoordende ip:poortnummer ga krijg ik niks anders te zien dan:
Deze site is niet bereikbaar

192.168.178.138 heeft de verbinding geweigerd.

Probeer dit eens:

Controleer de verbinding
Controleer de proxy en firewall
ERR_CONNECTION_REFUSED


Apps als Pi-Hole en Home Assistant heb ik zonder problemen geïnstalleerd werk ook
Wat zeggen je logbestanden in de VM waar je het probeert op te installeren?

[ Voor 10% gewijzigd door powerboat op 28-03-2024 15:56 ]


Acties:
  • 0 Henk 'm!

  • Cardinal
  • Registratie: Maart 2002
  • Laatst online: 17-06 19:09
@Ruudstertje nevermind... je checkte al de poortnummers.

Ik heb uiteindelijk sonarr en radarr op debian gezet. tteck is makkelijk, maar wou graag privileged containers.

[ Voor 110% gewijzigd door Cardinal op 28-03-2024 16:00 ]


Acties:
  • +6 Henk 'm!

  • TheBrones
  • Registratie: November 2013
  • Laatst online: 09:55
Momenteel gebruik ik nog ESXI, maar een nieuwe functie kan de overgang wel eens heel eenvoudig gaan maken: https://forum.proxmox.com...-virtual-machines.144023/
Ik heb deze zojuist getest en dit werkte wel heel erg soepel. Voor wat grotere omgevingen zitten er nog wat haken en ogen aan, maar ik ben een fan :).

Hoi


Acties:
  • +4 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 16-06 10:22

orvintax

www.fab1an.dev

TheBrones schreef op donderdag 28 maart 2024 @ 17:35:
Momenteel gebruik ik nog ESXI, maar een nieuwe functie kan de overgang wel eens heel eenvoudig gaan maken: https://forum.proxmox.com...-virtual-machines.144023/
Ik heb deze zojuist getest en dit werkte wel heel erg soepel. Voor wat grotere omgevingen zitten er nog wat haken en ogen aan, maar ik ben een fan :).
Dit is natuurlijk een ontzettend slimme zet van Proxmox na de doodsteek van ESXI voor alles wat niet enterprise is.

https://dontasktoask.com/


Acties:
  • +2 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 31-05 01:30
orvintax schreef op donderdag 28 maart 2024 @ 19:53:
[...]

Dit is natuurlijk een ontzettend slimme zet van Proxmox na de doodsteek van ESXI voor alles wat niet enterprise is.
zon beetje heel MKB Nederland dus, ontelbaar veel klanten met 2 of 5 of 10/20 hosts die prima op proxmox over kunnen. enige wat die willen is 'wat virtuele machines draaien'

het gaat ook niet op de hypervisor maar om de app die in een VM draait en of dat nu op ESXi draait of Proxmox of op een zak ongeschilde aardappelen dat zal mij een worst wezen

A wise man's life is based around fuck you


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:07
Zwelgje schreef op vrijdag 29 maart 2024 @ 05:23:
[...]


zon beetje heel MKB Nederland dus, ontelbaar veel klanten met 2 of 5 of 10/20 hosts die prima op proxmox over kunnen. enige wat die willen is 'wat virtuele machines draaien'

het gaat ook niet op de hypervisor maar om de app die in een VM draait en of dat nu op ESXi draait of Proxmox of op een zak ongeschilde aardappelen dat zal mij een worst wezen
Mij lijkt Hyper-V ook een prima optie - al was het maar omdat de meeste van die MKB-ers in die VM's Windows server gebruiken... denk-ik-zeker-te-weten... :+

makes it run like clockwork


Acties:
  • +3 Henk 'm!

  • Rolfie
  • Registratie: Oktober 2003
  • Laatst online: 06:10
Zwelgje schreef op vrijdag 29 maart 2024 @ 05:23:
[...]


zon beetje heel MKB Nederland dus, ontelbaar veel klanten met 2 of 5 of 10/20 hosts die prima op proxmox over kunnen. enige wat die willen is 'wat virtuele machines draaien'

het gaat ook niet op de hypervisor maar om de app die in een VM draait en of dat nu op ESXi draait of Proxmox of op een zak ongeschilde aardappelen dat zal mij een worst wezen
Persoonlijk zou ik zeggen, dat application aware backup wel een dingetje is bij Proxmox, of eventueel rules dat 2dezelfde vm's nooit op 1 node komen te draaien, multi machine of multicluster beheer is ook nog wel een dingentje. En zo kan ik nog wel wat dingen noemen, waarin het nog echt flink achter loopt, ook voor een MKB.

ProxMox is goed en mooi, maar het mist nog vrij belangrijke features. Maar deze ESXi import, maakt mijn leven zojuist wel een stuk gemakkelijker binnen kort.

Acties:
  • +2 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 31-05 01:30
Airw0lf schreef op vrijdag 29 maart 2024 @ 06:53:
[...]


Mij lijkt Hyper-V ook een prima optie - al was het maar omdat de meeste van die MKB-ers in die VM's Windows server gebruiken - denk-ik-zeker-te-weten... :+
Kan ook, maar wellicht wil je als bedrijfje ook eens nadenken over de maatschappelijke kant van techniek en niet van de ene big tech toko naar de andere overstappen en gaan voor een Europese club (proxmox) en open source.

A wise man's life is based around fuck you


Acties:
  • 0 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 31-05 01:30
Rolfie schreef op vrijdag 29 maart 2024 @ 07:27:
[...]

Persoonlijk zou ik zeggen, dat application aware backup wel een dingetje is bij Proxmox, of eventueel rules dat 2dezelfde vm's nooit op 1 node komen te draaien, multi machine of multicluster beheer is ook nog wel een dingentje. En zo kan ik nog wel wat dingen noemen, waarin het nog echt flink achter loopt, ook voor een MKB.

ProxMox is goed en mooi, maar het mist nog vrij belangrijke features. Maar deze ESXi import, maakt mijn leven zojuist wel een stuk gemakkelijker binnen kort.
Multi cluster wellicht niet (mkb immers) maar de rest van je punten zijn inderdaad valide en moet over nagedacht worden.

A wise man's life is based around fuck you


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Rolfie schreef op vrijdag 29 maart 2024 @ 07:27:
Persoonlijk zou ik zeggen, dat application aware backup wel een dingetje is bij Proxmox
Kan je dat niet met een aparte Backup Applicatie/Server oplossen i.p.v. die van Proxmox zelf :?

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +3 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

Kleine update weer van mijn Proxmox ervaring. Kan misschien handig zijn als andere hier ook tegen aan gaan lopen.

Sinds kort deels over op LXC. Plex draait daar nu prima op.
Enkele posts terug had/heb ik last van IO delay z'n 5%. Na wat verder zoeken weet ik nu ook waar dit vandaan komt. Tussen 2 en 5 draait plex onderhoudstaak, dat is precies de tijd dat de IO delay aanwezig is. Wat plex dan precies doet geen idee maar bij de meldingen komt niets voorbij en op mijn nas zie ik dat die dan om de x tijd een andere media file opent.

Aangezien ik dus 'noodgedwongen' van Windows naar Linux ben gegaan. Nog een allerlaatste poging gedaan waar de netwerkuitval vandaan komt. Bleef het toch maar vreemd vinden.

VM met Windows 11 met daarop Plex op Prodesk van 7 jaar oud niets aan de hand en op een server/pc met een gen 12 en 13 zodra LG tv iets startte ging het netwerk enkele seconden plat (start je met chromecast niets aan de hand). Virtio drivers geupdate zonder succes, bleef hetzelfde. Toen maar eens besloten om hem van VirtIO (paravirtualized) naar E1000 gezet. Nog eens getest. Geen netwerk uitval. Draai ook nog een Windows 11 vm voor PRTG die heeft ook VirtIO is paravirtualized maar doet geen gekke dingen. Blijft al met al zeer bijzonder dat 1 bepaalde combinatie de boel omzeep kan helpen.

Terug naar Windows 11 met Plex is in elk geval niet de bedoeling. Het scheelt z'n 30 GB aan ruimte (Linux VS Windows), dan worden er ook nog 2 backups gemaakt dus z'n 100 GB verschil. Verder ook geen last van spontane reboot en vervolgens eerst het een en ander moet bevestigingen als er grote update is uitgevoerd bij Windows 11.

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 16-06 10:22

orvintax

www.fab1an.dev

RobbyTown schreef op zaterdag 6 april 2024 @ 06:17:
Aangezien ik dus 'noodgedwongen' van Windows naar Linux ben gegaan. Nog een allerlaatste poging gedaan waar de netwerkuitval vandaan komt. Bleef het toch maar vreemd vinden.

VM met Windows 11 met daarop Plex op Prodesk van 7 jaar oud niets aan de hand en op een server/pc met een gen 12 en 13 zodra LG tv iets startte ging het netwerk enkele seconden plat (start je met chromecast niets aan de hand). Virtio drivers geupdate zonder succes, bleef hetzelfde. Toen maar eens besloten om hem van VirtIO (paravirtualized) naar E1000 gezet. Nog eens getest. Geen netwerk uitval. Draai ook nog een Windows 11 vm voor PRTG die heeft ook VirtIO is paravirtualized maar doet geen gekke dingen. Blijft al met al zeer bijzonder dat 1 bepaalde combinatie de boel omzeep kan helpen.
Dus LXC + VirtIO zorgt voor crashes in bepaalde omstandigheden maar LXC + E1000 niet?

https://dontasktoask.com/


Acties:
  • +3 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

orvintax schreef op zaterdag 6 april 2024 @ 11:07:
[...]

Dus LXC + LXC + VirtIO zorgt voor crashes in bepaalde omstandigheden maar LXC + E1000 niet?
Nee nee juist niet. LXC + VirtIO werkt prima alleen wat IO delay.

Hieronder soort overzicht ;).

VM met Windows 11+Plex met VirtIO (en drivers) op een Intel i5-7500 werkt prima nooit nergens last van gehad.

VM met Windows 11+Plex met VirtIO (en drivers) op een Intel i5-12500 werkt niet zodra LG tv een stream start. Start je met een Chromecast niets aan de hand.

VM met Windows 11+Plex met VirtIO (en drivers) op een Intel i5-13500 werkt niet zodra LG tv een stream start. Start je met een Chromecast niets aan de hand.

VM met Windows 11+Plex met E1000 op een Intel i5-13500 werkt LG tv stream start. Chromecast ook niets aan de hand.

Draai ook nog een versie VM met Windows 11+PRTG met VirtIO (en drivers) blijft ook gewoon up.

Intel i5-12500 met E1000 geen idee die pc heb ik toen maar terug gestuurd :p.

Het bizarre is gewoon de combi. Intel gen 12 of 13 met VirtIO opzich prima maar samen met Plex en LG start een stream dan gaat heel even het netwerk onderuit. De content is on afspeelbaar op een LG (blijft hangen). Met een Chromecast niets aan de hand. Die gaat dan heel even hangen (logisch netwerk heeft enkele seconden totale packetloss) en daarna weer verder. Dit alles was op een Intel gen 7 niet aanwezig. Dat werkte prima als LG een stream startte.

Een reinstall van een VM ook gedaan. Maakte geen verschil.

Het lijkt erop dat de VirtIO driver nog niet samen gaan met gen 12 en 13 in combinatie met LG of het gaat niet goed in combinatie met netwerk switch. Maar dan had ik het op E1000 verwacht.

Kleine update. IO delay is opgelost, in de nacht doet Plex onderhoud, daar kwam de grootste delay vandaan. Plex lijkt nu helemaal te zijn bijgewerkt na z'n 2 / 3 weken. IO delay, netwerk piek is er in de nacht niet meer
Afbeeldingslocatie: https://tweakers.net/i/ERgJSaZxwsyDpdm7QVlaSACCvR0=/800x/filters:strip_exif()/f/image/C9WYqoB5m5VFIa2gl9kdtLoH.png?f=fotoalbum_large

[ Voor 21% gewijzigd door RobbyTown op 20-04-2024 00:09 ]

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • 0 Henk 'm!

  • Rolfie
  • Registratie: Oktober 2003
  • Laatst online: 06:10
nero355 schreef op zondag 31 maart 2024 @ 18:28:
[...]

Kan je dat niet met een aparte Backup Applicatie/Server oplossen i.p.v. die van Proxmox zelf :?
Is mogelijk, maar je wilt graag op hypervisor backupen en niet specifiek op file. Bandbreedte, IO en Restore technisch een stuk efficiënter.

En ik weet niet of de backup leveranciers Proxmox weer als hypervisor ondersteunen als je in de VM gaat backupen.

Acties:
  • +2 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:07
RobbyTown schreef op zaterdag 6 april 2024 @ 11:33:
[...]

Nee nee juist niet. LXC + VirtIO werkt prima alleen wat IO delay.

Hieronder soort overzicht ;).

VM met Windows 11+Plex met VirtIO (en drivers) op een Intel i5-7500 werkt prima nooit nergens last van gehad.

VM met Windows 11+Plex met VirtIO (en drivers) op een Intel i5-12500 werkt niet zodra LG tv een stream start. Start je met een Chromecast niets aan de hand.

VM met Windows 11+Plex met VirtIO (en drivers) op een Intel i5-13500 werkt niet zodra LG tv een stream start. Start je met een Chromecast niets aan de hand.

VM met Windows 11+Plex met E1000 op een Intel i5-13500 werkt LG tv stream start. Chromecast ook niets aan de hand.

Draai ook nog een versie VM met Windows 11+PRTG met VirtIO (en drivers) blijft ook gewoon up.

Intel i5-12500 met E1000 geen idee die pc heb ik toen maar terug gestuurd :p.

Het bizarre is gewoon de combi. Intel gen 12 of 13 met VirtIO opzich prima maar samen met Plex en LG start een stream dan gaat heel even het netwerk onderuit. De content is on afspeelbaar op een LG (blijft hangen). Met een Chromecast niets aan de hand. Die gaat dan heel even hangen (logisch netwerk heeft enkele seconden totale packetloss) en daarna weer verder. Dit alles was op een Intel gen 7 niet aanwezig. Dat werkte prima als LG een stream startte.

Een reinstall van een VM ook gedaan. Maakte geen verschil.

Het lijkt erop dat de VirtIO driver nog niet samen gaan met gen 12 en 13 in combinatie met LG of het gaat niet goed in combinatie met netwerk switch. Maar dan had ik het op E1000 verwacht.
Het zal wellicht niet alles verklaren - maar een E1000 wordt geemuleerd en volgt daarmee de traditionele hardware aanpak. Bij VirtIO worden een aantal stappen overgeslagen waardoor pakketjes "rechtstreeks" vanuit de VM naar de host gaan.

Dat maakt dat het netwerkverkeer sneller afgehandeld wordt. Op sommige plekken lees ik dat er verschillen zijn van een factor 2.

makes it run like clockwork


Acties:
  • +2 Henk 'm!

  • Dutchess_Nicole
  • Registratie: Augustus 2001
  • Laatst online: 17-06 16:07
Airw0lf schreef op zaterdag 6 april 2024 @ 13:48:
[...]


Het zal wellicht niet alles verklaren - maar een E1000 wordt geemuleerd en volgt daarmee de traditionele hardware aanpak. Bij VirtIO worden een aantal stappen overgeslagen waardoor pakketjes "rechtstreeks" vanuit de VM naar de host gaan.

Dat maakt dat het netwerkverkeer sneller afgehandeld wordt. Op sommige plekken lees ik dat er verschillen zijn van een factor 2.
Wel ruim meer dan dat. Je slaat inderdaad de volledige network stacks over op zowel de host als de guest. Het wordt min of meer vervangen door het gevirtualiseerde equivalent van een pipe.

Overigens als ik dat probleem zo lees dan lijkt het eerder aan een transcode issue te liggen dan aan de netwerkselectie. Heeft die LG TV toevallig een codec niet die de Chromecast wel heeft waardoor je VM de transcoding moet gaan doen? Dikke kans dat je bottleneck dan daar ligt.

Kia E-Niro 2019 Executiveline. OTGW/HA Enthousiasteling.


Acties:
  • +1 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 08:07
Dutchess_Nicole schreef op zondag 7 april 2024 @ 13:35:
[...]

Overigens als ik dat probleem zo lees dan lijkt het eerder aan een transcode issue te liggen dan aan de netwerkselectie. Heeft die LG TV toevallig een codec niet die de Chromecast wel heeft waardoor je VM de transcoding moet gaan doen? Dikke kans dat je bottleneck dan daar ligt.
Mmm - lijkt me van niet.

Het probleem steekt de kop op bij bepaalde, nieuwere hardware en drivers - bij ouwe hardware schijnt het allemaal prima te werken. Waarbij Chromecast er minder last van schijnt te hebben dan de LG-TV.

Alles bij elkaar sterke aanwijzingen dat de oorzaak in ieder geval niet bij de codec gezocht moet worden - zo is mijn inschatting.

[ Voor 7% gewijzigd door Airw0lf op 07-04-2024 21:51 ]

makes it run like clockwork


Acties:
  • +1 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

Zowel Chromecast als LG komt transcode voor. Oude hardware werkte het prima kon 5 streams prima af.

Nieuwe hardware veel krachtiger. Al doet LG 1 ding raakt het netwerk over de flos. Chromecast is er niets aan de hand.

Ik zelf denk ik iets met virtio drivers en LG samen met nieuwe hardware. Wat precies geen idee. Dit was al een puzzel toch.

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • +4 Henk 'm!

  • _Eend_
  • Registratie: Juni 2006
  • Laatst online: 06:26

_Eend_

🌻🇺🇦

zucht

Ik ben net veel te lang bezig geweest met een heel stom tikfoutje. :F

Sinds kort heb ik zo'n goedkoop Topton systeempje dat ik als firewall ga inzetten. Omdat zelfs dit dit complete overkill is qua CPU dacht ik daar even snel Proxmox op te zetten...

...en dat is ook gelukt, dus nu heb ik een PVE clustertje gebouwd :*) Maar ik had 1 probleem: Ik kreeg IOMMU niet aan de praat, ook niet adhv. de verschillende howto's op internet.

Nu zit ik net weer even te kijken. In /etc/default/grub hoort dit te staan:
GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on iommu=pt"


Wat had ik staan?
GRUB_CMDLINE_LINUX_DEFAULT="quiet intel iommu=on iommu=pt"

Zien jullie het verschil? ;)

spoiler:
De _ tussen intel en iommu=on


* _Eend_ gaat in een hoekje staan

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 09:42
_Eend_ schreef op dinsdag 9 april 2024 @ 10:17:
zucht

Ik ben net veel te lang bezig geweest met een heel stom tikfoutje. :F

Sinds kort heb ik zo'n goedkoop Topton systeempje dat ik als firewall ga inzetten. Omdat zelfs dit dit complete overkill is qua CPU dacht ik daar even snel Proxmox op te zetten...

...en dat is ook gelukt, dus nu heb ik een PVE clustertje gebouwd :*) Maar ik had 1 probleem: Ik kreeg IOMMU niet aan de praat, ook niet adhv. de verschillende howto's op internet.

Nu zit ik net weer even te kijken. In /etc/default/grub hoort dit te staan:
GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on iommu=pt"


Wat had ik staan?
GRUB_CMDLINE_LINUX_DEFAULT="quiet intel iommu=on iommu=pt"

Zien jullie het verschil? ;)

spoiler:
De _ tussen intel en iommu=on


* _Eend_ gaat in een hoekje staan
De underscore :p

Acties:
  • 0 Henk 'm!

  • UUDIBUUDI
  • Registratie: Augustus 2005
  • Niet online
Minstens een eerbare vermelding, mag in het rijtje naast quotes die door MS Office “gepimpt” worden tot obscure scriptfouten }:O

Acties:
  • +2 Henk 'm!

  • smesjz
  • Registratie: Juli 2002
  • Niet online
Dit ging niet helemaal lekker. Ik heb Proxmox 6.8.1 geinstalleerd want yolo. Heb altijd goede ervaringen gehad 6.5, 6.2 en andere kernels die proxmox meelevert.

Ik weet niet precies wat er anders werkt t.o.v. 6.5.x maar mn Home Assistant in LXC container wilde niet meer starten.

code:
1
2
3
4
5
6
7
8
9
10
2024-04-09T18:43:13.789497+02:00 ha kernel: [  438.709914] audit: type=1400 audit(1712680993.788:246): apparmor="DENIED" operation="pivotroot" class="mount" namespace="root//lxc-103_<-var-lib-lxc>" profile="/usr/sbin/runc" name="/var/lib/docker/overlay2/cc8efd47656799ace527ba6511e52c6dbb6e09be73833b7285a1a23834081704/merged/" pid=12609 comm="runc:[2:INIT]" srcname="/var/lib/docker/overlay2/cc8efd47656799ace527ba6511e52c6dbb6e09be73833b7285a1a23834081704/merged/"
2024-04-09T18:43:13.789981+02:00 ha systemd[1]: docker-64f2d9c002957881a06d956b5ffcb84659451cdedf7bbb6e1affbdd6ace37145.scope: Deactivated successfully.
2024-04-09T18:43:13.801943+02:00 ha dockerd[461]: time="2024-04-09T18:43:13.801874936+02:00" level=error msg="stream copy error: reading from a closed fifo"
2024-04-09T18:43:13.802028+02:00 ha dockerd[461]: time="2024-04-09T18:43:13.801881641+02:00" level=error msg="stream copy error: reading from a closed fifo"
2024-04-09T18:43:13.828545+02:00 ha kernel: [  438.748669] docker0: port 1(vethc136fe2) entered disabled state
2024-04-09T18:43:13.828804+02:00 ha systemd-networkd[142]: docker0: Lost carrier
2024-04-09T18:43:13.830560+02:00 ha kernel: [  438.750919] docker0: port 1(vethc136fe2) entered disabled state
2024-04-09T18:43:13.831497+02:00 ha kernel: [  438.751612] docker0: port 1(vethc136fe2) entered disabled state
2024-04-09T18:43:13.863428+02:00 ha hassio-supervisor[7288]: docker: Error response from daemon: failed to create task for container: failed to create shim task: OCI runtime create failed: runc create failed: unable to start container process: error during container init: error jailing process inside rootfs: pivot_root .: permission denied: unknown.
2024-04-09T18:43:18.893828+02:00 ha docker[7386]: hassio_supervisor


SSH naar host ging nog goed en op proxmox forum was er niemand met zelfde ervaring dus dan maar een rollback. Ik dacht even slim te zien door Grub boot menu aan te passen. "grub-reboot 2" werkte zonder foutmelding. Mijn foute aannamet: 6.8.1 is 0, backup 6.8.1 is 1 dus oude 6.5.15 is 2.

In alle haast dus niet heel goed gelezen en vervolgens reboot gedaan. Na 3 minuten wachten kwam het besef dat het foute boel was. NUC uit meterkast gehaald en via usb-c aan monitor gehangen.
Bij booten kwam ik er achter dat #2 hoorde bij memtest ipv een kernel. K*t dus iedere boot ging naar memtest.

Uiteraard geen bedraad toetsenbord in de buurt of kunnen regelen en 9.95 Euro bij Mediamarkt en een Duits(!) toetsenbord later kon ik weer inloggen. Alles van /boot/*6.8.1* in backup dir gegooid en grub update gedraaid.

Na reboot werd netjes 6.5.13 geboot maar die bleef hangen bij booten op missende firmware of driver van usb-c / thunderbolt (denk ik). Kan er ook nog wel bij. En uiteraard geen HDMI kabel in de buurt zonder huis te verbouwen en zonder usb-c kabel dus geen beeld.
Op goed geluk NUC weer terug in meterkast, UTP er in en.... het draaide weer. Crisis in huis opgelost.

De les hieruit is natuurlijk niet om geen test kernels te draaien of altijd een bedraaid te hebben maar om een Proxmox cluster te draaien met 3 nodes + sandbox....

Acties:
  • +1 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 11-06 09:37

icecreamfarmer

en het is

Zojuist proxmox geupdate maar kreeg foutmeldingen dat de ssd van 30 gig volstond. daar naar gekeken en zag veel cache en log/journal bestanden die gigabytes aan ruimte innamen.
Wat logs verwijderd de update gedraaid maar nu start een lxc container niet meer op.
En ik heb de logfiles gecapped naar 250M.
Ik krijg de volgende foutmelding:
Last login: Fri Jan 26 20:10:59 CET 2024 on pts/0
root@proxmox:~# lxc-start -n 101 -F -l DEBUG -o /tmp/lxc-CT101.log
lxc-start: 101: ../src/lxc/utils.c: run_buffer: 571 Script exited with status 1
lxc-start: 101: ../src/lxc/start.c: lxc_init: 845 Failed to run lxc.hook.pre-start for container "101"
lxc-start: 101: ../src/lxc/start.c: __lxc_start: 2034 Failed to initialize container "101"
lxc-start: 101: ../src/lxc/tools/lxc_start.c: lxc_start_main: 307 The container failed to start
lxc-start: 101: ../src/lxc/tools/lxc_start.c: lxc_start_main: 312 Additional information can be obtained by setting the --logfile and --logpriority options
root@proxmox:~# cd /tmp
root@proxmox:/tmp# dir
lxc-CT101.log
systemd-private-a6de8f20ac84463c9a4077b3b2ad063d-chrony.service-XwlcsB
systemd-private-a6de8f20ac84463c9a4077b3b2ad063d-systemd-logind.service-Cy3Arl
root@proxmox:/tmp# nano lxc-ct101.log
root@proxmox:/tmp#
Broadcast message from root@proxmox (Sat 2024-04-13 13:51:41 CEST):
Open ik de logfile dan is deze helemaal leeg :? . Wat is er aan de hand?

Dit is de config:
root@proxmox:~# pct config 101
arch: amd64
cores: 4
description: P%0Aroot%0A
features: fuse=1,mount=cifs,nesting=1
hostname: Plex
memory: 4096
nameserver: 1.1.1.1
net0: name=eth0,bridge=vmbr0,firewall=1,hwaddr=EE:69:22:CC:45:D1,ip=dhcp,ip6=auto,type=veth
onboot: 1
ostype: ubuntu
rootfs: DATA:101/vm-101-disk-1.raw,size=32G
startup: order=4,up=120
swap: 0
lxc.cgroup2.devices.allow: c 226:0 rwm
lxc.cgroup2.devices.allow: c 226:128 rwm
lxc.mount.entry: /dev/dri/card0 dev/dri/card0 none bind,optional,create=file
lxc.mount.entry: /dev/dri/renderD128 dev/dri/renderD128 none bind,optional,create=file
Edit:
backup terug gezet en nu werkt het wel.

[ Voor 21% gewijzigd door icecreamfarmer op 13-04-2024 14:39 ]

ik zie ik zie wat jij niet ziet


Acties:
  • +1 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Maar eens de update van 7 naar 8 gedaan, van tevoren de repo's aangepast en de check gedaan volgens Proxmox instructies. Na een reboot van de node kwam ie niet meer up. Bij de kernel proxmox-kernel-6.5.13-5-pve-signed krijg ik kernel panic. Als ik doorboot met een oude kernel (5.15.149-1-pve) boot ie wel door... Enig idee hoe ik dit op kan lossen?

EDIT: gelukt, lag aan de DKMS versie van Wireguard. Die uninstalled, nog een keer de upgrade gedaan, toen liep alles door en nu boot ie ook met de juiste kernel. Raar dat de 7 naar 8 check dit niet opgevangen heeft, maar I guess dat het niet alles kan checken.

EDIT2: wat doen jullie om ruimte vrij te maken? Ik heb nog maar 12% vrij van mijn 60GB bootdisk. Er lijkt veel data in var (/var/cache en /var/log) en usr te zitten. Wat is het makkelijkste om op te ruimen naar jullie mening?

[ Voor 42% gewijzigd door Sp33dFr34k op 21-04-2024 17:10 ]

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40

Pagina: 1 ... 44 ... 57 Laatste