"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
Als je een eigen DNS name server wilt draaien (dus niet resolver) dan moet je wederom tenminste poort 53 open staan hebben.
Maar de Proxmox UI poort (8006) zou ik zeker niet open zetten voor iedereen.
Niemand heeft een verplichting om enkel te doen wat OP zint of nuttig acht. Vond het gewoon leuk om te zien.
Dit is een hele mooie, dank!Jerie schreef op vrijdag 14 maart 2025 @ 19:09:
[...]
Voor wie geen zin heeft in allerlei commando's en een TUI wil apt install ncdu en na installatie ncdu / vervolgens weet je welke directories onevenredig veel ruimte gebruiken.
@Airw0lf n.a.v. bovenstaande zie ik dat usr/lib relatief veel ruimte in beslag neemt (3.6GB), maar daar valt weinig aan te doen lijkt mij. Andere folder is var/cache/apt/archives (4.4GB). Zou dat verwijderd kunnen worden?
_JGC_ schreef op vrijdag 14 maart 2025 @ 20:09:
Overigens is 16GB voor het rootfs tegenwoordig niet heel veel. Waarschijnlijk is die NVME disk later toegevoegd. Kan je de output van vgdisplay en lvdisplay geven? Mogelijk kan je pve-root gewoon extenden.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
| --- Volume group --- VG Name pve System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 7 VG Access read/write VG Status resizable MAX LV 0 Cur LV 3 Open LV 2 Max PV 0 Cur PV 1 Act PV 1 VG Size 55.39 GiB PE Size 4.00 MiB Total PE 14181 Alloc PE / Size 12422 / 48.52 GiB Free PE / Size 1759 / 6.87 GiB |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
| --- Logical volume --- LV Name data VG Name pve LV UUID OuE90q-x3pO-ePXK-jJPT-WLqr-d7JG-lkg0hh LV Write Access read/write LV Creation host, time proxmox, 2020-12-18 18:08:44 +0100 LV Pool metadata data_tmeta LV Pool data data_tdata LV Status available # open 0 LV Size <25.90 GiB Allocated pool data 0.00% Allocated metadata 1.58% Current LE 6630 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:4 --- Logical volume --- LV Path /dev/pve/swap LV Name swap VG Name pve LV UUID OJE3kw-xmY0-wp4b-G3Qn-ZnK3-DE8V-2HjTB2 LV Write Access read/write LV Creation host, time proxmox, 2020-12-18 18:08:43 +0100 LV Status available # open 2 LV Size <6.88 GiB Current LE 1760 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:0 --- Logical volume --- LV Path /dev/pve/root LV Name root VG Name pve LV UUID mgaeOF-RU3U-3xE1-4Pnc-zF70-xuOk-5yyfAj LV Write Access read/write LV Creation host, time proxmox, 2020-12-18 18:08:44 +0100 LV Status available # open 1 LV Size 13.75 GiB Current LE 3520 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:1 |
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
1
| apt clean |
[ Voor 20% gewijzigd door orvintax op 17-03-2025 14:03 ]
Dank, dat was een quick win, nu weer 50% vrijorvintax schreef op maandag 17 maart 2025 @ 14:03:
@Sp33dFr34k Je kunt je APT cache schoonmaken met het volgende commando:code:
1 apt clean
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Maar wat ik niet kan zien is wat de verwachte kernel versie gaat zijn.
Zit zelf namelijk op features uit de 6.13 kernel te wachten (januari 2025) maar is er ergens iets te zien wat het gaat worden?
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Is even afhankelijk van hoeveel bugreports er binnen gaan komen, maar ik verwacht dat 6.11 doorschuift als standaard kernel. Traditie is dat ze Ubuntu gaan volgen, dus de volgende testkernel wordt 6.14.The-Source schreef op maandag 17 maart 2025 @ 14:23:
Voor de kenners, gezien de historisch changelogs lijkt het erop dat er over ongeveer een maand een nieuwe release komt op een nieuwe/geupdate linux kernel.
Maar wat ik niet kan zien is wat de verwachte kernel versie gaat zijn.
Zit zelf namelijk op features uit de 6.13 kernel te wachten (januari 2025) maar is er ergens iets te zien wat het gaat worden?
Ubuntu 25.04 komt volgende maand uit met 6.14.
Mocht je nog wat ruimte toe willen voegen:Sp33dFr34k schreef op maandag 17 maart 2025 @ 13:38:
[...]
Dit is een hele mooie, dank!
@Airw0lf n.a.v. bovenstaande zie ik dat usr/lib relatief veel ruimte in beslag neemt (3.6GB), maar daar valt weinig aan te doen lijkt mij. Andere folder is var/cache/apt/archives (4.4GB). Zou dat verwijderd kunnen worden?
[...]
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 --- Volume group --- VG Name pve System ID Format lvm2 Metadata Areas 1 Metadata Sequence No 7 VG Access read/write VG Status resizable MAX LV 0 Cur LV 3 Open LV 2 Max PV 0 Cur PV 1 Act PV 1 VG Size 55.39 GiB PE Size 4.00 MiB Total PE 14181 Alloc PE / Size 12422 / 48.52 GiB Free PE / Size 1759 / 6.87 GiB
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 --- Logical volume --- LV Name data VG Name pve LV UUID OuE90q-x3pO-ePXK-jJPT-WLqr-d7JG-lkg0hh LV Write Access read/write LV Creation host, time proxmox, 2020-12-18 18:08:44 +0100 LV Pool metadata data_tmeta LV Pool data data_tdata LV Status available # open 0 LV Size <25.90 GiB Allocated pool data 0.00% Allocated metadata 1.58% Current LE 6630 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:4 --- Logical volume --- LV Path /dev/pve/swap LV Name swap VG Name pve LV UUID OJE3kw-xmY0-wp4b-G3Qn-ZnK3-DE8V-2HjTB2 LV Write Access read/write LV Creation host, time proxmox, 2020-12-18 18:08:43 +0100 LV Status available # open 2 LV Size <6.88 GiB Current LE 1760 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:0 --- Logical volume --- LV Path /dev/pve/root LV Name root VG Name pve LV UUID mgaeOF-RU3U-3xE1-4Pnc-zF70-xuOk-5yyfAj LV Write Access read/write LV Creation host, time proxmox, 2020-12-18 18:08:44 +0100 LV Status available # open 1 LV Size 13.75 GiB Current LE 3520 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 256 Block device 252:1
1
2
| lvextend -L +4G /dev/pve/root resize2fs /dev/pve/root |
Die 2e op voorwaarde dat je nu ext4 gebruikt voor je rootfs, mocht je daar wat anders gebruiken uiteraard de tool gebruiken die bij dat filesystem hoort.
Dank, gelukt (met xfs_growfs)!_JGC_ schreef op maandag 17 maart 2025 @ 14:51:
[...]
Mocht je nog wat ruimte toe willen voegen:
code:
1 2 lvextend -L +4G /dev/pve/root resize2fs /dev/pve/root
Die 2e op voorwaarde dat je nu ext4 gebruikt voor je rootfs, mocht je daar wat anders gebruiken uiteraard de tool gebruiken die bij dat filesystem hoort.
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Die /usr/lib is bij mij 3.4-GB - maar hier zou ik niet aan durven te sleutelen.Sp33dFr34k schreef op maandag 17 maart 2025 @ 13:38:
[...]
@Airw0lf n.a.v. bovenstaande zie ik dat usr/lib relatief veel ruimte in beslag neemt (3.6GB), maar daar valt weinig aan te doen lijkt mij. Andere folder is var/cache/apt/archives (4.4GB). Zou dat verwijderd kunnen worden?
[...]
De andere is apt cache en heb je inmiddels leeg gemaakt zag ik.
En het vergrootten van de partitie is ook gelukt
Ik schat in dat je probleem nu opgelost is?
Afgezien van de wearout?
makes it run like clockwork
Yes, goed ingeschat! Behalve de wearout dus inderdaad, en de SMART die faalt van die SSD. Even op de planning zetten om deze binnenkort te vervangen.Airw0lf schreef op maandag 17 maart 2025 @ 16:50:
[...]
Die /usr/lib is bij mij 3.4-GB - maar hier zou ik niet aan durven te sleutelen.
De andere is apt cache en heb je inmiddels leeg gemaakt zag ik.
En het vergrootten van de partitie is ook gelukt
Ik schat in dat je probleem nu opgelost is?
Afgezien van de wearout?
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.
Goeie, heb er even op gegoogled, maar dat lijkt nog niet zo eenvoudig te disablen.Jerie schreef op maandag 17 maart 2025 @ 18:46:
Corosync uitzetten wanneer je geen clustering gebruikt en lief wilt zijn voor je consumer grade SSD (enterprise SSDs kunnen zat writes aan, al is het nog steeds zonde van de resources).
Zou deze genoeg zijn?
1
| systemctl disable pve-ha-crm pve-ha-lrm corosync |
[ Voor 3% gewijzigd door Sp33dFr34k op 17-03-2025 20:29 ]
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Daarmee disable je (alleen) het opstarten na boot. Mogelijk wil je nog een --now toevoegen zodat ze ook (nu) gestopt worden als ze actief zijn. Anders blijven ze dus draaien tot een reboot.Sp33dFr34k schreef op maandag 17 maart 2025 @ 20:29:
[...]
Goeie, heb er even op gegoogled, maar dat lijkt nog niet zo eenvoudig te disablen.
Zou deze genoeg zijn?
code:
1 systemctl disable pve-ha-crm pve-ha-lrm corosync
Overigens meen ik dat een aantal services (en ik denk dat dat corosync ook was) alleen starten als er een config file aanwezig is, dat standaard niet het geval is. Het disablen van de service heeft dan effectief niet heel veel nut (behalve dat die niet bij opstarten checkt of het config bestand bestaat
Alles went behalve een Twent.
⏩ PVOutput☀️
https://github.com/community-scripts/ProxmoxVE/issues/3198Quad schreef op dinsdag 18 maart 2025 @ 11:41:
https://community-scripts.github.io/ProxmoxVE/scripts
Site lijkt leeggehaald te zijn? Hm..
Foutje bedankt denk ik. Hij werkt al weer
[ Voor 3% gewijzigd door lolgast op 18-03-2025 11:42 ]
Klopt, even refreshen en gaan.lolgast schreef op dinsdag 18 maart 2025 @ 11:42:
[...]
https://github.com/community-scripts/ProxmoxVE/issues/3198
Foutje bedankt denk ik. Hij werkt al weer
Ik bedenk me wel dat het knudde is dat ik dan van zo'n site afhankelijk ben wil ik een bepaalde service draaien als LXC binnen Proxmox.
Maarja, het is zo makkelijk.
Alles went behalve een Twent.
⏩ PVOutput☀️
Accepteren zolang het werkt. De moeilijke weg kiezen en uitzoeken hoe je het zelf moet installeren kan altijd nog, als die community echt stoptQuad schreef op dinsdag 18 maart 2025 @ 13:34:
[...]
Klopt, even refreshen en gaan.
Ik bedenk me wel dat het knudde is dat ik dan van zo'n site afhankelijk ben wil ik een bepaalde service draaien als LXC binnen Proxmox.
Maarja, het is zo makkelijk.
Daarom. En als die community stopt, stoppen de LXC's niet natuurlijk.lolgast schreef op dinsdag 18 maart 2025 @ 13:36:
[...]
Accepteren zolang het werkt. De moeilijke weg kiezen en uitzoeken hoe je het zelf moet installeren kan altijd nog, als die community echt stopt
Alles went behalve een Twent.
⏩ PVOutput☀️
Of wel.. maar daar ga je dan snel genoeg achter komen,,,Quad schreef op dinsdag 18 maart 2025 @ 13:38:
[...]
Daarom. En als die community stopt, stoppen de LXC's niet natuurlijk.
makes it run like clockwork
Later deze week stop ik een grote nvme in de server en installeer daar de boel op. Zowel de ruimte op local als op local-lvm moet dan genoeg zijn voor de komende tijd. Voor ee oude ssd verzin ik wel een ander doel.
Maar verder ben ik een heel tevreden gebruiker van Proxmox
Mijn huidige Samsung 990 Pro NVME geeft momenteel met grote regelmaat tijdens de back-ups een EXT4-fs (dm-28): write access unavailable, skipping orphan cleanup error (de DM-28 is wisselend) waarna de disk in read-only mode wordt gemount, waardoor mijn hele Proxmox omgeving vastloopt. Ik had al wat langer problemen met deze disk en slechte sectoren, nu ben ik er wel klaar mee. Heb gelukkig 2 exact dezelfde devices in de meterkast hangen dus als de huidige disk meewerkt heb ik geen downtime
Je bent bekend met de firmware problemen van de Samsung 990 Pro? O.a. hier wat over te lezen: https://www.tomshardware....pdate-released-ssd-health Als hij als kuren heeft maakt het updaten van de firmware niet zo veel meer uit overigens, maar valt waarschijnlijk wel onder garantie. Ik heb zelf een 980 Pro gehad met vergelijkbare problemen.lolgast schreef op dinsdag 18 maart 2025 @ 16:17:
@WheeleE Dat kun je gewoon configureren hoor, dat weet ik heel zeker. Heb ik ook gedaan namelijk. Ik ga, hopelijk, morgen mijn NVME schijf vervangen voor een nieuwe, dan zal ik kijken of ik een foto voor je kan maken van wat ik bedoel.
Mijn huidige Samsung 990 Pro NVME geeft momenteel met grote regelmaat tijdens de back-ups een EXT4-fs (dm-28): write access unavailable, skipping orphan cleanup error (de DM-28 is wisselend) waarna de disk in read-only mode wordt gemount, waardoor mijn hele Proxmox omgeving vastloopt. Ik had al wat langer problemen met deze disk en slechte sectoren, nu ben ik er wel klaar mee. Heb gelukkig 2 exact dezelfde devices in de meterkast hangen dus als de huidige disk meewerkt heb ik geen downtime
1
2
3
4
5
6
7
8
9
10
11
| lolgast@pve:~# ./ssdtoolkitv2 -L ================================================================================================ Samsung DC Toolkit Version 2.1.L.Q.0 Copyright (C) 2017 SAMSUNG Electronics Co. Ltd. All rights reserved. ================================================================================================ ------------------------------------------------------------------------------------------------------------------------------------------------------ | Disk | Path | Model | Serial | Firmware | Optionrom | Capacity | Drive | Total Bytes | NVMe Driver | | Number | | | Number | | Version | | Health | Written | | ------------------------------------------------------------------------------------------------------------------------------------------------------ | *0:c | /dev/nvme0 | Samsung SSD 990 PRO with Heatsink 2TB | S7HPNJ0X102583J | 4B2QJXD7 | N/A | 1863 GB | GOOD | 0.01 TB | Unknown | ------------------------------------------------------------------------------------------------------------------------------------------------------ |
Die 'written' klopt overigens helemaal niets van, smartctl geloof ik eerder
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
| SMART/Health Information (NVMe Log 0x02) Critical Warning: 0x00 Temperature: 46 Celsius Available Spare: 100% Available Spare Threshold: 10% Percentage Used: 7% Data Units Read: 60,035,702 [30.7 TB] Data Units Written: 35,694,576 [18.2 TB] Host Read Commands: 437,503,266 Host Write Commands: 964,664,458 Controller Busy Time: 9,916 Power Cycles: 16 Power On Hours: 7,238 Unsafe Shutdowns: 11 Media and Data Integrity Errors: 0 Error Information Log Entries: 0 Warning Comp. Temperature Time: 0 Critical Comp. Temperature Time: 0 Temperature Sensor 1: 46 Celsius Temperature Sensor 2: 54 Celsius |
[ Voor 24% gewijzigd door lolgast op 18-03-2025 16:34 ]
Ik heb vanalles geprobeerd en gezocht online, maar ik kwam er echt niet uit. Het enige wat me is gelukt is het kleiner krijgen van local. En dat is nou net het tegenovergestelde.lolgast schreef op dinsdag 18 maart 2025 @ 16:17:
@WheeleE Dat kun je gewoon configureren hoor, dat weet ik heel zeker. Heb ik ook gedaan namelijk. Ik ga, hopelijk, morgen mijn NVME schijf vervangen voor een nieuwe, dan zal ik kijken of ik een foto voor je kan maken van wat ik bedoel.
Mijn huidige Samsung 990 Pro NVME geeft momenteel met grote regelmaat tijdens de back-ups een EXT4-fs (dm-28): write access unavailable, skipping orphan cleanup error (de DM-28 is wisselend) waarna de disk in read-only mode wordt gemount, waardoor mijn hele Proxmox omgeving vastloopt. Ik had al wat langer problemen met deze disk en slechte sectoren, nu ben ik er wel klaar mee. Heb gelukkig 2 exact dezelfde devices in de meterkast hangen dus als de huidige disk meewerkt heb ik geen downtime
Zojuist heb ik de nvme-installatie gedaan met default settings. Dat leverde met een 1Tb nvme een local op van 100Gb en een local-lvm van 850Gb. Voor nu is dat voldoende, vooropgesteld dat ik de oude 500Gb kan wissen en kan toevoegen als extra local voor backups.
wat vooralsnog niet lukt, maar dat kan ook mijn non-professional linux kennis zijn, en/of de verhoogde frustratie
Ik heb destijds mijn 2TB disk expres kleiner ingedeeld want de voorgestelde diskgrootte voor local op basis van een 2TB is echt bizar. Ook wilde ik slechts een klein deel lvm-local en de rest dus ongepartioneerd zodat ik dat gewoon als ext4 kon formatteren voor reguliere data/share.
Mijn oude situatie: een 500gb SSD waarbij local te krap was (nte100Gb) voor een paar dagen backups. Local-lvm was >300Gb.
Omdat ik het niet voor elkaar kreeg die verdeling aan te passen ging ik voor een nieuw plan:
een 1Tb nvme met standaardverdeling (blijkbaar dus weer 100Gb local, en de rest voor local-lvm), en de oude 500Gb ssd gebruiken voor een extra local om alleen de backups op te zetten.
Dat eerste stukje is gelukt, het 2e (nog) niet.
De oude ssd gebruiken is niet perse noodzakelijk, mits ik de local storage op de nvme groter kan maken.
Heb je je 500GB disk wel al geformatteerd en gemount op je PVE host? Indien beide ja: Je kunt vanuit de GUI onder 'Datacenter' -> 'Storage' een 'Directory' toevoegen als storage locatie. Als locatie vul je de mount locatie van je disk op en dan zou hij linksonder als storage zichtbaar moeten worden. Vervolgens is het een kwestie van selecteren welke services zich op die storage mogen plaatsen. Selecteer je Backup, dan kun je je backups vanaf dat moment daarop laten wegschrijven.
Zo heb ik het ook gedaan in mijn huidige setup. Mijn back-ups gaan naar de ext4 partitie van mijn NVME, waarvandaan ze vrij eenvoudig gekopieerd worden naar een USB-disk en Duplicati ze naar Backblaze stuurt.
Maar...ik heb nu me ttrial en error de disk weten te formatteren, één grote nieuwe partitie gemaakt, én die partitie in de GUI kunnen toevoegen als local storage.
De eerste backup loopt nu geheel volgens verwachting!
Waarschijnlijk zat ik in de bekende tunnelvisie
Dank voor het bijsturen!

Ik heb voor de gein 2TB ingevuld, blijkbaar is het resultaat 1TB, lijkt een max voor local te zijn. Maargoed. Wat je bij 'maxroot' invult resulteert in de schijfgrootte van local. local-lvm wordt zo groot als het resterende aantal GB's wat je hebt.
Ik heb bijvoorbeeld gekozen voor hdsize '532' en maxroot van '32'. Daardoor is mijn local-partitie nu 32GB, local-lvm is 500GB en de rest van de disk formatteer ik en mount is voor mijn gewonen data.
Edit:
Ik heb nog even naar de documentatie gekeken. maxroot = HDD/4. Dus 25% van de diskgrootte mag naar local, meer niet
[ Voor 71% gewijzigd door lolgast op 20-03-2025 09:40 ]
Er staat me bij dat ik deze optie wel heb getest, maar dan wellicht niet helemaal juist.
De 100Gb local die ik nu heb is voorlopig genoeg voor het handje vol images en templates dat i kgebruik.
De containers krijgen wel de goede IP en DNS gegevens.
Voor VM's worden wel alle vlans geregistreerd.
Zie ook onderstaande content van het bestand dhcp.leases en de systemen ctf, cypher, upsmon, icarus en logos:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
| 1743154356 bc:24:11:98:d5:c6 192.168.110.41 ctf * 1743149966 bc:24:11:4d:82:33 192.168.230.234 cypher * 1743150180 bc:24:11:a1:96:28 192.168.139.202 upsmon * 1743150146 fe:09:86:65:3c:6b 192.168.230.250 logos ff:86:65:3c:6b:00:01:00:01:2a:a4:5f:b9:fe:09:86:65:3c:6b 1743150146 fe:09:86:65:3c:6b 192.168.220.250 logos ff:86:65:3c:6b:00:01:00:01:2a:a4:5f:b5:fe:09:86:65:3c:6b 1743150145 fe:09:86:65:3c:6b 192.168.210.250 logos ff:86:65:3c:6b:00:01:00:01:2c:d4:ee:c8:fe:09:86:65:3c:6b 1743150144 fe:09:86:65:3c:6b 192.168.200.250 logos ff:86:65:3c:6b:00:01:00:01:2a:a4:5f:b2:fe:09:86:65:3c:6b 1743150143 fe:09:86:65:3c:6b 192.168.110.250 logos ff:86:65:3c:6b:00:01:00:01:2e:01:b2:be:fe:09:86:65:3c:6b 1743150143 fe:09:86:65:3c:6b 192.168.100.250 logos ff:86:65:3c:6b:00:01:00:01:2a:a4:5f:aa:fe:09:86:65:3c:6b 1743150142 fe:09:86:65:3c:6b 192.168.139.250 logos ff:86:65:3c:6b:00:01:00:01:2a:a3:cb:96:fe:09:86:65:3c:6b 1743150010 8a:2a:65:3e:05:e0 192.168.230.162 icarus ff:65:3e:05:e0:00:01:00:01:2b:71:38:8e:8a:2a:65:3e:05:e0 1743150010 8a:2a:65:3e:05:e0 192.168.220.162 icarus ff:65:3e:05:e0:00:01:00:01:2f:54:1d:90:8a:2a:65:3e:05:e0 1743150010 8a:2a:65:3e:05:e0 192.168.210.162 icarus ff:65:3e:05:e0:00:01:00:01:2f:54:1d:8f:8a:2a:65:3e:05:e0 1743150009 8a:2a:65:3e:05:e0 192.168.139.162 icarus ff:65:3e:05:e0:00:01:00:01:2b:68:31:99:8a:2a:65:3e:05:e0 |
De eerste 3 zijn LXC containers en hebben maar een entry - zouden er meerdere moeten zijn - net zoals bij de VM's? De laatste 2 zijn VM's en hebben meerdere entries met een MAC addresses (en client-id's?)
Ik heb getest met eth0 and vmbr0 interfaces binnen de LXC container - de eth0-interfaces zijn eth0, eth0.100, eth0.110, etc. Met bridge-interfaces was dit vbmr0, vmbr0.100, vmbr0.110, etc.
Ik heb ook getest met en zonder de dnsmasq setting dhcp-ignore-clid - geen verschil.
Tis net of elke dhcp/dns registratie overschreven wordt?
Iemand een idee waar dat door komt? En wat er eventueel aan te doen is?
Ik weet niet welke informatie (instellingen e.d.) hier nog relevant kan zijn. Dus schroom niet om vragen te stellen.
[ Voor 9% gewijzigd door Airw0lf op 21-03-2025 12:21 ]
makes it run like clockwork
Alles went behalve een Twent.
⏩ PVOutput☀️
Ja - klopt. De LXC containers krijgen allemaal wel de goede IP gegevens per vlan.Quad schreef op vrijdag 21 maart 2025 @ 12:54:
Ik vond het wel bijzonder, dus even getest op mijn PVE met een LXC, en daar komen netjes 3 VLANS actief op binnen met DHCP ingeschakeld. Wel had ik even een reboot van de LXC nodig na het aanmaken van de adapters.
Maar in dnsmasq is uiteindelijk alleen de laatste terug te vinden.
Hoe zit dat bij jou?
makes it run like clockwork
Ik kan wel nog met SSH erin, maar webinterface start niet op, VM's lijst is leeg
[ Voor 19% gewijzigd door hotrene op 22-03-2025 14:01 ]
Wat zie je op een aangesloten monitor als foutmelding?hotrene schreef op zaterdag 22 maart 2025 @ 14:00:
mijn prxomox wil niet meer opstarten. Is er een vrijwilliger hier die me 1:1 assistentie wil verlenen? Ik zit echt met mijn handen in het haar hier. Hulp wordt op prijs gesteld.
Cluster information
-------------------
Name: hegge30
Config Version: 2
Transport: knet
Secure auth: on
Quorum information
------------------
Date: Sat Mar 22 14:02:39 2025
Quorum provider: corosync_votequorum
Nodes: 1
Node ID: 0x00000001
Ring ID: 1.21
Quorate: Yes
Votequorum information
----------------------
Expected votes: 1
Highest expected: 1
Total votes: 1
Quorum: 1
Flags: Quorate
Membership information
----------------------
Nodeid Votes Name
0x00000001 1 192.168.2.10 (local)
root@nuc1:~# qm list
root@nuc1:~# systemctl status pmxcfs
Unit pmxcfs.service could not be found.
root@nuc1:~#
https://pve.proxmox.com/wiki/NVIDIA_vGPU_on_Proxmox_VE
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
metlolgast schreef op zaterdag 22 maart 2025 @ 16:12:
@hotrene Is je pve onderdeel van een cluster (geweest)? Zou kunnen dat de storage niet gevonden kan worden omdat er te weinig nodes in je cluster zitten om te bepalen dat de storage online is.
1
| pvecm updatecerts --force |
Is dit het begin dat bij Proxmox niet meer alles gratis is?The-Source schreef op zaterdag 22 maart 2025 @ 16:29:
Voor de geïnteresseerden, PVE ( met subscription) gaat nvidia gpu als vgpu ondersteunen en dat maakt 1x aan meerdere vm's knopen mogelijk
https://pve.proxmox.com/wiki/NVIDIA_vGPU_on_Proxmox_VE
Ik betaal netjes 3 licenties dus ik zal er weinig van merken.
Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8
nee dat staat er niet, er staatJohn245 schreef op zaterdag 22 maart 2025 @ 16:37:
[...]
Is dit het begin dat bij Proxmox niet meer alles gratis is?
Ik betaal netjes 3 licenties dus ik zal er weinig van merken.
"To be eligible for support tickets, you must have an active and valid NVIDIA vGPU entitlement as well as an active and valid Proxmox VE subscription on your cluster, with level Basic, Standard or Premium"
maar voor support moest je sowieso al een subscription hebben. je kan prima die Nvidia vGPU gebruiken op de gratis versie maar dan heb je geen support bij Proxmox
A wise man's life is based around fuck you
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Om support te krijgen op vGpu van Proxmox heb je dus (al eerder gezegd) een licentie nodig.
https://proxmox.com/en/ab...vgpu-supported-hypervisor
Om NVIDIA vGpu te gebruiken heb je een licentie nodig
https://www.nvidia.com/en-us/data-center/virtual-solutions/
En voor zover ik heb gelezen veranderd er niets aan de Proxmox licentie structuur.
Volgens mij is wel de Community licentie nieuw, waarmee je toegang de enterprise repo krijgt.
https://www.proxmox.com/e...rtual-environment/pricing
[ Voor 6% gewijzigd door eheijnen op 23-03-2025 08:12 ]
Wie du mir, so ich dir.
Die community licentie bestaat al heel lang. Maar had denk ik eerst een andere naam.eheijnen schreef op zondag 23 maart 2025 @ 08:12:
Dit lijkt wat meer inzicht te geven:
Om support te krijgen op vGpu van Proxmox heb je dus (al eerder gezegd) een licentie nodig.
https://proxmox.com/en/ab...vgpu-supported-hypervisor
Om NVIDIA vGpu te gebruiken heb je een licentie nodig
https://www.nvidia.com/en-us/data-center/virtual-solutions/
En voor zover ik heb gelezen veranderd er niets aan de Proxmox licentie structuur.
Volgens mij is wel de Community licentie nieuw, waarmee je toegang de enterprise repo krijgt.
https://www.proxmox.com/e...rtual-environment/pricing
Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8
Goedenavond. Ik ben bezig met het opzetten van een proxmox VE op een Mini PC. Ik zou bij het booten van de machine mijn stack account willen mounten middels Webdav. Dit heb ik op de commandline werkend gekregen middels bovenstaande guide van @Kaspers (waarvoor dank).Kaspers schreef op maandag 10 september 2018 @ 09:19:
[...]
Uiteraard. Ik gebruik hiervoor de systemd.mount service, middels een mount unit file. Maak hiervoor een file aan in /etc/systemd/system/ met daarbij als filename het pad waarop je het wilt mounten (met ".mount" als extentie), dus: /usr/bla = usr-bla.mount, /stack = stack.mount
Contents:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 [Unit] Description=Mount WebDAV Service After=network-online.target Wants=network-online.target [Mount] What=https://urlnaarstackhost/remote.php/webdav/ Where=/stack Options=defaults Type=davfs TimeoutSec=15 [Install] WantedBy=multi-user.target
Reload de systemd daemon:
code:
1 # systemctl daemon-reload
test:
code:
1 # systemctl start stack.mount
start 'm met het systeem automatisch op:
code:
1 # systemctl enable stack.mount
check status:
code:
1 systemctl status stack.mount
en check de logs met:
code:
1 journalctl -u stack.mount
Zorg er wel voor dat je je credentials in /etc/davfs2/secrets hebt staan.
code:
1 https://urlnaarstackhost.com/remote.php/webdav/ <gebruikersnaam> <wachtwoord>
Het probleem is dat het me maar niet lukt om het werkend te krijgen bij het booten van de machine. Ik heb de "systemctl enable" gedaan maar bij het booten van de machine blijft hij halverwege hangen. De Proxmox GUI kan ik dan niet benaderen. Ik kan er wel via SSH bij komen en wanneer ik dan een "systemctl disable" geef dan wordt de boot netjes afgerond. Interessant genoeg blijkt de mount dan wel gelukt te zijn.
Ik heb in journalctl gezocht naar foutmeldingen die me op het goede spoor zouden zetten en heb Google inmiddels ook uit. Ik heb waarschijnlijk een foutje gemaakt, maar begrijp niet waar.
Hebben jullie wellicht een goede tip hoe ik het probleem kan fixen? Is er bijv. nog een andere log die me meer info kan geven waar het probleem zit?
Alvast bedankt!
Zo, dat is een tijdje geledenTTV schreef op zondag 23 maart 2025 @ 20:12:
[...]
Goedenavond. Ik ben bezig met het opzetten van een proxmox VE op een Mini PC. Ik zou bij het booten van de machine mijn stack account willen mounten middels Webdav. Dit heb ik op de commandline werkend gekregen middels bovenstaande guide van @Kaspers (waarvoor dank).
Het probleem is dat het me maar niet lukt om het werkend te krijgen bij het booten van de machine. Ik heb de "systemctl enable" gedaan maar bij het booten van de machine blijft hij halverwege hangen. De Proxmox GUI kan ik dan niet benaderen. Ik kan er wel via SSH bij komen en wanneer ik dan een "systemctl disable" geef dan wordt de boot netjes afgerond. Interessant genoeg blijkt de mount dan wel gelukt te zijn.
Ik heb in journalctl gezocht naar foutmeldingen die me op het goede spoor zouden zetten en heb Google inmiddels ook uit. Ik heb waarschijnlijk een foutje gemaakt, maar begrijp niet waar.
Hebben jullie wellicht een goede tip hoe ik het probleem kan fixen? Is er bijv. nog een andere log die me meer info kan geven waar het probleem zit?
Alvast bedankt!
1
| systemctl status stack.mount |
en
1
| journalctl -u stack.mount |
Ik mount mijn stack onder de directory /mnt/stack dus mijn unitfile heet mnt-stack.mount.
Ik heb de output van de door jou gevraagde commando's 2x opgenomen. De eerste op het moment dat de boot nog hangt (ik kan dan de Proxmox GUI dus niet bereiken) en de 2e nadat ik het disable commando heb gegeven en de boot verder is doorgegaan. Ik kan dan weer bij de GUI en de mount is ook gewoon gelukt want ik kan via de directory /mnt/stack in mijn gemounte stack folder.
Hieronder de output:
Na de "systemctl enable mnt-stack.mount" (als de boot hangt):
Output van "systemctl status mnt-stack.mount":
mnt-stack.mount - Mount Stack WebDAV
Loaded: loaded (/etc/systemd/system/mnt-stack.mount; enabled; preset: enabled)
Active: active (mounted) since Mon 2025-03-24 19:54:29 CET; 4min 54s ago
Where: /mnt/stack
What: https://<stack-webdav-adres>/remote.php/webdav/proxmox-backups/
Tasks: 1 (limit: 18850)
Memory: 4.3M
CPU: 42ms
CGroup: /system.slice/mnt-stack.mount
└─863 /sbin/mount.davfs https://<stack-webdav-adres>/remote.php/webdav/proxmox-backups/ /mnt/stack -o rw
Mar 24 19:54:26 proxmox01 systemd[1]: Mounting mnt-stack.mount - Mount Stack WebDAV...
Mar 24 19:54:26 proxmox01 mount.davfs[720]: davfs2 1.6.1
Mar 24 19:54:29 proxmox01 systemd[1]: Mounted mnt-stack.mount - Mount Stack WebDAV.
Output van "journalctl -u mnt-stack.mount":
Mar 24 19:54:26 proxmox01 systemd[1]: Mounting mnt-stack.mount - Mount Stack WebDAV...
Mar 24 19:54:26 proxmox01 mount.davfs[720]: davfs2 1.6.1
Mar 24 19:54:29 proxmox01 systemd[1]: Mounted mnt-stack.mount - Mount Stack WebDAV.
Na de "systemctl disable mnt-stack.mount":
Output van "systemctl status mnt-stack.mount":
mnt-stack.mount - Mount Stack WebDAV
Loaded: loaded (/proc/self/mountinfo; disabled; preset: enabled)
Active: active (mounted) since Mon 2025-03-24 19:54:29 CET; 13min ago
Where: /mnt/stack
What: https://<stack-webdav-adres>/remote.php/webdav/proxmox-backups/
Tasks: 1 (limit: 18850)
Memory: 4.3M
CPU: 45ms
CGroup: /system.slice/mnt-stack.mount
└─863 /sbin/mount.davfs https://<stack-webdav-adres>/remote.php/webdav/proxmox-backups/ /mnt/stack -o rw
Mar 24 19:54:26 proxmox01 systemd[1]: Mounting mnt-stack.mount - Mount Stack WebDAV...
Mar 24 19:54:26 proxmox01 mount.davfs[720]: davfs2 1.6.1
Mar 24 19:54:29 proxmox01 systemd[1]: Mounted mnt-stack.mount - Mount Stack WebDAV.
Output van "journalctl -u mnt-stack.mount":
Mar 24 19:54:26 proxmox01 systemd[1]: Mounting mnt-stack.mount - Mount Stack WebDAV...
Mar 24 19:54:26 proxmox01 mount.davfs[720]: davfs2 1.6.1
Mar 24 19:54:29 proxmox01 systemd[1]: Mounted mnt-stack.mount - Mount Stack WebDAV.
Lijkt op het eerste gezicht hetzelfde te zijn?
Geef je danIk kan er wel via SSH bij komen en wanneer ik dan een "systemctl disable"
1
| systemcdl disable stack.mount |
als commando?
Kun je eventueel nog de output geven van
1
| journalctl -b -p err..alert |
Ja dat klopt inderdaad.Kaspers schreef op donderdag 27 maart 2025 @ 19:40:
Erg vreemd @TTV, de mount is inderdaad geslaagd, maar toch is er dus een reden dat hij niet verder wil booten. Je zegt:
[...]
Geef je dan
code:
1 systemcdl disable stack.mount
als commando?
Hieronder de output van het door jou voorgestelde commando:Kun je eventueel nog de output geven vancode:bij de poging het systeem te booten met de service enabled?
1 journalctl -b -p err..alert
Mar 28 12:19:45 proxmox01 kernel: ACPI BIOS Error (bug): Could not resolve symbol [\_SB.PC00.TXHC.RHUB.SS01], AE_NOT_FOUND (20230628/dswload2-162)
Mar 28 12:19:45 proxmox01 kernel: ACPI Error: AE_NOT_FOUND, During name lookup/catalog (20230628/psobject-220)
Mar 28 12:19:45 proxmox01 kernel: ACPI BIOS Error (bug): Could not resolve symbol [\_SB.PC00.TXHC.RHUB.SS02], AE_NOT_FOUND (20230628/dswload2-162)
Mar 28 12:19:45 proxmox01 kernel: ACPI Error: AE_NOT_FOUND, During name lookup/catalog (20230628/psobject-220)
Mar 28 12:19:46 proxmox01 kernel: Bluetooth: hci0: Failed to load Intel firmware file intel/ibt-0040-1050.sfi (-2)
Mar 28 12:19:46 proxmox01 kernel: Bluetooth: hci0: Failed to read MSFT supported features (-56)
Daar lijken nog wel wat dingen mis te gaan die ik nog niet in de gaten heb? Maar op het eerste gezicht zie ik geen aanknopingspunten waarop hij kan blijven hangen in een boot?
Nu wil ik de fanspeed aanpassen want de fan blijft constant op vol vermogen draaien terwijl de temps 25 C zijn.
Dit gevolgd maar ik loop vast omdat de fanspeeds niet zichtbaar zijn.
https://www.baeldung.com/linux/control-fan-speed
https://wiki.joeplaa.com/...d-configure-fancontrol-pc
Oplossing zou moeten zijn om TI87 drivers te installeren en te compilen.
https://github.com/frankcrawford/it87
Ik krijg dit echter niet voor elkaar.git clone https://github.com/frankcrawford/it87
cd it87/
Building & Installing
---------------------
* make clean
* make
* sudo make install
Using DKMS
----------
To install:
* sudo make dkms
To remove:
* sudo make dkms_clean
Bij make clean krijg ik gelijk deze foutmelding:
Dat zou moeten inhouden dat de kernel niet geschikt is? Maar ik lees dat er mensen zijn met nieuwere kernels waarbij het wel gewoon werkt. Hoe nu verder?make[1]: *** /lib/modules/6.8.12-9-pve/build: No such file or directory. Stop.
make: *** [Makefile:76: clean] Error
-----------------
Tweede uitdaging is dat ik een bestaande HDD wil delen. Ik heb nu Turnkey fileshare lxc geinstalleerd met een passthrough voor die schijf maar hoe deel ik hem nu? Als ik een volume wil toevoegen wordt alles gewist. Of kan ik dat beter met Openmediavault doen. Zo heb ik het op mijn ouder server geregeld met een externe disk.
[ Voor 15% gewijzigd door icecreamfarmer op 02-04-2025 21:52 ]
ik zie ik zie wat jij niet ziet
Make clean is alleen nodig als je al eens een build hebt gedaan. Dan heeft hij namelijk pas dingen om op te ruimen. Die stap gewoon overslaan en naar make gaan.icecreamfarmer schreef op woensdag 2 april 2025 @ 21:17:
Ik heb een tweedehands hp 400 g5 die ik als server wil gebruiken.
Nu wil ik de fanspeed aanpassen want de fan blijft constant op vol vermogen draaien terwijl de temps 25 C zijn.
Dit gevolgd maar ik loop vast omdat de fanspeeds niet zichtbaar zijn.
https://www.baeldung.com/linux/control-fan-speed
https://wiki.joeplaa.com/...d-configure-fancontrol-pc
Oplossing zou moeten zijn om TI87 drivers te installeren en te compilen.
https://github.com/frankcrawford/it87
[...]
Ik krijg dit echter niet voor elkaar.
Bij make clean krijg ik gelijk deze foutmelding:
[...]
Dat zou moeten inhouden dat de kernel niet geschikt is? Maar ik lees dat er mensen zijn met nieuwere kernels waarbij het wel gewoon werkt. Hoe nu verder?
-----------------
Tweede uitdaging is dat ik een bestaande HDD wil delen. Ik heb nu Turnkey fileshare lxc geinstalleerd met een passthrough voor die schijf maar hoe deel ik hem nu? Als ik een volume wil toevoegen wordt alles gewist. Of kan ik dat beter met Openmediavault doen. Zo heb ik het op mijn ouder server geregeld met een externe disk.
Kia E-Niro 2019 Executiveline. OTGW/HA Enthousiasteling.
En hoe gaat dat in zijn werk?_JGC_ schreef op donderdag 3 april 2025 @ 11:49:
@icecreamfarmer proxmox-headers-6.8 installeren, dat zijn de build headers voor je actieve kernel en heb je nodig om die kernel module te bouwen.
ik zie ik zie wat jij niet ziet
Dat heb ik ook al geprobeerd.Dutchess_Nicole schreef op donderdag 3 april 2025 @ 11:40:
[...]
Make clean is alleen nodig als je al eens een build hebt gedaan. Dan heeft hij namelijk pas dingen om op te ruimen. Die stap gewoon overslaan en naar make gaan.
ik zie ik zie wat jij niet ziet
Beetje Linux basis kennis is wellicht wel handig om te hebben? Want we kunnen niet alles voorkauwen.
sudo apt install pve-headers-6.8
Sorry ik dacht dat dit weer via een ingewikkelde procedure moest.RobertMe schreef op donderdag 3 april 2025 @ 17:42:
[...]
Beetje Linux basis kennis is wellicht wel handig om te hebben? Want we kunnen niet alles voorkauwen.
sudo apt install pve-headers-6.8
ik zie ik zie wat jij niet ziet
En als ik toch bezig ben wil ik de diverse containers via een sub-domein benaderen, met https waarbij ik alleen alleen een vpn server aan het internet hangt. (ik heb geen internet domeinnaam die ook lokaal te gebruiken is, dus letsencrypt werkt niet)
Alleen door alle mogelijke bomen zie ik het bos niet meer. Wie kan me een zetje in de juiste richting geve? Welke programma's heb ik hiervoor nodig, eventueel met linkje naar uitleg
[ Voor 6% gewijzigd door spitsv op 03-04-2025 22:56 ]
Om alles mooi in HTTPS te krijgen kan je dan o.a. met NGinx proxy manager doen. Deze doet dan ook gelijkt certificaten management.
Maar als je die paar euro niet wil uitgeven dan zal je naar self-signed certificate moeten gaan werken, inclusief het installeren daarvan op elke client die je gebruikt want anders krijg je nog steeds een https error.
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Ik heb wel 2 records (afwijkend van lokaal) publiek staan die door cloudflared tunnel weer bij mijn NPM uitkomen. (in cloudflare blokkeer ik heel veel via de WAF en daarna ook nog mtls certificaat)
En dmv header adres (die is afwijkend van publiek DNS adres) weer bij NPM aan het juiste interne adres word gekoppeld.
Dus local dns setup is:
fqdn > ip NPM (dit voor elke server die je lokaal wil bereiken)
In NPM proxy host: fqdn > *.certificaat > aangeven waar het lokaal op draait bijvoorbeeld http < ip> <port>
Scheelt een hoop onthouden qua afwijkende poortnummers voor van alles en nog wat.
Of je het van buitenaf bereikbaar wil maken kan je zelf bepalen maar zou dan kiezen voor of vpn of iets met extra security ipv zomaar poortje open zetten.
[ Voor 34% gewijzigd door The-Source op 04-04-2025 12:11 ]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Ik doe dit met swag - die heeft die extra security functies. Daarvan gebruik ik Fail2BAN voor bruteforce logins; aangevuld met Maxmind voor een geoblock.The-Source schreef op vrijdag 4 april 2025 @ 12:08:
Dus local dns setup is:
fqdn > ip NPM (dit voor elke server die je lokaal wil bereiken)
In NPM proxy host: fqdn > *.certificaat > aangeven waar het lokaal op draait bijvoorbeeld http < ip> <port>
Scheelt een hoop onthouden qua afwijkende poortnummers voor van alles en nog wat.
Of je het van buitenaf bereikbaar wil maken kan je zelf bepalen maar zou dan kiezen voor of vpn of iets met extra security ipv zomaar poortje open zetten.
Voor alles wat niet via swag loopt is er een vpn.
[ Voor 6% gewijzigd door Airw0lf op 04-04-2025 12:23 ]
makes it run like clockwork
1. Lxc openmediavault met pass through hdd
2. Vm openmediavault met pass through hdd
3. Lxc turnkey fileserver met pass through hdd
4 anders.
Gebruiken. En qua fikesystem gewoon ext 4 of toch ntfs. Het is maar disk met media dus zfs zie ik weinig meerwaarde in.
ik zie ik zie wat jij niet ziet
Heb het exact hetzelfde geconfigureerd, afgezien van de cloudflare tunnel.The-Source schreef op vrijdag 4 april 2025 @ 12:08:
@spitsv Ik heb alle domeinen juist alleen maar in local dns (pihole redundant) gezet.
Ik heb wel 2 records (afwijkend van lokaal) publiek staan die door cloudflared tunnel weer bij mijn NPM uitkomen. (in cloudflare blokkeer ik heel veel via de WAF en daarna ook nog mtls certificaat)
En dmv header adres (die is afwijkend van publiek DNS adres) weer bij NPM aan het juiste interne adres word gekoppeld.
Dus local dns setup is:
fqdn > ip NPM (dit voor elke server die je lokaal wil bereiken)
In NPM proxy host: fqdn > *.certificaat > aangeven waar het lokaal op draait bijvoorbeeld http < ip> <port>
Scheelt een hoop onthouden qua afwijkende poortnummers voor van alles en nog wat.
Of je het van buitenaf bereikbaar wil maken kan je zelf bepalen maar zou dan kiezen voor of vpn of iets met extra security ipv zomaar poortje open zetten.
Ben wel benieuwd naar swag en fail2ban waar @Airw0lf het over heeft, ga ik ook even checken.
Ik maak zelfs niet eens gebruik van passthrough - alles wordt opgeslagen in raw-formaat op een ext4 partitie. Die op zijn beurt weer gebaseerd is op lvm zodat ik "dynamisch" kan op- en af-schalen in diskcapaciteit.icecreamfarmer schreef op vrijdag 4 april 2025 @ 16:15:
Kan ik voor de samba server beter:
1. Lxc openmediavault met pass through hdd
2. Vm openmediavault met pass through hdd
3. Lxc turnkey fileserver met pass through hdd
4 anders.
Gebruiken. En qua fikesystem gewoon ext 4 of toch ntfs. Het is maar disk met media dus zfs zie ik weinig meerwaarde in.
Of een traditionele spindle disk vervangen door een ssd met een simpele move actie van de raw-bestanden naar de nieuwe ssd-ext4-partitie. Kwestie van de vm of lxc stoppen, vanuit de webgui de move uitvoeren en de vm/lxc weer starten.
De voordelen van zfs wegen (imho) nauwelijks op tegen de nadelen: veel overhead en de nodige extra hardware (waaronder een sloot geheugen) om de zfs-huishouding soepel te laten verlopen. Wat ook weer administratie, beheer en kosten met zich meebrengt.
[ Voor 4% gewijzigd door Airw0lf op 04-04-2025 17:40 ]
makes it run like clockwork
Disks doorpassen naar een VM is overrated wat mij betreft, alles wat je nodig hebt zit in Proxmox gebouwd.
Of je dan ZFS, Btrfs of LVM met Ext4 wilt gebruiken moet je lekker zelf weten.
Ligt naar mijn mening beetje aan de eisen. Ik vind het dan ook weer niet zuiver om van je hyperivisor een NAS te maken._JGC_ schreef op vrijdag 4 april 2025 @ 17:54:
Gewoon lekker proxmox de storage laten doen. Ja ze zitten nog op ZFS 2.2 ipv 2.3, maar dat zal ook niet lang meer duren.
Disks doorpassen naar een VM is overrated wat mij betreft, alles wat je nodig hebt zit in Proxmox gebouwd.
Of je dan ZFS, Btrfs of LVM met Ext4 wilt gebruiken moet je lekker zelf weten.
Je laat de NAS taken dan ook door een of meerdere containers doen, maar de onderliggende fysieke opslag en management daarvan laat je door Proxmox doen.orvintax schreef op vrijdag 4 april 2025 @ 21:28:
[...]
Ligt naar mijn mening beetje aan de eisen. Ik vind het dan ook weer niet zuiver om van je hyperivisor een NAS te maken.
Als je geen meerdere disks hebt heeft ZFS sowieso weinig toegevoegde waarde naar mijn mening. Hoe ben je van plan je media te gebruiken? Dit zie ik namelijk niet terug en is van groot belang. Als je het simpel en efficient wil houden zou ik Proxmox de disk laten beheren, er gewoon een EXT4 filesystem op gooien en vervolgens via een bind mount beschikbaar maken op de LXC waar je het wilt gebruiken. Als je het in een VM wilt gebruiken dan kun je beter de disk toewijzen aan de VM naar mijn mening. Maar wederom, dit is heel afhankelijk van je use case.icecreamfarmer schreef op vrijdag 4 april 2025 @ 16:15:
Kan ik voor de samba server beter:
1. Lxc openmediavault met pass through hdd
2. Vm openmediavault met pass through hdd
3. Lxc turnkey fileserver met pass through hdd
4 anders.
Gebruiken. En qua fikesystem gewoon ext 4 of toch ntfs. Het is maar disk met media dus zfs zie ik weinig meerwaarde in.
Ja dat vind ik overigens prima. Maar goed we weten eigenlijk niks van OPs use case, buiten "een samba server"._JGC_ schreef op vrijdag 4 april 2025 @ 21:33:
[...]
Je laat de NAS taken dan ook door een of meerdere containers doen, maar de onderliggende fysieke opslag en management daarvan laat je door Proxmox doen.
Met jullie hulp de drivers kunnen installeren maar bij sensors-detect vindt hij de fans nog steeds niet.icecreamfarmer schreef op woensdag 2 april 2025 @ 21:17:
Ik heb een tweedehands hp 400 g5 die ik als server wil gebruiken.
Nu wil ik de fanspeed aanpassen want de fan blijft constant op vol vermogen draaien terwijl de temps 25 C zijn.
Dit gevolgd maar ik loop vast omdat de fanspeeds niet zichtbaar zijn.
https://www.baeldung.com/linux/control-fan-speed
https://wiki.joeplaa.com/...d-configure-fancontrol-pc
Oplossing zou moeten zijn om TI87 drivers te installeren en te compilen.
https://github.com/frankcrawford/it87
[...]
Ik krijg dit echter niet voor elkaar.
Bij make clean krijg ik gelijk deze foutmelding:
[...]
Dat zou moeten inhouden dat de kernel niet geschikt is? Maar ik lees dat er mensen zijn met nieuwere kernels waarbij het wel gewoon werkt. Hoe nu verder?
-----------------
Tweede uitdaging is dat ik een bestaande HDD wil delen. Ik heb nu Turnkey fileshare lxc geinstalleerd met een passthrough voor die schijf maar hoe deel ik hem nu? Als ik een volume wil toevoegen wordt alles gewist. Of kan ik dat beter met Openmediavault doen. Zo heb ik het op mijn ouder server geregeld met een externe disk.
Iemand nog andere ideeen?
ik zie ik zie wat jij niet ziet
In principe wordt de disk alleen voor media gebruikt.orvintax schreef op vrijdag 4 april 2025 @ 21:34:
[...]
Als je geen meerdere disks hebt heeft ZFS sowieso weinig toegevoegde waarde naar mijn mening. Hoe ben je van plan je media te gebruiken? Dit zie ik namelijk niet terug en is van groot belang. Als je het simpel en efficient wil houden zou ik Proxmox de disk laten beheren, er gewoon een EXT4 filesystem op gooien en vervolgens via een bind mount beschikbaar maken op de LXC waar je het wilt gebruiken. Als je het in een VM wilt gebruiken dan kun je beter de disk toewijzen aan de VM naar mijn mening. Maar wederom, dit is heel afhankelijk van je use case.
Mijn documenten en foto's zet ik op de ssd en gaan ook nog eens naar de cloud.
Disk wordt gebruikt voor plex en jellyfin om naar de shield te streamen tevens sla ik op de disks nog backups op. Ook gebruik ik de arr suite.
Alles wordt om de zoveel tijd ook nog op een externe hdd gezet en de belangrijkste bestanden staan ook nog op mijn hoofdpc.
Daarnaast draaien er op de server (vanaf de ssd): homeassistant, adguard, nextcloud en .. .
Er zit 32 gb geheugen in de machine met ene core i5 8400. Dus hij is krachtig genoeg.
ik zie ik zie wat jij niet ziet
Een tijdje terug heb ik jullie hulp gevraagd bij het opzetten van proxmox icm met USB schijven en ik zit even helemaal vast en vraag jullie hulp!
Het gaat om 2 LXC containers,
- unprivileged LXC met Turnkey Linux file server (Samba) (ID:103)
- unprivileged LXC met Proxmox Backup Server (PBS) (ID:101)
1
| mp0: /mnt/pve/usbdrive4/pbsbackups,mp=/mnt/usbdrive4/pbsbackups |
Ik heb ID mapping gedaan voor de samba container (voor user 1000), chmod, chown uitgevoerd. Ik zie in webmin de juiste permissies, en ik kan de samba benaderen/schrijven als verwacht. Kortom: lijkt ok
Dus ik probeerde hetzeflde trucje voor de PBS container en je raadt het al, dat lukt totaal niet
Ik zie 2 dingen:
- Zodra ik de ID mapping aanzet voor de PBS container in 101.conf dan is de web-interface van PBS niet meer bereikbaar, de shell van de container via PVE werkt nog wel, ik denk dat de mount point werkt als verwacht.
code:1 2
root@proxmox-backup-server:~# ls -ld /mnt/usbdrive4/pbsbackups/ drwxr-xr-x 2 backup backup 4096 Apr 6 13:18 /mnt/usbdrive4/pbsbackups/
- Als ik ID mapping weghaal uit 101.conf dan werkt de web interface weer maar het mount point niet.
code:1 2
root@proxmox-backup-server:~# ls -ld /mnt/usbdrive4/pbsbackups/ drwxr-xr-x 2 nobody nogroup 4096 Apr 6 13:18 /mnt/usbdrive4/pbsbackups/
De IP mapping die ik gebruik:
code:1 2 3 4 5 6
lxc.idmap: u 0 100000 34 lxc.idmap: g 0 100000 34 lxc.idmap: u 34 34 1 lxc.idmap: g 34 34 1 lxc.idmap: u 35 100035 65501 lxc.idmap: g 35 100035 65501
ik heb een beetje gekke work-around bedacht, ik ben nog aan het testen maar so far so good. Maar vind het toch een beetje gek...
Mijn oplossing: de owner van de folder verhogen met 100000 ipv ID mapping te gebruiken.
1
| chown 100034:100034 /mnt/pve/usbdrive4/pbsbackups/ |
[ Voor 6% gewijzigd door Ernie op 06-04-2025 18:50 ]
Dit smaakte naar meer, dus de oude laptop heb ik vervangen voor een Lenovo ThinkCentre M70q. Dit leek bijna plug-and-play te zijn (64GB werkgeheugen en de SSD die in de laptop zat in de ThinkCentre geprikt en de Trendnet TUC2G aangesloten). De netwerkverbinding van de Proxmox server klapte er steeds uit, of na hevig iPerf verkeer of na een bepaalde tijd.
De melding die ik op de console te zien kreeg was een reeks aan:
1
| cdc_ncm 2-10:2.0 enx@08ef07974541 NETDEV WATCHDOG: CPU: 8: transmit queue 0 timed out 5067 ms |
Dus mijn eerste reactie was: toch niet plug n play, duhh... je kan ook niet zomaar een SSD met alles geïnstalleerd van het ene systeem in een ander systeem pluggen. Alles gewiped, Proxmox opnieuw geïnstalleerd, geconfigureerd en mijn VM's opgespind.
Alles wel totdat de netwerkverbinding er weer uitklapte.... Het grote internet erbij gepakt en daar ben ik erachter gekomen dat er stabiliteitsproblemen zijn met Ethernet adapters die gebruik maken van een Realtek chip.
Inmiddels maak ik gebruik van de ingebouwde Intel Ethernet Connection I219-V poort en dat draait nu een dag stabiel. Toch kan ik het niet helemaal loslaten, omdat ik nu wel een 2,5Gbps verbinding mis.
Ik lees wat dingen over andere drivers ed, zoals hier, maar mijn USB dongle lijkt toch iets anders te werken dan een ingebouwde Ethernet poort (logisch).
Heeft hier iemand ervaring mee en kan mij van tips voorzien?
NAT Reflection of je kan het afvangen met een wildcard certificaatspitsv schreef op vrijdag 4 april 2025 @ 11:58:
@The-Source de certificaten werken dan als je het systeem vanaf internet benaderd. Maar hoe doe je dat als je de server vanaf het thuis netwerk benader? Of zet je alle namen en adressen in pihole die je als lokale dns server laat werken?

Vandaag een gpu in mijn pve machine geplaatst en verder geen PCIe devices verplaatst of wat dan ook.
Is dus mijn glasvezel PCIe kaart een ander netwerk naampje gekregen. Hierdoor werkte de fail-over bond0 niet meer en daardoor de vmbr0 ook niet ( inclusief onderliggende vmbr0.x vlanid)
Ooit begonnen met enp4s0 als interface adres maar in het begin al vrij snel naar ander PCIe slot verhuisd ( toen al tegen dit probleem aangelopen) dit werd toen enp7s0 nu met gpu erin maar kaart niet verhuisd enp5s0. Dat had ik dus niet verwacht maar door de ervaring uit het verleden gelukkig wel relatief snel gevonden.
Meer gpu heb ik zelf nog wel wat uitdagingen maar hopelijk krijg ik dit zonder forum hulp opgelost ( wel met Google maar ook daar leer je van)
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Zelf heb ik een Nuc met die nic. Dat kan ook problemen opgeven. Als je vervolgens de config van de nic wat aanpast werkt hij prima.RnB schreef op zondag 6 april 2025 @ 20:07:
Ik heb een aantal weken naar tevredenheid een oude laptop als Proxmox server gebruikt. Hier heb ik een Trendnet TUC2G USB-C naar Ethernet adapter aan gehangen en dat draaide al die weken stabiel.
Dit smaakte naar meer, dus de oude laptop heb ik vervangen voor een Lenovo ThinkCentre M70q. Dit leek bijna plug-and-play te zijn (64GB werkgeheugen en de SSD die in de laptop zat in de ThinkCentre geprikt en de Trendnet TUC2G aangesloten). De netwerkverbinding van de Proxmox server klapte er steeds uit, of na hevig iPerf verkeer of na een bepaalde tijd.
De melding die ik op de console te zien kreeg was een reeks aan:
code:
1 cdc_ncm 2-10:2.0 enx@08ef07974541 NETDEV WATCHDOG: CPU: 8: transmit queue 0 timed out 5067 ms
Dus mijn eerste reactie was: toch niet plug n play, duhh... je kan ook niet zomaar een SSD met alles geïnstalleerd van het ene systeem in een ander systeem pluggen. Alles gewiped, Proxmox opnieuw geïnstalleerd, geconfigureerd en mijn VM's opgespind.
Alles wel totdat de netwerkverbinding er weer uitklapte.... Het grote internet erbij gepakt en daar ben ik erachter gekomen dat er stabiliteitsproblemen zijn met Ethernet adapters die gebruik maken van een Realtek chip.
Inmiddels maak ik gebruik van de ingebouwde Intel Ethernet Connection I219-V poort en dat draait nu een dag stabiel. Toch kan ik het niet helemaal loslaten, omdat ik nu wel een 2,5Gbps verbinding mis.
Ik lees wat dingen over andere drivers ed, zoals hier, maar mijn USB dongle lijkt toch iets anders te werken dan een ingebouwde Ethernet poort (logisch).
Heeft hier iemand ervaring mee en kan mij van tips voorzien?
Dit heb ik in mijn /etc/network/interfaces toegevoegd:
1
2
| iface eno1 inet manual post-up ethtool -K eno1 tso off gso off |
PSN: PcDCch
Bedankt voor alle info. Ik heb weer genoeg tips gekregen om te beseffen dat ik hier nog niet genoeg van weetpowerboat schreef op zondag 6 april 2025 @ 21:33:
[...]
NAT Reflection of je kan het afvangen met een wildcard certificaat

Ik heb succesvol mijn GPU als passthrough aan een VM gedaan om wat met AI te gaan spielen.
En de GPU wordt prima aangeroepen. So fa so good.
Maar ivm het kunnen maken van backups had ik een "OS disk" van 40GB gemaakt en een losse data disk van 150GB (beide op de nvme draai als storage).
Maar "/sys/devices/pci0000:00/0000:00:1c.0/0000:01:00.0/resource1" en hetzelfde pad met _wc erbij nemen mijn hele disk in beslag met gezamenlijk 34GB.
Is het mogelijk om dit naar de andere drive te moven? In mijn geval genaamd /disk2
Ik kan nu niets naar mijn home directory kopieren ivm disk full bericht ( als heeft winSCP daar een vrij cyrptische omschrijving voor

edit: zoals eigenlijk verwacht ziet het er naar uit dat het een fout van mijzelf is.
Mijn 2e disk is nooit in de fstab gekomen en daardoor was mijn /disk2 map dus nog steeds in primaire disk en alles hoopte daar dus op ipv op de grote disk te komen.
[ Voor 14% gewijzigd door The-Source op 08-04-2025 18:47 ]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Stap verder. Heb blijkbaar een l05339 moderbord maar nu krijg ik niet gevonden welke super i/o chip erop zit.icecreamfarmer schreef op zaterdag 5 april 2025 @ 10:24:
[...]
Met jullie hulp de drivers kunnen installeren maar bij sensors-detect vindt hij de fans nog steeds niet.
Iemand nog andere ideeen?
Krijg deze foutmelding:
Iemand nog ideeen om fanspeed te kunnen regelen want sensors detect vindt ze dus niet.modprobe: ERROR: could not insert 'it87': No such device
ik zie ik zie wat jij niet ziet
Er is ook nog een topic over het zelf hosten van AI en het gebruik van AI codeassistenten. Wellicht ben je daar ook nog wel in geïnteresseerd.The-Source schreef op dinsdag 8 april 2025 @ 17:38:
Wellicht dat ik de vraag hier kwijt kan, wellicht meer linux generiek.
Ik heb succesvol mijn GPU als passthrough aan een VM gedaan om wat met AI te gaan spielen.
En de GPU wordt prima aangeroepen. So fa so good.
Maar ivm het kunnen maken van backups had ik een "OS disk" van 40GB gemaakt en een losse data disk van 150GB (beide op de nvme draai als storage).
Maar "/sys/devices/pci0000:00/0000:00:1c.0/0000:01:00.0/resource1" en hetzelfde pad met _wc erbij nemen mijn hele disk in beslag met gezamenlijk 34GB.
Is het mogelijk om dit naar de andere drive te moven? In mijn geval genaamd /disk2
Ik kan nu niets naar mijn home directory kopieren ivm disk full bericht ( als heeft winSCP daar een vrij cyrptische omschrijving voor)
edit: zoals eigenlijk verwacht ziet het er naar uit dat het een fout van mijzelf is.
Mijn 2e disk is nooit in de fstab gekomen en daardoor was mijn /disk2 map dus nog steeds in primaire disk en alles hoopte daar dus op ipv op de grote disk te komen.
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Om 22:00 loopt mijn Veeam backup. Ik zie dat ik Veeam kan updaten (aanrader, want ze geven aan dat je nu kunt verbinden met Proxmox met een non-root user @Quad @GoBieN-Be ). En ik kan de BIOS nog updaten, dat ga ik ook maar even doen. Hopelijk is het daarmee opgelost, want dit is wel een vervelend issue.
[ Voor 3% gewijzigd door ThinkPad op 13-04-2025 08:42 ]
Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal
Ik heb gisteren geüpdatet naar 8.4.1 en sinds ergens vannacht lag ook mijn Optiplex 3060 Micro "eruit". Ik zag vanmorgen in m'n modem/router dat de node nog wel een soort van online was, maar niets op m'n node was nog te bereiken.ThinkPad schreef op zondag 13 april 2025 @ 08:31:
Vreemd, vrijdagochtend geüpdate naar 8.4.1 en nu al twee keer (vrijdagavond en zaterdagavond) exact om 22:15 gehad dat mijn host (Dell Optiplex 5060 Micro) z'n netwerkverbinding verloor. In m'n switch de poort even down en weer up brengen en hij kwam weer in de lucht.
Enige dat werkte was een powercycle op de node, toen liep alles weer zonder problemen..
Edit:
Even de logs nagekeken op m'n node en ik zie daar dat direct nadat mijn geschedulede backup job klaar is het network unreachable was.
[ Voor 9% gewijzigd door HowsMyApple op 13-04-2025 09:36 ]
Netwerk disconnect (kabel fysiek eruit/erin) hielp ook niet? Ik zie dat ik een I219-V (rev 10) heb in mijn 5060. Wellicht is er in 8.4.1. een driver geupdate die dit veroorzaakt. Welke netwerkkaart heb jij erin zitten? Kun je zien op de commandline met lspci | grep -i 'Ethernet'HowsMyApple schreef op zondag 13 april 2025 @ 09:30:
[...]
Ik heb gisteren geüpdatet naar 8.4.1 en sinds ergens vannacht lag ook mijn Optiplex 3060 Micro "eruit". Ik zag vanmorgen in m'n modem/router dat de node nog wel een soort van online was, maar niets op m'n node was nog te bereiken.
Enige dat werkte was een powercycle op de node, toen liep alles weer zonder problemen..
Heb jij rond tijdstip van connectieverlies ook iets draaien wat wellicht intensief netwerkverkeer (zoals bij mij dus de Veeam backup) veroorzaakt?
Ik vind het wel handig dat je in Veeam ook guest-file level restore kan doen (dus één file uit een backup kunnen plukken i.p.v. hele VM te moeten restoren).Quad schreef op zondag 13 april 2025 @ 09:30:
@ThinkPad Ik ben afgestapt van Veeam backup. Proxmox BS performt voor mij veel beter doordat ik gebruik maak van een LXC.
[ Voor 6% gewijzigd door ThinkPad op 13-04-2025 09:38 ]
01:00.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL8111/8168/8411 PCI Express Gigabit Ethernet Controller (rev 15)ThinkPad schreef op zondag 13 april 2025 @ 09:35:
[...]
Netwerk disconnect (kabel fysiek eruit/erin) hielp ook niet? Ik zie dat ik een I219-V (rev 10) heb in mijn 5060. Wellicht is er in 8.4.1. een driver geupdate die dit veroorzaakt. Welke netwerkkaart heb jij erin zitten? Kun je zien op de commandline met lspci | grep -i 'Ethernet'
[...]
Moet eerlijk zeggen het niet in me op kwam om opnieuw kabel opnieuw erin te doen maar gelijk een powercycle heb gedaan. M'n router liep al te mekkeren over duplicate ip-adressen namelijk, dus alles mocht even helemaal uit en weer aan
Maar ik vermoed nu dus dat het iets met 8.4.1 icm backup jobs te maken heeft (zie edit vorige post).
Edit: Ik heb het privé nog nooit nodig gehad. Zakelijk komt weinig voor.
[ Voor 9% gewijzigd door Quad op 13-04-2025 10:25 ]
Alles went behalve een Twent.
⏩ PVOutput☀️
Apr 13 07:53:19 proxmox kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:
Heb het nu hopelijk opgelost door in /etc/network/interfaces een post-up commando toe te voegen:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| auto lo iface lo inet loopback iface eno1 inet manual auto vmbr0 iface vmbr0 inet static address 192.168.4.3/24 gateway 192.168.4.1 bridge-ports eno1 bridge-stp off bridge-fd 0 + post-up /sbin/ethtool -K eno1 tso off gso off gro off source /etc/network/interfaces.d/* |
Daarna netwerkkaart herstarten (let op: je systeem verliest kort even de netwerkverbinding):
ifdown vmbr0 && ifup vmbr0
En checken met ethtool of deze 'off' aangeeft voor tso / gso / gro:
ethtool -k eno1 | grep -E 'tso|gso|gro'
Vanavond maar even kijken of het goed gaat als de backup heeft gedraaid (de bug wordt getriggerd als de netwerkkaart flink belast wordt).
[ Voor 88% gewijzigd door ThinkPad op 13-04-2025 15:55 ]
Voor iedereen die hier ook mee te maken mocht krijgen.... ik heb na veel puzzelen, Googlen, etc. het probleem als volgt opgelost. Ik heb naast de al eerder beschreven mnt-stack.mount file een mnt-stack.automount gemaakt met de volgende inhoud:TTV schreef op vrijdag 28 maart 2025 @ 12:27:
[...]
Ja dat klopt inderdaad.
[...]
Hieronder de output van het door jou voorgestelde commando:
Mar 28 12:19:45 proxmox01 kernel: ACPI BIOS Error (bug): Could not resolve symbol [\_SB.PC00.TXHC.RHUB.SS01], AE_NOT_FOUND (20230628/dswload2-162)
Mar 28 12:19:45 proxmox01 kernel: ACPI Error: AE_NOT_FOUND, During name lookup/catalog (20230628/psobject-220)
Mar 28 12:19:45 proxmox01 kernel: ACPI BIOS Error (bug): Could not resolve symbol [\_SB.PC00.TXHC.RHUB.SS02], AE_NOT_FOUND (20230628/dswload2-162)
Mar 28 12:19:45 proxmox01 kernel: ACPI Error: AE_NOT_FOUND, During name lookup/catalog (20230628/psobject-220)
Mar 28 12:19:46 proxmox01 kernel: Bluetooth: hci0: Failed to load Intel firmware file intel/ibt-0040-1050.sfi (-2)
Mar 28 12:19:46 proxmox01 kernel: Bluetooth: hci0: Failed to read MSFT supported features (-56)
Daar lijken nog wel wat dingen mis te gaan die ik nog niet in de gaten heb? Maar op het eerste gezicht zie ik geen aanknopingspunten waarop hij kan blijven hangen in een boot?
[Unit]
Description=Stack WebDAV
[Automount]
Where=/mnt/stack
TimeoutIdleSec=60
[Install]
WantedBy=multi-user.target
Deze automount heb ik via het volgende commando geactiveerd: systemctl enable mnt-stack.automount
Nu komt mijn Proxmox server gewoon op en wordt mijn stack gemount wanneer de directory met de mount
(/mnt/stack) wordt benaderd.
Ik blijf wel nieuwsgierig waarom Proxmox tijdens de boot blijft hangen met de oplossing die @Kaspers beschreven heeft, maar deze oplossing werkt in ieder geval perfect tot op dit moment voor mij.
Wie weet heeft iemand iets aan deze tip.
Deze backups maak je dan via Proxmox Backup Server? Of op een andere manier?Quad schreef op zondag 13 april 2025 @ 10:14:
@ThinkPad File restore kan ook binnen Proxmox VE. Je download de files of mappen naar een afzonderlijke locatie. Met Veeam kan dat direct met overschrijven of in dezelfde map met andere naam, is makkelijker maar tegen de tijd dat ik een restore binnen Veeam ben gestart heb ik in Proxmox de file al gedownload en handmatig op de juiste locatie geplaatst.
Edit: Ik heb het privé nog nooit nodig gehad. Zakelijk komt weinig voor.
Opzich heeft Veeam wel redelijk wat overhead (moet er een Windows VM voor in de lucht houden) dus als het makkelijker kan...
Proxmox Backup Server (PBS) hosten op een systeem, kan als VM op een Synology nas vb, daar een plekje aanmaken om de backups te zetten (datastore).ThinkPad schreef op maandag 14 april 2025 @ 11:46:
[...]
Deze backups maak je dan via Proxmox Backup Server? Of op een andere manier?
Opzich heeft Veeam wel redelijk wat overhead (moet er een Windows VM voor in de lucht houden) dus als het makkelijker kan...
Vervolgens in je cluster de PBS toevoegen als locatie, en dan backups instellen naar PBS als bestemming.
Retentie en dergelijke regelen in je cluster, vind ik gemakkelijker en overzichtelijker.
Restore etc kan vanuit PVE, moet je niet voor in PBS zijn. Je kan ook een PBS offsite hosten en beide servers in sync houden. Grootste voordeel is ook de data deduplicatie, momenteel zit ik aan een factor 11!
Ik heb Proxmox backup server via script als LXC toegevoegd: https://community-scripts...?id=proxmox-backup-serverThinkPad schreef op maandag 14 april 2025 @ 11:46:
[...]
Deze backups maak je dan via Proxmox Backup Server? Of op een andere manier?
Opzich heeft Veeam wel redelijk wat overhead (moet er een Windows VM voor in de lucht houden) dus als het makkelijker kan...
De share mounten, als opslag toevoegen en gaan.
Alles went behalve een Twent.
⏩ PVOutput☀️
Je kunt wel op je host de share mounten en dan die lokatie als bind mount meegeven aan je container. Dat werkt prima.
Saved by the buoyancy of citrus