Acties:
  • +1 Henk 'm!

  • Jerie
  • Registratie: April 2007
  • Niet online
Op zich bevat Proxmox een firewall feature, net zoals iedere Linux kernel met nftables/iptables. Maar ik persoonlijk heb liever de firewall in een VM, en daar dan ook het publieke IP met SR-IOV heen. Dat verlaagt de attack surface.

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


Acties:
  • 0 Henk 'm!

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 12-09 20:18
Als je een eigen mail server wilt draaien dan moet je natuurlijk wel tenminste poort 25 open staan hebben.
Als je een eigen DNS name server wilt draaien (dus niet resolver) dan moet je wederom tenminste poort 53 open staan hebben.

Maar de Proxmox UI poort (8006) zou ik zeker niet open zetten voor iedereen.

Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

Ondanks dat ik het persoonlijk apprecieër dat iedereen meedenkt. Vraag ik me af hoeveel OP gediend is met al deze meningen. In plaats van dat zijn vraag beantwoord word.
Niemand heeft een verplichting om enkel te doen wat OP zint of nuttig acht. Vond het gewoon leuk om te zien.

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Jerie schreef op vrijdag 14 maart 2025 @ 19:09:
[...]

Voor wie geen zin heeft in allerlei commando's en een TUI wil apt install ncdu en na installatie ncdu / vervolgens weet je welke directories onevenredig veel ruimte gebruiken.
Dit is een hele mooie, dank!

@Airw0lf n.a.v. bovenstaande zie ik dat usr/lib relatief veel ruimte in beslag neemt (3.6GB), maar daar valt weinig aan te doen lijkt mij. Andere folder is var/cache/apt/archives (4.4GB). Zou dat verwijderd kunnen worden?
_JGC_ schreef op vrijdag 14 maart 2025 @ 20:09:
Overigens is 16GB voor het rootfs tegenwoordig niet heel veel. Waarschijnlijk is die NVME disk later toegevoegd. Kan je de output van vgdisplay en lvdisplay geven? Mogelijk kan je pve-root gewoon extenden.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
--- Volume group ---
  VG Name               pve
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  7
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                3
  Open LV               2
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               55.39 GiB
  PE Size               4.00 MiB
  Total PE              14181
  Alloc PE / Size       12422 / 48.52 GiB
  Free  PE / Size       1759 / 6.87 GiB


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
  --- Logical volume ---
  LV Name                data
  VG Name                pve
  LV UUID                OuE90q-x3pO-ePXK-jJPT-WLqr-d7JG-lkg0hh
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-12-18 18:08:44 +0100
  LV Pool metadata       data_tmeta
  LV Pool data           data_tdata
  LV Status              available
  # open                 0
  LV Size                <25.90 GiB
  Allocated pool data    0.00%
  Allocated metadata     1.58%
  Current LE             6630
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:4
   
  --- Logical volume ---
  LV Path                /dev/pve/swap
  LV Name                swap
  VG Name                pve
  LV UUID                OJE3kw-xmY0-wp4b-G3Qn-ZnK3-DE8V-2HjTB2
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-12-18 18:08:43 +0100
  LV Status              available
  # open                 2
  LV Size                <6.88 GiB
  Current LE             1760
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:0
   
  --- Logical volume ---
  LV Path                /dev/pve/root
  LV Name                root
  VG Name                pve
  LV UUID                mgaeOF-RU3U-3xE1-4Pnc-zF70-xuOk-5yyfAj
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-12-18 18:08:44 +0100
  LV Status              available
  # open                 1
  LV Size                13.75 GiB
  Current LE             3520
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:1

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +2 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

@Sp33dFr34k Je kunt je APT cache schoonmaken met het volgende commando:
code:
1
apt clean

[ Voor 20% gewijzigd door orvintax op 17-03-2025 14:03 ]

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

orvintax schreef op maandag 17 maart 2025 @ 14:03:
@Sp33dFr34k Je kunt je APT cache schoonmaken met het volgende commando:
code:
1
apt clean
Dank, dat was een quick win, nu weer 50% vrij :)

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Voor de kenners, gezien de historisch changelogs lijkt het erop dat er over ongeveer een maand een nieuwe release komt op een nieuwe/geupdate linux kernel.
Maar wat ik niet kan zien is wat de verwachte kernel versie gaat zijn.

Zit zelf namelijk op features uit de 6.13 kernel te wachten (januari 2025) maar is er ergens iets te zien wat het gaat worden?

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • +1 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 09:16
The-Source schreef op maandag 17 maart 2025 @ 14:23:
Voor de kenners, gezien de historisch changelogs lijkt het erop dat er over ongeveer een maand een nieuwe release komt op een nieuwe/geupdate linux kernel.
Maar wat ik niet kan zien is wat de verwachte kernel versie gaat zijn.

Zit zelf namelijk op features uit de 6.13 kernel te wachten (januari 2025) maar is er ergens iets te zien wat het gaat worden?
Is even afhankelijk van hoeveel bugreports er binnen gaan komen, maar ik verwacht dat 6.11 doorschuift als standaard kernel. Traditie is dat ze Ubuntu gaan volgen, dus de volgende testkernel wordt 6.14.

Ubuntu 25.04 komt volgende maand uit met 6.14.

Acties:
  • +1 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 09:16
Sp33dFr34k schreef op maandag 17 maart 2025 @ 13:38:
[...]


Dit is een hele mooie, dank!

@Airw0lf n.a.v. bovenstaande zie ik dat usr/lib relatief veel ruimte in beslag neemt (3.6GB), maar daar valt weinig aan te doen lijkt mij. Andere folder is var/cache/apt/archives (4.4GB). Zou dat verwijderd kunnen worden?


[...]


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
--- Volume group ---
  VG Name               pve
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  7
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                3
  Open LV               2
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               55.39 GiB
  PE Size               4.00 MiB
  Total PE              14181
  Alloc PE / Size       12422 / 48.52 GiB
  Free  PE / Size       1759 / 6.87 GiB


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
  --- Logical volume ---
  LV Name                data
  VG Name                pve
  LV UUID                OuE90q-x3pO-ePXK-jJPT-WLqr-d7JG-lkg0hh
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-12-18 18:08:44 +0100
  LV Pool metadata       data_tmeta
  LV Pool data           data_tdata
  LV Status              available
  # open                 0
  LV Size                <25.90 GiB
  Allocated pool data    0.00%
  Allocated metadata     1.58%
  Current LE             6630
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:4
   
  --- Logical volume ---
  LV Path                /dev/pve/swap
  LV Name                swap
  VG Name                pve
  LV UUID                OJE3kw-xmY0-wp4b-G3Qn-ZnK3-DE8V-2HjTB2
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-12-18 18:08:43 +0100
  LV Status              available
  # open                 2
  LV Size                <6.88 GiB
  Current LE             1760
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:0
   
  --- Logical volume ---
  LV Path                /dev/pve/root
  LV Name                root
  VG Name                pve
  LV UUID                mgaeOF-RU3U-3xE1-4Pnc-zF70-xuOk-5yyfAj
  LV Write Access        read/write
  LV Creation host, time proxmox, 2020-12-18 18:08:44 +0100
  LV Status              available
  # open                 1
  LV Size                13.75 GiB
  Current LE             3520
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:1
Mocht je nog wat ruimte toe willen voegen:
code:
1
2
lvextend -L +4G /dev/pve/root
resize2fs /dev/pve/root

Die 2e op voorwaarde dat je nu ext4 gebruikt voor je rootfs, mocht je daar wat anders gebruiken uiteraard de tool gebruiken die bij dat filesystem hoort.

Acties:
  • +1 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

_JGC_ schreef op maandag 17 maart 2025 @ 14:51:
[...]

Mocht je nog wat ruimte toe willen voegen:
code:
1
2
lvextend -L +4G /dev/pve/root
resize2fs /dev/pve/root

Die 2e op voorwaarde dat je nu ext4 gebruikt voor je rootfs, mocht je daar wat anders gebruiken uiteraard de tool gebruiken die bij dat filesystem hoort.
Dank, gelukt (met xfs_growfs)!

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
Sp33dFr34k schreef op maandag 17 maart 2025 @ 13:38:
[...]

@Airw0lf n.a.v. bovenstaande zie ik dat usr/lib relatief veel ruimte in beslag neemt (3.6GB), maar daar valt weinig aan te doen lijkt mij. Andere folder is var/cache/apt/archives (4.4GB). Zou dat verwijderd kunnen worden?

[...]
Die /usr/lib is bij mij 3.4-GB - maar hier zou ik niet aan durven te sleutelen.
De andere is apt cache en heb je inmiddels leeg gemaakt zag ik.
En het vergrootten van de partitie is ook gelukt

Ik schat in dat je probleem nu opgelost is?
Afgezien van de wearout?

makes it run like clockwork


Acties:
  • +1 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Airw0lf schreef op maandag 17 maart 2025 @ 16:50:
[...]


Die /usr/lib is bij mij 3.4-GB - maar hier zou ik niet aan durven te sleutelen.
De andere is apt cache en heb je inmiddels leeg gemaakt zag ik.
En het vergrootten van de partitie is ook gelukt

Ik schat in dat je probleem nu opgelost is?
Afgezien van de wearout?
Yes, goed ingeschat! Behalve de wearout dus inderdaad, en de SMART die faalt van die SSD. Even op de planning zetten om deze binnenkort te vervangen.

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • Jerie
  • Registratie: April 2007
  • Niet online
Corosync uitzetten wanneer je geen clustering gebruikt en lief wilt zijn voor je consumer grade SSD (enterprise SSDs kunnen zat writes aan, al is het nog steeds zonde van de resources).

"Nobody is very good at self-reflection, I'm afraid." -- Linus Torvalds. Kindprofielen zijn binnenkort weer beschikbaar.


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Jerie schreef op maandag 17 maart 2025 @ 18:46:
Corosync uitzetten wanneer je geen clustering gebruikt en lief wilt zijn voor je consumer grade SSD (enterprise SSDs kunnen zat writes aan, al is het nog steeds zonde van de resources).
Goeie, heb er even op gegoogled, maar dat lijkt nog niet zo eenvoudig te disablen.

Zou deze genoeg zijn?

code:
1
systemctl disable pve-ha-crm pve-ha-lrm corosync

[ Voor 3% gewijzigd door Sp33dFr34k op 17-03-2025 20:29 ]

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Sp33dFr34k schreef op maandag 17 maart 2025 @ 20:29:
[...]


Goeie, heb er even op gegoogled, maar dat lijkt nog niet zo eenvoudig te disablen.

Zou deze genoeg zijn?

code:
1
systemctl disable pve-ha-crm pve-ha-lrm corosync
Daarmee disable je (alleen) het opstarten na boot. Mogelijk wil je nog een --now toevoegen zodat ze ook (nu) gestopt worden als ze actief zijn. Anders blijven ze dus draaien tot een reboot.

Overigens meen ik dat een aantal services (en ik denk dat dat corosync ook was) alleen starten als er een config file aanwezig is, dat standaard niet het geval is. Het disablen van de service heeft dan effectief niet heel veel nut (behalve dat die niet bij opstarten checkt of het config bestand bestaat :P)

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 07:57

Quad

Doof

https://community-scripts.github.io/ProxmoxVE/scripts

Site lijkt leeggehaald te zijn? Hm..

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • +1 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 08:43
https://github.com/community-scripts/ProxmoxVE/issues/3198

Foutje bedankt denk ik. Hij werkt al weer

[ Voor 3% gewijzigd door lolgast op 18-03-2025 11:42 ]


Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 07:57

Quad

Doof

Klopt, even refreshen en gaan.
Ik bedenk me wel dat het knudde is dat ik dan van zo'n site afhankelijk ben wil ik een bepaalde service draaien als LXC binnen Proxmox.

Maarja, het is zo makkelijk.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • +2 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 08:43
Quad schreef op dinsdag 18 maart 2025 @ 13:34:
[...]

Klopt, even refreshen en gaan.
Ik bedenk me wel dat het knudde is dat ik dan van zo'n site afhankelijk ben wil ik een bepaalde service draaien als LXC binnen Proxmox.

Maarja, het is zo makkelijk.
Accepteren zolang het werkt. De moeilijke weg kiezen en uitzoeken hoe je het zelf moet installeren kan altijd nog, als die community echt stopt ;)

Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 07:57

Quad

Doof

lolgast schreef op dinsdag 18 maart 2025 @ 13:36:
[...]

Accepteren zolang het werkt. De moeilijke weg kiezen en uitzoeken hoe je het zelf moet installeren kan altijd nog, als die community echt stopt ;)
Daarom. En als die community stopt, stoppen de LXC's niet natuurlijk.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • +1 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
Quad schreef op dinsdag 18 maart 2025 @ 13:38:
[...]

Daarom. En als die community stopt, stoppen de LXC's niet natuurlijk.
Of wel.. maar daar ga je dan snel genoeg achter komen,,, :+

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • WheeleE
  • Registratie: Juni 2001
  • Laatst online: 21:39

WheeleE

Dinges

Na heel veel pogingen om de grootte van de local en local-lvm aan te passen (grotere local), heb ik het opgegeven. Ik krijg het niet voor elkaar, ongeacht wat ik bij de setup ook invul.
Later deze week stop ik een grote nvme in de server en installeer daar de boel op. Zowel de ruimte op local als op local-lvm moet dan genoeg zijn voor de komende tijd. Voor ee oude ssd verzin ik wel een ander doel.

Maar verder ben ik een heel tevreden gebruiker van Proxmox :)

Acties:
  • +2 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 08:43
@WheeleE Dat kun je gewoon configureren hoor, dat weet ik heel zeker. Heb ik ook gedaan namelijk. Ik ga, hopelijk, morgen mijn NVME schijf vervangen voor een nieuwe, dan zal ik kijken of ik een foto voor je kan maken van wat ik bedoel.

Mijn huidige Samsung 990 Pro NVME geeft momenteel met grote regelmaat tijdens de back-ups een EXT4-fs (dm-28): write access unavailable, skipping orphan cleanup error (de DM-28 is wisselend) waarna de disk in read-only mode wordt gemount, waardoor mijn hele Proxmox omgeving vastloopt. Ik had al wat langer problemen met deze disk en slechte sectoren, nu ben ik er wel klaar mee. Heb gelukkig 2 exact dezelfde devices in de meterkast hangen dus als de huidige disk meewerkt heb ik geen downtime :)

Acties:
  • +1 Henk 'm!

  • rescla
  • Registratie: November 2012
  • Laatst online: 07:38
lolgast schreef op dinsdag 18 maart 2025 @ 16:17:
@WheeleE Dat kun je gewoon configureren hoor, dat weet ik heel zeker. Heb ik ook gedaan namelijk. Ik ga, hopelijk, morgen mijn NVME schijf vervangen voor een nieuwe, dan zal ik kijken of ik een foto voor je kan maken van wat ik bedoel.

Mijn huidige Samsung 990 Pro NVME geeft momenteel met grote regelmaat tijdens de back-ups een EXT4-fs (dm-28): write access unavailable, skipping orphan cleanup error (de DM-28 is wisselend) waarna de disk in read-only mode wordt gemount, waardoor mijn hele Proxmox omgeving vastloopt. Ik had al wat langer problemen met deze disk en slechte sectoren, nu ben ik er wel klaar mee. Heb gelukkig 2 exact dezelfde devices in de meterkast hangen dus als de huidige disk meewerkt heb ik geen downtime :)
Je bent bekend met de firmware problemen van de Samsung 990 Pro? O.a. hier wat over te lezen: https://www.tomshardware....pdate-released-ssd-health Als hij als kuren heeft maakt het updaten van de firmware niet zo veel meer uit overigens, maar valt waarschijnlijk wel onder garantie. Ik heb zelf een 980 Pro gehad met vergelijkbare problemen.

Acties:
  • +1 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 08:43
@rescla Ja daar ben ik mee bekend. Ik draai de nieuwste firmware al sinds vorig jaar, praktisch toen hij uit kwam. De problemen zijn een tijd daarna overigens pas ontstaan. Al met al is die 990 Pro gewoon geen al te best product gebleken

code:
1
2
3
4
5
6
7
8
9
10
11
lolgast@pve:~# ./ssdtoolkitv2 -L
================================================================================================
Samsung DC Toolkit Version 2.1.L.Q.0
Copyright (C) 2017 SAMSUNG Electronics Co. Ltd. All rights reserved.
================================================================================================
------------------------------------------------------------------------------------------------------------------------------------------------------
| Disk   | Path       | Model                                 | Serial          | Firmware | Optionrom | Capacity | Drive  | Total Bytes | NVMe Driver |
| Number |            |                                       | Number          |          | Version   |          | Health | Written     |             |
------------------------------------------------------------------------------------------------------------------------------------------------------
| *0:c   | /dev/nvme0 | Samsung SSD 990 PRO with Heatsink 2TB | S7HPNJ0X102583J | 4B2QJXD7 | N/A       |  1863 GB | GOOD   |  0.01 TB    | Unknown     |
------------------------------------------------------------------------------------------------------------------------------------------------------


Die 'written' klopt overigens helemaal niets van, smartctl geloof ik eerder
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
SMART/Health Information (NVMe Log 0x02)
Critical Warning:                   0x00
Temperature:                        46 Celsius
Available Spare:                    100%
Available Spare Threshold:          10%
Percentage Used:                    7%
Data Units Read:                    60,035,702 [30.7 TB]
Data Units Written:                 35,694,576 [18.2 TB]
Host Read Commands:                 437,503,266
Host Write Commands:                964,664,458
Controller Busy Time:               9,916
Power Cycles:                       16
Power On Hours:                     7,238
Unsafe Shutdowns:                   11
Media and Data Integrity Errors:    0
Error Information Log Entries:      0
Warning  Comp. Temperature Time:    0
Critical Comp. Temperature Time:    0
Temperature Sensor 1:               46 Celsius
Temperature Sensor 2:               54 Celsius

[ Voor 24% gewijzigd door lolgast op 18-03-2025 16:34 ]


Acties:
  • 0 Henk 'm!

  • WheeleE
  • Registratie: Juni 2001
  • Laatst online: 21:39

WheeleE

Dinges

lolgast schreef op dinsdag 18 maart 2025 @ 16:17:
@WheeleE Dat kun je gewoon configureren hoor, dat weet ik heel zeker. Heb ik ook gedaan namelijk. Ik ga, hopelijk, morgen mijn NVME schijf vervangen voor een nieuwe, dan zal ik kijken of ik een foto voor je kan maken van wat ik bedoel.

Mijn huidige Samsung 990 Pro NVME geeft momenteel met grote regelmaat tijdens de back-ups een EXT4-fs (dm-28): write access unavailable, skipping orphan cleanup error (de DM-28 is wisselend) waarna de disk in read-only mode wordt gemount, waardoor mijn hele Proxmox omgeving vastloopt. Ik had al wat langer problemen met deze disk en slechte sectoren, nu ben ik er wel klaar mee. Heb gelukkig 2 exact dezelfde devices in de meterkast hangen dus als de huidige disk meewerkt heb ik geen downtime :)
Ik heb vanalles geprobeerd en gezocht online, maar ik kwam er echt niet uit. Het enige wat me is gelukt is het kleiner krijgen van local. En dat is nou net het tegenovergestelde.

Zojuist heb ik de nvme-installatie gedaan met default settings. Dat leverde met een 1Tb nvme een local op van 100Gb en een local-lvm van 850Gb. Voor nu is dat voldoende, vooropgesteld dat ik de oude 500Gb kan wissen en kan toevoegen als extra local voor backups.
wat vooralsnog niet lukt, maar dat kan ook mijn non-professional linux kennis zijn, en/of de verhoogde frustratie

Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 08:43
@WheeleE Even voor de duidelijkheid, wat is het wat je precies probeert te bereiken? Dan weet ik wat ik wil bereiken morgen voor je :9

Ik heb destijds mijn 2TB disk expres kleiner ingedeeld want de voorgestelde diskgrootte voor local op basis van een 2TB is echt bizar. Ook wilde ik slechts een klein deel lvm-local en de rest dus ongepartioneerd zodat ik dat gewoon als ext4 kon formatteren voor reguliere data/share.

Acties:
  • +1 Henk 'm!

  • WheeleE
  • Registratie: Juni 2001
  • Laatst online: 21:39

WheeleE

Dinges

@lolgast De frustratie is weer wat gezakt gelukkig :). alvast dank voor je uitzoekwerk!

Mijn oude situatie: een 500gb SSD waarbij local te krap was (nte100Gb) voor een paar dagen backups. Local-lvm was >300Gb.
Omdat ik het niet voor elkaar kreeg die verdeling aan te passen ging ik voor een nieuw plan:
een 1Tb nvme met standaardverdeling (blijkbaar dus weer 100Gb local, en de rest voor local-lvm), en de oude 500Gb ssd gebruiken voor een extra local om alleen de backups op te zetten.
Dat eerste stukje is gelukt, het 2e (nog) niet.

De oude ssd gebruiken is niet perse noodzakelijk, mits ik de local storage op de nvme groter kan maken.

Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 08:43
@WheeleE Ik heb een local partition van 35GB en daarvan is maar 7GB in gebruik... Daar is de local ook voor, local PVE. Geen gekke dingen daar.

Heb je je 500GB disk wel al geformatteerd en gemount op je PVE host? Indien beide ja: Je kunt vanuit de GUI onder 'Datacenter' -> 'Storage' een 'Directory' toevoegen als storage locatie. Als locatie vul je de mount locatie van je disk op en dan zou hij linksonder als storage zichtbaar moeten worden. Vervolgens is het een kwestie van selecteren welke services zich op die storage mogen plaatsen. Selecteer je Backup, dan kun je je backups vanaf dat moment daarop laten wegschrijven.

Zo heb ik het ook gedaan in mijn huidige setup. Mijn back-ups gaan naar de ext4 partitie van mijn NVME, waarvandaan ze vrij eenvoudig gekopieerd worden naar een USB-disk en Duplicati ze naar Backblaze stuurt.

Acties:
  • +1 Henk 'm!

  • WheeleE
  • Registratie: Juni 2001
  • Laatst online: 21:39

WheeleE

Dinges

@lolgast Het formatteren van de oude ssd was de uitdaging. Daar stond nog de oude proxmox-fs op.
Maar...ik heb nu me ttrial en error de disk weten te formatteren, één grote nieuwe partitie gemaakt, én die partitie in de GUI kunnen toevoegen als local storage.
De eerste backup loopt nu geheel volgens verwachting!

Waarschijnlijk zat ik in de bekende tunnelvisie :D
Dank voor het bijsturen!

Acties:
  • +1 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 08:43
@WheeleE Deze optie moet je hebben bij de installer
Afbeeldingslocatie: https://images.lolgast.nl/uploads/medium/46/cb/29344b1a8cda4aa6a1d683a8acd3.jpeg

Ik heb voor de gein 2TB ingevuld, blijkbaar is het resultaat 1TB, lijkt een max voor local te zijn. Maargoed. Wat je bij 'maxroot' invult resulteert in de schijfgrootte van local. local-lvm wordt zo groot als het resterende aantal GB's wat je hebt.

Ik heb bijvoorbeeld gekozen voor hdsize '532' en maxroot van '32'. Daardoor is mijn local-partitie nu 32GB, local-lvm is 500GB en de rest van de disk formatteer ik en mount is voor mijn gewonen data.

Edit:
Ik heb nog even naar de documentatie gekeken. maxroot = HDD/4. Dus 25% van de diskgrootte mag naar local, meer niet

[ Voor 71% gewijzigd door lolgast op 20-03-2025 09:40 ]


Acties:
  • 0 Henk 'm!

  • WheeleE
  • Registratie: Juni 2001
  • Laatst online: 21:39

WheeleE

Dinges

@lolgast Dankjewel, dit gaat in m'n bookmarks voor een volgende keer.
Er staat me bij dat ik deze optie wel heb getest, maar dan wellicht niet helemaal juist.
De 100Gb local die ik nu heb is voorlopig genoeg voor het handje vol images en templates dat i kgebruik.

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
Mij is zojuist opgevallen dat LXC containers met vlans niet met alle vlans geregistreerd worden in de DHCP en DNS server - alleen het laatste vlan is geregistreerd.

De containers krijgen wel de goede IP en DNS gegevens.

Voor VM's worden wel alle vlans geregistreerd.

Zie ook onderstaande content van het bestand dhcp.leases en de systemen ctf, cypher, upsmon, icarus en logos:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
1743154356 bc:24:11:98:d5:c6 192.168.110.41 ctf *
1743149966 bc:24:11:4d:82:33 192.168.230.234 cypher *
1743150180 bc:24:11:a1:96:28 192.168.139.202 upsmon *
1743150146 fe:09:86:65:3c:6b 192.168.230.250 logos ff:86:65:3c:6b:00:01:00:01:2a:a4:5f:b9:fe:09:86:65:3c:6b
1743150146 fe:09:86:65:3c:6b 192.168.220.250 logos ff:86:65:3c:6b:00:01:00:01:2a:a4:5f:b5:fe:09:86:65:3c:6b
1743150145 fe:09:86:65:3c:6b 192.168.210.250 logos ff:86:65:3c:6b:00:01:00:01:2c:d4:ee:c8:fe:09:86:65:3c:6b
1743150144 fe:09:86:65:3c:6b 192.168.200.250 logos ff:86:65:3c:6b:00:01:00:01:2a:a4:5f:b2:fe:09:86:65:3c:6b
1743150143 fe:09:86:65:3c:6b 192.168.110.250 logos ff:86:65:3c:6b:00:01:00:01:2e:01:b2:be:fe:09:86:65:3c:6b
1743150143 fe:09:86:65:3c:6b 192.168.100.250 logos ff:86:65:3c:6b:00:01:00:01:2a:a4:5f:aa:fe:09:86:65:3c:6b
1743150142 fe:09:86:65:3c:6b 192.168.139.250 logos ff:86:65:3c:6b:00:01:00:01:2a:a3:cb:96:fe:09:86:65:3c:6b
1743150010 8a:2a:65:3e:05:e0 192.168.230.162 icarus ff:65:3e:05:e0:00:01:00:01:2b:71:38:8e:8a:2a:65:3e:05:e0
1743150010 8a:2a:65:3e:05:e0 192.168.220.162 icarus ff:65:3e:05:e0:00:01:00:01:2f:54:1d:90:8a:2a:65:3e:05:e0
1743150010 8a:2a:65:3e:05:e0 192.168.210.162 icarus ff:65:3e:05:e0:00:01:00:01:2f:54:1d:8f:8a:2a:65:3e:05:e0
1743150009 8a:2a:65:3e:05:e0 192.168.139.162 icarus ff:65:3e:05:e0:00:01:00:01:2b:68:31:99:8a:2a:65:3e:05:e0

De eerste 3 zijn LXC containers en hebben maar een entry - zouden er meerdere moeten zijn - net zoals bij de VM's? De laatste 2 zijn VM's en hebben meerdere entries met een MAC addresses (en client-id's?)

Ik heb getest met eth0 and vmbr0 interfaces binnen de LXC container - de eth0-interfaces zijn eth0, eth0.100, eth0.110, etc. Met bridge-interfaces was dit vbmr0, vmbr0.100, vmbr0.110, etc.

Ik heb ook getest met en zonder de dnsmasq setting dhcp-ignore-clid - geen verschil.

Tis net of elke dhcp/dns registratie overschreven wordt?
Iemand een idee waar dat door komt? En wat er eventueel aan te doen is?

Ik weet niet welke informatie (instellingen e.d.) hier nog relevant kan zijn. Dus schroom niet om vragen te stellen. :)

[ Voor 9% gewijzigd door Airw0lf op 21-03-2025 12:21 ]

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 07:57

Quad

Doof

Ik vond het wel bijzonder, dus even getest op mijn PVE met een LXC, en daar komen netjes 3 VLANS actief op binnen met DHCP ingeschakeld. Wel had ik even een reboot van de LXC nodig na het aanmaken van de adapters.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
Quad schreef op vrijdag 21 maart 2025 @ 12:54:
Ik vond het wel bijzonder, dus even getest op mijn PVE met een LXC, en daar komen netjes 3 VLANS actief op binnen met DHCP ingeschakeld. Wel had ik even een reboot van de LXC nodig na het aanmaken van de adapters.
Ja - klopt. De LXC containers krijgen allemaal wel de goede IP gegevens per vlan.
Maar in dnsmasq is uiteindelijk alleen de laatste terug te vinden.

Hoe zit dat bij jou?

makes it run like clockwork


Acties:
  • 0 Henk 'm!

  • hotrene
  • Registratie: Januari 2008
  • Laatst online: 09-08 13:04
mijn prxomox wil niet meer opstarten. Is er een vrijwilliger hier die me 1:1 assistentie wil verlenen? Ik zit echt met mijn handen in het haar hier. Hulp wordt op prijs gesteld.

Ik kan wel nog met SSH erin, maar webinterface start niet op, VM's lijst is leeg

[ Voor 19% gewijzigd door hotrene op 22-03-2025 14:01 ]


Acties:
  • +1 Henk 'm!

  • stormfly
  • Registratie: Juli 2001
  • Laatst online: 09:26
hotrene schreef op zaterdag 22 maart 2025 @ 14:00:
mijn prxomox wil niet meer opstarten. Is er een vrijwilliger hier die me 1:1 assistentie wil verlenen? Ik zit echt met mijn handen in het haar hier. Hulp wordt op prijs gesteld.
Wat zie je op een aangesloten monitor als foutmelding?

Acties:
  • 0 Henk 'm!

  • hotrene
  • Registratie: Januari 2008
  • Laatst online: 09-08 13:04
root@nuc1:~# pvecm status
Cluster information
-------------------
Name: hegge30
Config Version: 2
Transport: knet
Secure auth: on

Quorum information
------------------
Date: Sat Mar 22 14:02:39 2025
Quorum provider: corosync_votequorum
Nodes: 1
Node ID: 0x00000001
Ring ID: 1.21
Quorate: Yes

Votequorum information
----------------------
Expected votes: 1
Highest expected: 1
Total votes: 1
Quorum: 1
Flags: Quorate

Membership information
----------------------
Nodeid Votes Name
0x00000001 1 192.168.2.10 (local)
root@nuc1:~# qm list
root@nuc1:~# systemctl status pmxcfs
Unit pmxcfs.service could not be found.
root@nuc1:~#

Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 08:43
@hotrene Is je pve onderdeel van een cluster (geweest)? Zou kunnen dat de storage niet gevonden kan worden omdat er te weinig nodes in je cluster zitten om te bepalen dat de storage online is.

Acties:
  • +1 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Voor de geïnteresseerden, PVE ( met subscription) gaat nvidia gpu als vgpu ondersteunen en dat maakt 1x aan meerdere vm's knopen mogelijk
https://pve.proxmox.com/wiki/NVIDIA_vGPU_on_Proxmox_VE

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • +2 Henk 'm!

  • hotrene
  • Registratie: Januari 2008
  • Laatst online: 09-08 13:04
lolgast schreef op zaterdag 22 maart 2025 @ 16:12:
@hotrene Is je pve onderdeel van een cluster (geweest)? Zou kunnen dat de storage niet gevonden kan worden omdat er te weinig nodes in je cluster zitten om te bepalen dat de storage online is.
met
code:
1
pvecm updatecerts --force
was het probleem opgelost. Ik had blijkbaar certificaten weggegooid. Was het meest stressvolle moment van 2025. Bij het opzetten van een backup systeem opeens alles down en onbereikbaar.

Acties:
  • 0 Henk 'm!

  • John245
  • Registratie: Januari 2020
  • Laatst online: 09:20
The-Source schreef op zaterdag 22 maart 2025 @ 16:29:
Voor de geïnteresseerden, PVE ( met subscription) gaat nvidia gpu als vgpu ondersteunen en dat maakt 1x aan meerdere vm's knopen mogelijk
https://pve.proxmox.com/wiki/NVIDIA_vGPU_on_Proxmox_VE
Is dit het begin dat bij Proxmox niet meer alles gratis is?

Ik betaal netjes 3 licenties dus ik zal er weinig van merken.

Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8


Acties:
  • +2 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 08:57
John245 schreef op zaterdag 22 maart 2025 @ 16:37:
[...]

Is dit het begin dat bij Proxmox niet meer alles gratis is?

Ik betaal netjes 3 licenties dus ik zal er weinig van merken.
nee dat staat er niet, er staat

"To be eligible for support tickets, you must have an active and valid NVIDIA vGPU entitlement as well as an active and valid Proxmox VE subscription on your cluster, with level Basic, Standard or Premium"

maar voor support moest je sowieso al een subscription hebben. je kan prima die Nvidia vGPU gebruiken op de gratis versie maar dan heb je geen support bij Proxmox

A wise man's life is based around fuck you


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Denk dat er wat verwarring is, want het PVE artikel zegt niets over subscription. Het eerste artikel die ik zag ( niet op de proxmox site) had het er over. Maar kijkend naar een forum post, dan lijkt het een license server van nvidia te zijn.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • eheijnen
  • Registratie: Juli 2008
  • Niet online
Dit lijkt wat meer inzicht te geven:

Om support te krijgen op vGpu van Proxmox heb je dus (al eerder gezegd) een licentie nodig.
https://proxmox.com/en/ab...vgpu-supported-hypervisor

Om NVIDIA vGpu te gebruiken heb je een licentie nodig
https://www.nvidia.com/en-us/data-center/virtual-solutions/

En voor zover ik heb gelezen veranderd er niets aan de Proxmox licentie structuur.
Volgens mij is wel de Community licentie nieuw, waarmee je toegang de enterprise repo krijgt.
https://www.proxmox.com/e...rtual-environment/pricing

[ Voor 6% gewijzigd door eheijnen op 23-03-2025 08:12 ]

Wie du mir, so ich dir.


Acties:
  • 0 Henk 'm!

  • John245
  • Registratie: Januari 2020
  • Laatst online: 09:20
eheijnen schreef op zondag 23 maart 2025 @ 08:12:
Dit lijkt wat meer inzicht te geven:

Om support te krijgen op vGpu van Proxmox heb je dus (al eerder gezegd) een licentie nodig.
https://proxmox.com/en/ab...vgpu-supported-hypervisor

Om NVIDIA vGpu te gebruiken heb je een licentie nodig
https://www.nvidia.com/en-us/data-center/virtual-solutions/

En voor zover ik heb gelezen veranderd er niets aan de Proxmox licentie structuur.
Volgens mij is wel de Community licentie nieuw, waarmee je toegang de enterprise repo krijgt.
https://www.proxmox.com/e...rtual-environment/pricing
Die community licentie bestaat al heel lang. Maar had denk ik eerst een andere naam.

Tibber; 3-fase Victron ESS, 38,4 kWh opslag; gasloos sinds 2013; Nibe F1245-10PC; SAP; HomeSeer4; Proxmox 8


Acties:
  • 0 Henk 'm!

  • TTV
  • Registratie: Oktober 2009
  • Laatst online: 17-08 20:59

TTV

Kaspers schreef op maandag 10 september 2018 @ 09:19:
[...]


Uiteraard. Ik gebruik hiervoor de systemd.mount service, middels een mount unit file. Maak hiervoor een file aan in /etc/systemd/system/ met daarbij als filename het pad waarop je het wilt mounten (met ".mount" als extentie), dus: /usr/bla = usr-bla.mount, /stack = stack.mount

Contents:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
[Unit]
Description=Mount WebDAV Service
After=network-online.target
Wants=network-online.target

[Mount]
What=https://urlnaarstackhost/remote.php/webdav/
Where=/stack
Options=defaults
Type=davfs
TimeoutSec=15

[Install]
WantedBy=multi-user.target

Reload de systemd daemon:

code:
1
# systemctl daemon-reload


test:

code:
1
# systemctl start stack.mount


start 'm met het systeem automatisch op:

code:
1
# systemctl enable stack.mount


check status:

code:
1
 systemctl status stack.mount


en check de logs met:

code:
1
journalctl -u stack.mount


Zorg er wel voor dat je je credentials in /etc/davfs2/secrets hebt staan.
code:
1
https://urlnaarstackhost.com/remote.php/webdav/ <gebruikersnaam> <wachtwoord>
Goedenavond. Ik ben bezig met het opzetten van een proxmox VE op een Mini PC. Ik zou bij het booten van de machine mijn stack account willen mounten middels Webdav. Dit heb ik op de commandline werkend gekregen middels bovenstaande guide van @Kaspers (waarvoor dank).

Het probleem is dat het me maar niet lukt om het werkend te krijgen bij het booten van de machine. Ik heb de "systemctl enable" gedaan maar bij het booten van de machine blijft hij halverwege hangen. De Proxmox GUI kan ik dan niet benaderen. Ik kan er wel via SSH bij komen en wanneer ik dan een "systemctl disable" geef dan wordt de boot netjes afgerond. Interessant genoeg blijkt de mount dan wel gelukt te zijn.

Ik heb in journalctl gezocht naar foutmeldingen die me op het goede spoor zouden zetten en heb Google inmiddels ook uit. Ik heb waarschijnlijk een foutje gemaakt, maar begrijp niet waar.

Hebben jullie wellicht een goede tip hoe ik het probleem kan fixen? Is er bijv. nog een andere log die me meer info kan geven waar het probleem zit?

Alvast bedankt!

Acties:
  • 0 Henk 'm!

  • Kaspers
  • Registratie: Juni 2004
  • Laatst online: 12-09 09:59
TTV schreef op zondag 23 maart 2025 @ 20:12:
[...]


Goedenavond. Ik ben bezig met het opzetten van een proxmox VE op een Mini PC. Ik zou bij het booten van de machine mijn stack account willen mounten middels Webdav. Dit heb ik op de commandline werkend gekregen middels bovenstaande guide van @Kaspers (waarvoor dank).

Het probleem is dat het me maar niet lukt om het werkend te krijgen bij het booten van de machine. Ik heb de "systemctl enable" gedaan maar bij het booten van de machine blijft hij halverwege hangen. De Proxmox GUI kan ik dan niet benaderen. Ik kan er wel via SSH bij komen en wanneer ik dan een "systemctl disable" geef dan wordt de boot netjes afgerond. Interessant genoeg blijkt de mount dan wel gelukt te zijn.

Ik heb in journalctl gezocht naar foutmeldingen die me op het goede spoor zouden zetten en heb Google inmiddels ook uit. Ik heb waarschijnlijk een foutje gemaakt, maar begrijp niet waar.

Hebben jullie wellicht een goede tip hoe ik het probleem kan fixen? Is er bijv. nog een andere log die me meer info kan geven waar het probleem zit?

Alvast bedankt!
Zo, dat is een tijdje geleden :*). Ik maak al tijden geen gebruik meer van Proxmox, maar ik kan je wel even op weg helpen met deze Linux vraag. Kun je de output geven van:

code:
1
systemctl status stack.mount

en
code:
1
journalctl -u stack.mount

Acties:
  • +1 Henk 'm!

  • TTV
  • Registratie: Oktober 2009
  • Laatst online: 17-08 20:59

TTV

Hoi @Kaspers. Leuk dat je me hier een handje mee wil helpen.

Ik mount mijn stack onder de directory /mnt/stack dus mijn unitfile heet mnt-stack.mount.

Ik heb de output van de door jou gevraagde commando's 2x opgenomen. De eerste op het moment dat de boot nog hangt (ik kan dan de Proxmox GUI dus niet bereiken) en de 2e nadat ik het disable commando heb gegeven en de boot verder is doorgegaan. Ik kan dan weer bij de GUI en de mount is ook gewoon gelukt want ik kan via de directory /mnt/stack in mijn gemounte stack folder.

Hieronder de output:

Na de "systemctl enable mnt-stack.mount" (als de boot hangt):

Output van "systemctl status mnt-stack.mount":

mnt-stack.mount - Mount Stack WebDAV
Loaded: loaded (/etc/systemd/system/mnt-stack.mount; enabled; preset: enabled)
Active: active (mounted) since Mon 2025-03-24 19:54:29 CET; 4min 54s ago
Where: /mnt/stack
What: https://<stack-webdav-adres>/remote.php/webdav/proxmox-backups/
Tasks: 1 (limit: 18850)
Memory: 4.3M
CPU: 42ms
CGroup: /system.slice/mnt-stack.mount
└─863 /sbin/mount.davfs https://<stack-webdav-adres>/remote.php/webdav/proxmox-backups/ /mnt/stack -o rw

Mar 24 19:54:26 proxmox01 systemd[1]: Mounting mnt-stack.mount - Mount Stack WebDAV...
Mar 24 19:54:26 proxmox01 mount.davfs[720]: davfs2 1.6.1
Mar 24 19:54:29 proxmox01 systemd[1]: Mounted mnt-stack.mount - Mount Stack WebDAV.

Output van "journalctl -u mnt-stack.mount":

Mar 24 19:54:26 proxmox01 systemd[1]: Mounting mnt-stack.mount - Mount Stack WebDAV...
Mar 24 19:54:26 proxmox01 mount.davfs[720]: davfs2 1.6.1
Mar 24 19:54:29 proxmox01 systemd[1]: Mounted mnt-stack.mount - Mount Stack WebDAV.


Na de "systemctl disable mnt-stack.mount":

Output van "systemctl status mnt-stack.mount":

mnt-stack.mount - Mount Stack WebDAV
Loaded: loaded (/proc/self/mountinfo; disabled; preset: enabled)
Active: active (mounted) since Mon 2025-03-24 19:54:29 CET; 13min ago
Where: /mnt/stack
What: https://<stack-webdav-adres>/remote.php/webdav/proxmox-backups/
Tasks: 1 (limit: 18850)
Memory: 4.3M
CPU: 45ms
CGroup: /system.slice/mnt-stack.mount
└─863 /sbin/mount.davfs https://<stack-webdav-adres>/remote.php/webdav/proxmox-backups/ /mnt/stack -o rw

Mar 24 19:54:26 proxmox01 systemd[1]: Mounting mnt-stack.mount - Mount Stack WebDAV...
Mar 24 19:54:26 proxmox01 mount.davfs[720]: davfs2 1.6.1
Mar 24 19:54:29 proxmox01 systemd[1]: Mounted mnt-stack.mount - Mount Stack WebDAV.

Output van "journalctl -u mnt-stack.mount":

Mar 24 19:54:26 proxmox01 systemd[1]: Mounting mnt-stack.mount - Mount Stack WebDAV...
Mar 24 19:54:26 proxmox01 mount.davfs[720]: davfs2 1.6.1
Mar 24 19:54:29 proxmox01 systemd[1]: Mounted mnt-stack.mount - Mount Stack WebDAV.


Lijkt op het eerste gezicht hetzelfde te zijn?

Acties:
  • 0 Henk 'm!

  • Kaspers
  • Registratie: Juni 2004
  • Laatst online: 12-09 09:59
Erg vreemd @TTV, de mount is inderdaad geslaagd, maar toch is er dus een reden dat hij niet verder wil booten. Je zegt:
Ik kan er wel via SSH bij komen en wanneer ik dan een "systemctl disable"
Geef je dan
code:
1
systemcdl disable stack.mount

als commando?

Kun je eventueel nog de output geven van
code:
1
journalctl -b -p err..alert
bij de poging het systeem te booten met de service enabled?

Acties:
  • 0 Henk 'm!

  • TTV
  • Registratie: Oktober 2009
  • Laatst online: 17-08 20:59

TTV

Kaspers schreef op donderdag 27 maart 2025 @ 19:40:
Erg vreemd @TTV, de mount is inderdaad geslaagd, maar toch is er dus een reden dat hij niet verder wil booten. Je zegt:


[...]


Geef je dan
code:
1
systemcdl disable stack.mount

als commando?
Ja dat klopt inderdaad.
Kun je eventueel nog de output geven van
code:
1
journalctl -b -p err..alert
bij de poging het systeem te booten met de service enabled?
Hieronder de output van het door jou voorgestelde commando:
Mar 28 12:19:45 proxmox01 kernel: ACPI BIOS Error (bug): Could not resolve symbol [\_SB.PC00.TXHC.RHUB.SS01], AE_NOT_FOUND (20230628/dswload2-162)
Mar 28 12:19:45 proxmox01 kernel: ACPI Error: AE_NOT_FOUND, During name lookup/catalog (20230628/psobject-220)
Mar 28 12:19:45 proxmox01 kernel: ACPI BIOS Error (bug): Could not resolve symbol [\_SB.PC00.TXHC.RHUB.SS02], AE_NOT_FOUND (20230628/dswload2-162)
Mar 28 12:19:45 proxmox01 kernel: ACPI Error: AE_NOT_FOUND, During name lookup/catalog (20230628/psobject-220)
Mar 28 12:19:46 proxmox01 kernel: Bluetooth: hci0: Failed to load Intel firmware file intel/ibt-0040-1050.sfi (-2)
Mar 28 12:19:46 proxmox01 kernel: Bluetooth: hci0: Failed to read MSFT supported features (-56)

Daar lijken nog wel wat dingen mis te gaan die ik nog niet in de gaten heb? Maar op het eerste gezicht zie ik geen aanknopingspunten waarop hij kan blijven hangen in een boot?

Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 09-09 15:31

icecreamfarmer

en het is

Ik heb een tweedehands hp 400 g5 die ik als server wil gebruiken.
Nu wil ik de fanspeed aanpassen want de fan blijft constant op vol vermogen draaien terwijl de temps 25 C zijn.

Dit gevolgd maar ik loop vast omdat de fanspeeds niet zichtbaar zijn.
https://www.baeldung.com/linux/control-fan-speed
https://wiki.joeplaa.com/...d-configure-fancontrol-pc

Oplossing zou moeten zijn om TI87 drivers te installeren en te compilen.
https://github.com/frankcrawford/it87
git clone https://github.com/frankcrawford/it87
cd it87/

Building & Installing
---------------------

* make clean
* make
* sudo make install


Using DKMS
----------

To install:

* sudo make dkms

To remove:

* sudo make dkms_clean
Ik krijg dit echter niet voor elkaar.
Bij make clean krijg ik gelijk deze foutmelding:
make[1]: *** /lib/modules/6.8.12-9-pve/build: No such file or directory. Stop.
make: *** [Makefile:76: clean] Error
Dat zou moeten inhouden dat de kernel niet geschikt is? Maar ik lees dat er mensen zijn met nieuwere kernels waarbij het wel gewoon werkt. Hoe nu verder?

-----------------
Tweede uitdaging is dat ik een bestaande HDD wil delen. Ik heb nu Turnkey fileshare lxc geinstalleerd met een passthrough voor die schijf maar hoe deel ik hem nu? Als ik een volume wil toevoegen wordt alles gewist. Of kan ik dat beter met Openmediavault doen. Zo heb ik het op mijn ouder server geregeld met een externe disk.

[ Voor 15% gewijzigd door icecreamfarmer op 02-04-2025 21:52 ]

ik zie ik zie wat jij niet ziet


Acties:
  • 0 Henk 'm!

  • Dutchess_Nicole
  • Registratie: Augustus 2001
  • Laatst online: 12-09 18:25
icecreamfarmer schreef op woensdag 2 april 2025 @ 21:17:
Ik heb een tweedehands hp 400 g5 die ik als server wil gebruiken.
Nu wil ik de fanspeed aanpassen want de fan blijft constant op vol vermogen draaien terwijl de temps 25 C zijn.

Dit gevolgd maar ik loop vast omdat de fanspeeds niet zichtbaar zijn.
https://www.baeldung.com/linux/control-fan-speed
https://wiki.joeplaa.com/...d-configure-fancontrol-pc

Oplossing zou moeten zijn om TI87 drivers te installeren en te compilen.
https://github.com/frankcrawford/it87


[...]


Ik krijg dit echter niet voor elkaar.
Bij make clean krijg ik gelijk deze foutmelding:


[...]


Dat zou moeten inhouden dat de kernel niet geschikt is? Maar ik lees dat er mensen zijn met nieuwere kernels waarbij het wel gewoon werkt. Hoe nu verder?

-----------------
Tweede uitdaging is dat ik een bestaande HDD wil delen. Ik heb nu Turnkey fileshare lxc geinstalleerd met een passthrough voor die schijf maar hoe deel ik hem nu? Als ik een volume wil toevoegen wordt alles gewist. Of kan ik dat beter met Openmediavault doen. Zo heb ik het op mijn ouder server geregeld met een externe disk.
Make clean is alleen nodig als je al eens een build hebt gedaan. Dan heeft hij namelijk pas dingen om op te ruimen. Die stap gewoon overslaan en naar make gaan.

Kia E-Niro 2019 Executiveline. OTGW/HA Enthousiasteling.


Acties:
  • 0 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 09:16
@icecreamfarmer proxmox-headers-6.8 installeren, dat zijn de build headers voor je actieve kernel en heb je nodig om die kernel module te bouwen.

Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 09-09 15:31

icecreamfarmer

en het is

_JGC_ schreef op donderdag 3 april 2025 @ 11:49:
@icecreamfarmer proxmox-headers-6.8 installeren, dat zijn de build headers voor je actieve kernel en heb je nodig om die kernel module te bouwen.
En hoe gaat dat in zijn werk?

ik zie ik zie wat jij niet ziet


Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 09-09 15:31

icecreamfarmer

en het is

Dutchess_Nicole schreef op donderdag 3 april 2025 @ 11:40:
[...]


Make clean is alleen nodig als je al eens een build hebt gedaan. Dan heeft hij namelijk pas dingen om op te ruimen. Die stap gewoon overslaan en naar make gaan.
Dat heb ik ook al geprobeerd.

ik zie ik zie wat jij niet ziet


Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Beetje Linux basis kennis is wellicht wel handig om te hebben? Want we kunnen niet alles voorkauwen.

sudo apt install pve-headers-6.8

Acties:
  • 0 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 09:16
apt install proxmox-headers-6.8 ?

Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 09-09 15:31

icecreamfarmer

en het is

RobertMe schreef op donderdag 3 april 2025 @ 17:42:
[...]

Beetje Linux basis kennis is wellicht wel handig om te hebben? Want we kunnen niet alles voorkauwen.

sudo apt install pve-headers-6.8
Sorry ik dacht dat dit weer via een ingewikkelde procedure moest.

ik zie ik zie wat jij niet ziet


Acties:
  • 0 Henk 'm!

  • spitsv
  • Registratie: November 2011
  • Laatst online: 12-09 18:21
Goedenavond, na een oude laptop als server gebruikt te hebben met docker containers, ben ik nu bezig om een HP prodesk in te richten, met Proxmox. Ik heb 1 netwerkkaart, en alle lxc containers krijgen nu een eigen IP Address. Is het handig om een intern netwerk te bouwen waar alle containers aan hangen, en deze via een firewall en een reverse proxy te koppelen aan het lan netwerk?
En als ik toch bezig ben wil ik de diverse containers via een sub-domein benaderen, met https waarbij ik alleen alleen een vpn server aan het internet hangt. (ik heb geen internet domeinnaam die ook lokaal te gebruiken is, dus letsencrypt werkt niet)
Alleen door alle mogelijke bomen zie ik het bos niet meer. Wie kan me een zetje in de juiste richting geve? Welke programma's heb ik hiervoor nodig, eventueel met linkje naar uitleg

[ Voor 6% gewijzigd door spitsv op 03-04-2025 22:56 ]


Acties:
  • +4 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
@spitsv Je moet je afvragen of die paar euro voor een domeinnaam je het gedoe met self-signed certificate het je waard is.Onder de 10 euro per jaar heb je een domeinnaam, deze de nameservers doorzetten naar bijvoorbeeld cloudflare en dan via DNS-01 challenge ACME let's encrypt je certificate regelen.
Om alles mooi in HTTPS te krijgen kan je dan o.a. met NGinx proxy manager doen. Deze doet dan ook gelijkt certificaten management.

Maar als je die paar euro niet wil uitgeven dan zal je naar self-signed certificate moeten gaan werken, inclusief het installeren daarvan op elke client die je gebruikt want anders krijg je nog steeds een https error.

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • spitsv
  • Registratie: November 2011
  • Laatst online: 12-09 18:21
@The-Source de certificaten werken dan als je het systeem vanaf internet benaderd. Maar hoe doe je dat als je de server vanaf het thuis netwerk benader? Of zet je alle namen en adressen in pihole die je als lokale dns server laat werken?

Acties:
  • +2 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
@spitsv Ik heb alle domeinen juist alleen maar in local dns (pihole redundant) gezet.
Ik heb wel 2 records (afwijkend van lokaal) publiek staan die door cloudflared tunnel weer bij mijn NPM uitkomen. (in cloudflare blokkeer ik heel veel via de WAF en daarna ook nog mtls certificaat)
En dmv header adres (die is afwijkend van publiek DNS adres) weer bij NPM aan het juiste interne adres word gekoppeld.

Dus local dns setup is:
fqdn > ip NPM (dit voor elke server die je lokaal wil bereiken)

In NPM proxy host: fqdn > *.certificaat > aangeven waar het lokaal op draait bijvoorbeeld http < ip> <port>
Scheelt een hoop onthouden qua afwijkende poortnummers voor van alles en nog wat.

Of je het van buitenaf bereikbaar wil maken kan je zelf bepalen maar zou dan kiezen voor of vpn of iets met extra security ipv zomaar poortje open zetten.

[ Voor 34% gewijzigd door The-Source op 04-04-2025 12:11 ]

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
The-Source schreef op vrijdag 4 april 2025 @ 12:08:

Dus local dns setup is:
fqdn > ip NPM (dit voor elke server die je lokaal wil bereiken)

In NPM proxy host: fqdn > *.certificaat > aangeven waar het lokaal op draait bijvoorbeeld http < ip> <port>
Scheelt een hoop onthouden qua afwijkende poortnummers voor van alles en nog wat.

Of je het van buitenaf bereikbaar wil maken kan je zelf bepalen maar zou dan kiezen voor of vpn of iets met extra security ipv zomaar poortje open zetten.
Ik doe dit met swag - die heeft die extra security functies. Daarvan gebruik ik Fail2BAN voor bruteforce logins; aangevuld met Maxmind voor een geoblock.

Voor alles wat niet via swag loopt is er een vpn.

[ Voor 6% gewijzigd door Airw0lf op 04-04-2025 12:23 ]

makes it run like clockwork


Acties:
  • +1 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 09-09 15:31

icecreamfarmer

en het is

Kan ik voor de samba server beter:
1. Lxc openmediavault met pass through hdd
2. Vm openmediavault met pass through hdd
3. Lxc turnkey fileserver met pass through hdd
4 anders.

Gebruiken. En qua fikesystem gewoon ext 4 of toch ntfs. Het is maar disk met media dus zfs zie ik weinig meerwaarde in.

ik zie ik zie wat jij niet ziet


Acties:
  • 0 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 23:47
The-Source schreef op vrijdag 4 april 2025 @ 12:08:
@spitsv Ik heb alle domeinen juist alleen maar in local dns (pihole redundant) gezet.
Ik heb wel 2 records (afwijkend van lokaal) publiek staan die door cloudflared tunnel weer bij mijn NPM uitkomen. (in cloudflare blokkeer ik heel veel via de WAF en daarna ook nog mtls certificaat)
En dmv header adres (die is afwijkend van publiek DNS adres) weer bij NPM aan het juiste interne adres word gekoppeld.

Dus local dns setup is:
fqdn > ip NPM (dit voor elke server die je lokaal wil bereiken)

In NPM proxy host: fqdn > *.certificaat > aangeven waar het lokaal op draait bijvoorbeeld http < ip> <port>
Scheelt een hoop onthouden qua afwijkende poortnummers voor van alles en nog wat.

Of je het van buitenaf bereikbaar wil maken kan je zelf bepalen maar zou dan kiezen voor of vpn of iets met extra security ipv zomaar poortje open zetten.
Heb het exact hetzelfde geconfigureerd, afgezien van de cloudflare tunnel.
Ben wel benieuwd naar swag en fail2ban waar @Airw0lf het over heeft, ga ik ook even checken.

Acties:
  • 0 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 12-09 15:39
icecreamfarmer schreef op vrijdag 4 april 2025 @ 16:15:
Kan ik voor de samba server beter:
1. Lxc openmediavault met pass through hdd
2. Vm openmediavault met pass through hdd
3. Lxc turnkey fileserver met pass through hdd
4 anders.

Gebruiken. En qua fikesystem gewoon ext 4 of toch ntfs. Het is maar disk met media dus zfs zie ik weinig meerwaarde in.
Ik maak zelfs niet eens gebruik van passthrough - alles wordt opgeslagen in raw-formaat op een ext4 partitie. Die op zijn beurt weer gebaseerd is op lvm zodat ik "dynamisch" kan op- en af-schalen in diskcapaciteit.

Of een traditionele spindle disk vervangen door een ssd met een simpele move actie van de raw-bestanden naar de nieuwe ssd-ext4-partitie. Kwestie van de vm of lxc stoppen, vanuit de webgui de move uitvoeren en de vm/lxc weer starten.

De voordelen van zfs wegen (imho) nauwelijks op tegen de nadelen: veel overhead en de nodige extra hardware (waaronder een sloot geheugen) om de zfs-huishouding soepel te laten verlopen. Wat ook weer administratie, beheer en kosten met zich meebrengt.

[ Voor 4% gewijzigd door Airw0lf op 04-04-2025 17:40 ]

makes it run like clockwork


Acties:
  • +1 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 09:16
Gewoon lekker proxmox de storage laten doen. Ja ze zitten nog op ZFS 2.2 ipv 2.3, maar dat zal ook niet lang meer duren.
Disks doorpassen naar een VM is overrated wat mij betreft, alles wat je nodig hebt zit in Proxmox gebouwd.
Of je dan ZFS, Btrfs of LVM met Ext4 wilt gebruiken moet je lekker zelf weten.

Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

_JGC_ schreef op vrijdag 4 april 2025 @ 17:54:
Gewoon lekker proxmox de storage laten doen. Ja ze zitten nog op ZFS 2.2 ipv 2.3, maar dat zal ook niet lang meer duren.
Disks doorpassen naar een VM is overrated wat mij betreft, alles wat je nodig hebt zit in Proxmox gebouwd.
Of je dan ZFS, Btrfs of LVM met Ext4 wilt gebruiken moet je lekker zelf weten.
Ligt naar mijn mening beetje aan de eisen. Ik vind het dan ook weer niet zuiver om van je hyperivisor een NAS te maken.

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 09:16
orvintax schreef op vrijdag 4 april 2025 @ 21:28:
[...]

Ligt naar mijn mening beetje aan de eisen. Ik vind het dan ook weer niet zuiver om van je hyperivisor een NAS te maken.
Je laat de NAS taken dan ook door een of meerdere containers doen, maar de onderliggende fysieke opslag en management daarvan laat je door Proxmox doen.

Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

icecreamfarmer schreef op vrijdag 4 april 2025 @ 16:15:
Kan ik voor de samba server beter:
1. Lxc openmediavault met pass through hdd
2. Vm openmediavault met pass through hdd
3. Lxc turnkey fileserver met pass through hdd
4 anders.

Gebruiken. En qua fikesystem gewoon ext 4 of toch ntfs. Het is maar disk met media dus zfs zie ik weinig meerwaarde in.
Als je geen meerdere disks hebt heeft ZFS sowieso weinig toegevoegde waarde naar mijn mening. Hoe ben je van plan je media te gebruiken? Dit zie ik namelijk niet terug en is van groot belang. Als je het simpel en efficient wil houden zou ik Proxmox de disk laten beheren, er gewoon een EXT4 filesystem op gooien en vervolgens via een bind mount beschikbaar maken op de LXC waar je het wilt gebruiken. Als je het in een VM wilt gebruiken dan kun je beter de disk toewijzen aan de VM naar mijn mening. Maar wederom, dit is heel afhankelijk van je use case.

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

_JGC_ schreef op vrijdag 4 april 2025 @ 21:33:
[...]

Je laat de NAS taken dan ook door een of meerdere containers doen, maar de onderliggende fysieke opslag en management daarvan laat je door Proxmox doen.
Ja dat vind ik overigens prima. Maar goed we weten eigenlijk niks van OPs use case, buiten "een samba server".

https://dontasktoask.com/


Acties:
  • +3 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Met een enkele disk biedt ZFS nog steeds atomic snapshots, checksums/scrubs voor het bewaken van de integriteit van de data (al kan je met een enkele disk bij fouten niet veel meer dan een backup terugzetten, maar je weet tenminste wat er stuk is), en geïntegreerd management van volumes (danwel als datasets, danwel als zvols, maar in Proxmox is dat verschil nogal abstract). Maar mijn idee genoeg pluspunten om niet naar een vorige generatie filesystem terug te gaan.

Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 09-09 15:31

icecreamfarmer

en het is

icecreamfarmer schreef op woensdag 2 april 2025 @ 21:17:
Ik heb een tweedehands hp 400 g5 die ik als server wil gebruiken.
Nu wil ik de fanspeed aanpassen want de fan blijft constant op vol vermogen draaien terwijl de temps 25 C zijn.

Dit gevolgd maar ik loop vast omdat de fanspeeds niet zichtbaar zijn.
https://www.baeldung.com/linux/control-fan-speed
https://wiki.joeplaa.com/...d-configure-fancontrol-pc

Oplossing zou moeten zijn om TI87 drivers te installeren en te compilen.
https://github.com/frankcrawford/it87


[...]


Ik krijg dit echter niet voor elkaar.
Bij make clean krijg ik gelijk deze foutmelding:


[...]


Dat zou moeten inhouden dat de kernel niet geschikt is? Maar ik lees dat er mensen zijn met nieuwere kernels waarbij het wel gewoon werkt. Hoe nu verder?

-----------------
Tweede uitdaging is dat ik een bestaande HDD wil delen. Ik heb nu Turnkey fileshare lxc geinstalleerd met een passthrough voor die schijf maar hoe deel ik hem nu? Als ik een volume wil toevoegen wordt alles gewist. Of kan ik dat beter met Openmediavault doen. Zo heb ik het op mijn ouder server geregeld met een externe disk.
Met jullie hulp de drivers kunnen installeren maar bij sensors-detect vindt hij de fans nog steeds niet.
Iemand nog andere ideeen?

ik zie ik zie wat jij niet ziet


Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 09-09 15:31

icecreamfarmer

en het is

orvintax schreef op vrijdag 4 april 2025 @ 21:34:
[...]

Als je geen meerdere disks hebt heeft ZFS sowieso weinig toegevoegde waarde naar mijn mening. Hoe ben je van plan je media te gebruiken? Dit zie ik namelijk niet terug en is van groot belang. Als je het simpel en efficient wil houden zou ik Proxmox de disk laten beheren, er gewoon een EXT4 filesystem op gooien en vervolgens via een bind mount beschikbaar maken op de LXC waar je het wilt gebruiken. Als je het in een VM wilt gebruiken dan kun je beter de disk toewijzen aan de VM naar mijn mening. Maar wederom, dit is heel afhankelijk van je use case.
In principe wordt de disk alleen voor media gebruikt.
Mijn documenten en foto's zet ik op de ssd en gaan ook nog eens naar de cloud.
Disk wordt gebruikt voor plex en jellyfin om naar de shield te streamen tevens sla ik op de disks nog backups op. Ook gebruik ik de arr suite.
Alles wordt om de zoveel tijd ook nog op een externe hdd gezet en de belangrijkste bestanden staan ook nog op mijn hoofdpc.

Daarnaast draaien er op de server (vanaf de ssd): homeassistant, adguard, nextcloud en .. .
Er zit 32 gb geheugen in de machine met ene core i5 8400. Dus hij is krachtig genoeg.

ik zie ik zie wat jij niet ziet


Acties:
  • 0 Henk 'm!

  • Ernie
  • Registratie: Juni 2006
  • Laatst online: 11-09 09:44
Hoi Tweakers,

Een tijdje terug heb ik jullie hulp gevraagd bij het opzetten van proxmox icm met USB schijven en ik zit even helemaal vast en vraag jullie hulp!

Het gaat om 2 LXC containers,
  • unprivileged LXC met Turnkey Linux file server (Samba) (ID:103)
  • unprivileged LXC met Proxmox Backup Server (PBS) (ID:101)
ik heb in beide containers een map op een eigen USB schijf meegegeven als mountpoint via nano /etc/pve/lxc/10*.conf. Ik kwam erachter dat je dan de hele schijf kan doorgeven, in de GUI maakt je altijd een virtuele schijf.
code:
1
mp0: /mnt/pve/usbdrive4/pbsbackups,mp=/mnt/usbdrive4/pbsbackups

Ik heb ID mapping gedaan voor de samba container (voor user 1000), chmod, chown uitgevoerd. Ik zie in webmin de juiste permissies, en ik kan de samba benaderen/schrijven als verwacht. Kortom: lijkt ok :)

Dus ik probeerde hetzeflde trucje voor de PBS container en je raadt het al, dat lukt totaal niet :?

Ik zie 2 dingen:
  1. Zodra ik de ID mapping aanzet voor de PBS container in 101.conf dan is de web-interface van PBS niet meer bereikbaar, de shell van de container via PVE werkt nog wel, ik denk dat de mount point werkt als verwacht.
    code:
    1
    2
    
    root@proxmox-backup-server:~# ls -ld /mnt/usbdrive4/pbsbackups/
    drwxr-xr-x 2 backup backup 4096 Apr  6 13:18 /mnt/usbdrive4/pbsbackups/
  2. Als ik ID mapping weghaal uit 101.conf dan werkt de web interface weer maar het mount point niet.
    code:
    1
    2
    
    root@proxmox-backup-server:~# ls -ld /mnt/usbdrive4/pbsbackups/
    drwxr-xr-x 2 nobody nogroup 4096 Apr  6 13:18 /mnt/usbdrive4/pbsbackups/


    De IP mapping die ik gebruik:
    code:
    1
    2
    3
    4
    5
    6
    
    lxc.idmap: u 0 100000 34
    lxc.idmap: g 0 100000 34
    lxc.idmap: u 34 34 1
    lxc.idmap: g 34 34 1
    lxc.idmap: u 35 100035 65501
    lxc.idmap: g 35 100035 65501
Hebben jullie enig idee wat ik zou kunnen doen verder? Waarom stop de de web-interface ermee als ik ID mapping toepas? Ik ga al een paar uren in cirkels heb ik het idee :D

ik heb een beetje gekke work-around bedacht, ik ben nog aan het testen maar so far so good. Maar vind het toch een beetje gek...
Mijn oplossing: de owner van de folder verhogen met 100000 ipv ID mapping te gebruiken.
code:
1
chown 100034:100034 /mnt/pve/usbdrive4/pbsbackups/

[ Voor 6% gewijzigd door Ernie op 06-04-2025 18:50 ]


Acties:
  • 0 Henk 'm!

  • RnB
  • Registratie: September 2005
  • Laatst online: 09:24

RnB

Ik heb een aantal weken naar tevredenheid een oude laptop als Proxmox server gebruikt. Hier heb ik een Trendnet TUC2G USB-C naar Ethernet adapter aan gehangen en dat draaide al die weken stabiel.

Dit smaakte naar meer, dus de oude laptop heb ik vervangen voor een Lenovo ThinkCentre M70q. Dit leek bijna plug-and-play te zijn (64GB werkgeheugen en de SSD die in de laptop zat in de ThinkCentre geprikt en de Trendnet TUC2G aangesloten). De netwerkverbinding van de Proxmox server klapte er steeds uit, of na hevig iPerf verkeer of na een bepaalde tijd.

De melding die ik op de console te zien kreeg was een reeks aan:

code:
1
cdc_ncm 2-10:2.0 enx@08ef07974541 NETDEV WATCHDOG: CPU: 8: transmit queue 0 timed out 5067 ms


Dus mijn eerste reactie was: toch niet plug n play, duhh... je kan ook niet zomaar een SSD met alles geïnstalleerd van het ene systeem in een ander systeem pluggen. Alles gewiped, Proxmox opnieuw geïnstalleerd, geconfigureerd en mijn VM's opgespind.

Alles wel totdat de netwerkverbinding er weer uitklapte.... Het grote internet erbij gepakt en daar ben ik erachter gekomen dat er stabiliteitsproblemen zijn met Ethernet adapters die gebruik maken van een Realtek chip.

Inmiddels maak ik gebruik van de ingebouwde Intel Ethernet Connection I219-V poort en dat draait nu een dag stabiel. Toch kan ik het niet helemaal loslaten, omdat ik nu wel een 2,5Gbps verbinding mis.

Ik lees wat dingen over andere drivers ed, zoals hier, maar mijn USB dongle lijkt toch iets anders te werken dan een ingebouwde Ethernet poort (logisch).

Heeft hier iemand ervaring mee en kan mij van tips voorzien? :)

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 07:42
spitsv schreef op vrijdag 4 april 2025 @ 11:58:
@The-Source de certificaten werken dan als je het systeem vanaf internet benaderd. Maar hoe doe je dat als je de server vanaf het thuis netwerk benader? Of zet je alle namen en adressen in pihole die je als lokale dns server laat werken?
NAT Reflection of je kan het afvangen met een wildcard certificaat :z

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
@RnB niet geheel hetzelfde maar wellicht wel dezelfde plek om te zoeken.
Vandaag een gpu in mijn pve machine geplaatst en verder geen PCIe devices verplaatst of wat dan ook.
Is dus mijn glasvezel PCIe kaart een ander netwerk naampje gekregen. Hierdoor werkte de fail-over bond0 niet meer en daardoor de vmbr0 ook niet ( inclusief onderliggende vmbr0.x vlanid)
Ooit begonnen met enp4s0 als interface adres maar in het begin al vrij snel naar ander PCIe slot verhuisd ( toen al tegen dit probleem aangelopen) dit werd toen enp7s0 nu met gpu erin maar kaart niet verhuisd enp5s0. Dat had ik dus niet verwacht maar door de ervaring uit het verleden gelukkig wel relatief snel gevonden.

Meer gpu heb ik zelf nog wel wat uitdagingen maar hopelijk krijg ik dit zonder forum hulp opgelost ( wel met Google maar ook daar leer je van)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • +1 Henk 'm!

  • Mozart
  • Registratie: September 2001
  • Laatst online: 08:57
RnB schreef op zondag 6 april 2025 @ 20:07:
Ik heb een aantal weken naar tevredenheid een oude laptop als Proxmox server gebruikt. Hier heb ik een Trendnet TUC2G USB-C naar Ethernet adapter aan gehangen en dat draaide al die weken stabiel.

Dit smaakte naar meer, dus de oude laptop heb ik vervangen voor een Lenovo ThinkCentre M70q. Dit leek bijna plug-and-play te zijn (64GB werkgeheugen en de SSD die in de laptop zat in de ThinkCentre geprikt en de Trendnet TUC2G aangesloten). De netwerkverbinding van de Proxmox server klapte er steeds uit, of na hevig iPerf verkeer of na een bepaalde tijd.

De melding die ik op de console te zien kreeg was een reeks aan:

code:
1
cdc_ncm 2-10:2.0 enx@08ef07974541 NETDEV WATCHDOG: CPU: 8: transmit queue 0 timed out 5067 ms


Dus mijn eerste reactie was: toch niet plug n play, duhh... je kan ook niet zomaar een SSD met alles geïnstalleerd van het ene systeem in een ander systeem pluggen. Alles gewiped, Proxmox opnieuw geïnstalleerd, geconfigureerd en mijn VM's opgespind.

Alles wel totdat de netwerkverbinding er weer uitklapte.... Het grote internet erbij gepakt en daar ben ik erachter gekomen dat er stabiliteitsproblemen zijn met Ethernet adapters die gebruik maken van een Realtek chip.

Inmiddels maak ik gebruik van de ingebouwde Intel Ethernet Connection I219-V poort en dat draait nu een dag stabiel. Toch kan ik het niet helemaal loslaten, omdat ik nu wel een 2,5Gbps verbinding mis.

Ik lees wat dingen over andere drivers ed, zoals hier, maar mijn USB dongle lijkt toch iets anders te werken dan een ingebouwde Ethernet poort (logisch).

Heeft hier iemand ervaring mee en kan mij van tips voorzien? :)
Zelf heb ik een Nuc met die nic. Dat kan ook problemen opgeven. Als je vervolgens de config van de nic wat aanpast werkt hij prima.
Dit heb ik in mijn /etc/network/interfaces toegevoegd:
code:
1
2
iface eno1 inet manual
    post-up ethtool -K eno1 tso off gso off

PSN: PcDCch


Acties:
  • 0 Henk 'm!

  • spitsv
  • Registratie: November 2011
  • Laatst online: 12-09 18:21
powerboat schreef op zondag 6 april 2025 @ 21:33:
[...]
NAT Reflection of je kan het afvangen met een wildcard certificaat :z
Bedankt voor alle info. Ik heb weer genoeg tips gekregen om te beseffen dat ik hier nog niet genoeg van weet 8)7 , maar ook wat de mogelijkheden zijn en waar ik me nog in moet verdiepen.

Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
Wellicht dat ik de vraag hier kwijt kan, wellicht meer linux generiek.
Ik heb succesvol mijn GPU als passthrough aan een VM gedaan om wat met AI te gaan spielen.
En de GPU wordt prima aangeroepen. So fa so good.
Maar ivm het kunnen maken van backups had ik een "OS disk" van 40GB gemaakt en een losse data disk van 150GB (beide op de nvme draai als storage).
Maar "/sys/devices/pci0000:00/0000:00:1c.0/0000:01:00.0/resource1" en hetzelfde pad met _wc erbij nemen mijn hele disk in beslag met gezamenlijk 34GB.
Is het mogelijk om dit naar de andere drive te moven? In mijn geval genaamd /disk2 :P
Ik kan nu niets naar mijn home directory kopieren ivm disk full bericht ( als heeft winSCP daar een vrij cyrptische omschrijving voor :X)

edit: zoals eigenlijk verwacht ziet het er naar uit dat het een fout van mijzelf is.
Mijn 2e disk is nooit in de fstab gekomen en daardoor was mijn /disk2 map dus nog steeds in primaire disk en alles hoopte daar dus op ipv op de grote disk te komen.

[ Voor 14% gewijzigd door The-Source op 08-04-2025 18:47 ]

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 09-09 15:31

icecreamfarmer

en het is

icecreamfarmer schreef op zaterdag 5 april 2025 @ 10:24:
[...]


Met jullie hulp de drivers kunnen installeren maar bij sensors-detect vindt hij de fans nog steeds niet.
Iemand nog andere ideeen?
Stap verder. Heb blijkbaar een l05339 moderbord maar nu krijg ik niet gevonden welke super i/o chip erop zit.

Krijg deze foutmelding:
modprobe: ERROR: could not insert 'it87': No such device
Iemand nog ideeen om fanspeed te kunnen regelen want sensors detect vindt ze dus niet.

ik zie ik zie wat jij niet ziet


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

The-Source schreef op dinsdag 8 april 2025 @ 17:38:
Wellicht dat ik de vraag hier kwijt kan, wellicht meer linux generiek.
Ik heb succesvol mijn GPU als passthrough aan een VM gedaan om wat met AI te gaan spielen.
En de GPU wordt prima aangeroepen. So fa so good.
Maar ivm het kunnen maken van backups had ik een "OS disk" van 40GB gemaakt en een losse data disk van 150GB (beide op de nvme draai als storage).
Maar "/sys/devices/pci0000:00/0000:00:1c.0/0000:01:00.0/resource1" en hetzelfde pad met _wc erbij nemen mijn hele disk in beslag met gezamenlijk 34GB.
Is het mogelijk om dit naar de andere drive te moven? In mijn geval genaamd /disk2 :P
Ik kan nu niets naar mijn home directory kopieren ivm disk full bericht ( als heeft winSCP daar een vrij cyrptische omschrijving voor :X)

edit: zoals eigenlijk verwacht ziet het er naar uit dat het een fout van mijzelf is.
Mijn 2e disk is nooit in de fstab gekomen en daardoor was mijn /disk2 map dus nog steeds in primaire disk en alles hoopte daar dus op ipv op de grote disk te komen.
Er is ook nog een topic over het zelf hosten van AI en het gebruik van AI codeassistenten. Wellicht ben je daar ook nog wel in geïnteresseerd. ;)

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 09:23
Vreemd, vrijdagochtend geüpdate naar 8.4.1 en nu al twee keer (vrijdagavond en zaterdagavond) exact om 22:15 gehad dat mijn host (Dell Optiplex 5060 Micro) z'n netwerkverbinding verloor. In m'n switch de poort even down en weer up brengen en hij kwam weer in de lucht.

Om 22:00 loopt mijn Veeam backup. Ik zie dat ik Veeam kan updaten (aanrader, want ze geven aan dat je nu kunt verbinden met Proxmox met een non-root user @Quad @GoBieN-Be ). En ik kan de BIOS nog updaten, dat ga ik ook maar even doen. Hopelijk is het daarmee opgelost, want dit is wel een vervelend issue.

[ Voor 3% gewijzigd door ThinkPad op 13-04-2025 08:42 ]


Acties:
  • 0 Henk 'm!

  • The-Source
  • Registratie: Augustus 2001
  • Laatst online: 11-09 17:26
@ThinkPad wellicht niet gerelateerd maar ik had gisteren wat haperingen in video playback vanuit smb shares. Nu kan het ook de content zelf zijn geweest (UHD hdr met Dolby Atmos 7.1 audio) maar in principe waren het buffer issues. Jellyfin gaf aan cliënt is 100% compatible maar had zwart beeld+audio. In vlc dus af en toe buffer problemen. 27GB voor 50 minuten video is als je het naar MB/s terugrekend ( <10MB/s) niet zo heel spannend. Alleen laatste switch is 1Gbps ( deze switch zit met 3x 1Gbps aan 2.5Gbs switch welke weer met 3x 2.5 verder gaat naar PvE switch dit met 10Gbps aangesloten zit)

Taal fouten inbegrepen ;)
Mijn AI Art YouTube kanaal


Acties:
  • +1 Henk 'm!

  • HowsMyApple
  • Registratie: November 2010
  • Laatst online: 09:07
ThinkPad schreef op zondag 13 april 2025 @ 08:31:
Vreemd, vrijdagochtend geüpdate naar 8.4.1 en nu al twee keer (vrijdagavond en zaterdagavond) exact om 22:15 gehad dat mijn host (Dell Optiplex 5060 Micro) z'n netwerkverbinding verloor. In m'n switch de poort even down en weer up brengen en hij kwam weer in de lucht.
Ik heb gisteren geüpdatet naar 8.4.1 en sinds ergens vannacht lag ook mijn Optiplex 3060 Micro "eruit". Ik zag vanmorgen in m'n modem/router dat de node nog wel een soort van online was, maar niets op m'n node was nog te bereiken.
Enige dat werkte was een powercycle op de node, toen liep alles weer zonder problemen..


Edit:
Even de logs nagekeken op m'n node en ik zie daar dat direct nadat mijn geschedulede backup job klaar is het network unreachable was.

[ Voor 9% gewijzigd door HowsMyApple op 13-04-2025 09:36 ]


Acties:
  • +2 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 07:57

Quad

Doof

@ThinkPad Ik ben afgestapt van Veeam backup. Proxmox BS performt voor mij veel beter doordat ik gebruik maak van een LXC.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 09:23
HowsMyApple schreef op zondag 13 april 2025 @ 09:30:
[...]


Ik heb gisteren geüpdatet naar 8.4.1 en sinds ergens vannacht lag ook mijn Optiplex 3060 Micro "eruit". Ik zag vanmorgen in m'n modem/router dat de node nog wel een soort van online was, maar niets op m'n node was nog te bereiken.
Enige dat werkte was een powercycle op de node, toen liep alles weer zonder problemen..
Netwerk disconnect (kabel fysiek eruit/erin) hielp ook niet? Ik zie dat ik een I219-V (rev 10) heb in mijn 5060. Wellicht is er in 8.4.1. een driver geupdate die dit veroorzaakt. Welke netwerkkaart heb jij erin zitten? Kun je zien op de commandline met lspci | grep -i 'Ethernet'

Heb jij rond tijdstip van connectieverlies ook iets draaien wat wellicht intensief netwerkverkeer (zoals bij mij dus de Veeam backup) veroorzaakt?
Quad schreef op zondag 13 april 2025 @ 09:30:
@ThinkPad Ik ben afgestapt van Veeam backup. Proxmox BS performt voor mij veel beter doordat ik gebruik maak van een LXC.
Ik vind het wel handig dat je in Veeam ook guest-file level restore kan doen (dus één file uit een backup kunnen plukken i.p.v. hele VM te moeten restoren).

[ Voor 6% gewijzigd door ThinkPad op 13-04-2025 09:38 ]


Acties:
  • +1 Henk 'm!

  • HowsMyApple
  • Registratie: November 2010
  • Laatst online: 09:07
ThinkPad schreef op zondag 13 april 2025 @ 09:35:
[...]

Netwerk disconnect (kabel fysiek eruit/erin) hielp ook niet? Ik zie dat ik een I219-V (rev 10) heb in mijn 5060. Wellicht is er in 8.4.1. een driver geupdate die dit veroorzaakt. Welke netwerkkaart heb jij erin zitten? Kun je zien op de commandline met lspci | grep -i 'Ethernet'
[...]
01:00.0 Ethernet controller: Realtek Semiconductor Co., Ltd. RTL8111/8168/8411 PCI Express Gigabit Ethernet Controller (rev 15)

Moet eerlijk zeggen het niet in me op kwam om opnieuw kabel opnieuw erin te doen maar gelijk een powercycle heb gedaan. M'n router liep al te mekkeren over duplicate ip-adressen namelijk, dus alles mocht even helemaal uit en weer aan :)


Maar ik vermoed nu dus dat het iets met 8.4.1 icm backup jobs te maken heeft (zie edit vorige post).

Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 09:23
Wat gebruik je voor backups? Ook Veeam, of iets anders?

Acties:
  • +1 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 07:57

Quad

Doof

@ThinkPad File restore kan ook binnen Proxmox VE. Je download de files of mappen naar een afzonderlijke locatie. Met Veeam kan dat direct met overschrijven of in dezelfde map met andere naam, is makkelijker maar tegen de tijd dat ik een restore binnen Veeam ben gestart heb ik in Proxmox de file al gedownload en handmatig op de juiste locatie geplaatst.

Edit: Ik heb het privé nog nooit nodig gehad. Zakelijk komt weinig voor.

[ Voor 9% gewijzigd door Quad op 13-04-2025 10:25 ]

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • +2 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 09:23
Lijkt erop dat dit het issue is (uit 2019 al schijnbaar, vreemd dat ik er nu met update naar 8.4 pas tegenaan loop): https://forum.proxmox.com...driver-hang.58284/page-13

Apr 13 07:53:19 proxmox kernel: e1000e 0000:00:1f.6 eno1: Detected Hardware Unit Hang:


Heb het nu hopelijk opgelost door in /etc/network/interfaces een post-up commando toe te voegen:

Diff:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
auto lo
iface lo inet loopback

iface eno1 inet manual

auto vmbr0
iface vmbr0 inet static
        address 192.168.4.3/24
        gateway 192.168.4.1
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0
+       post-up /sbin/ethtool -K eno1 tso off gso off gro off

source /etc/network/interfaces.d/*


Daarna netwerkkaart herstarten (let op: je systeem verliest kort even de netwerkverbinding):
 ifdown vmbr0 && ifup vmbr0


En checken met ethtool of deze 'off' aangeeft voor tso / gso / gro:
ethtool -k eno1 | grep -E 'tso|gso|gro'


Vanavond maar even kijken of het goed gaat als de backup heeft gedraaid (de bug wordt getriggerd als de netwerkkaart flink belast wordt).

[ Voor 88% gewijzigd door ThinkPad op 13-04-2025 15:55 ]


Acties:
  • +1 Henk 'm!

  • TTV
  • Registratie: Oktober 2009
  • Laatst online: 17-08 20:59

TTV

TTV schreef op vrijdag 28 maart 2025 @ 12:27:
[...]


Ja dat klopt inderdaad.


[...]


Hieronder de output van het door jou voorgestelde commando:
Mar 28 12:19:45 proxmox01 kernel: ACPI BIOS Error (bug): Could not resolve symbol [\_SB.PC00.TXHC.RHUB.SS01], AE_NOT_FOUND (20230628/dswload2-162)
Mar 28 12:19:45 proxmox01 kernel: ACPI Error: AE_NOT_FOUND, During name lookup/catalog (20230628/psobject-220)
Mar 28 12:19:45 proxmox01 kernel: ACPI BIOS Error (bug): Could not resolve symbol [\_SB.PC00.TXHC.RHUB.SS02], AE_NOT_FOUND (20230628/dswload2-162)
Mar 28 12:19:45 proxmox01 kernel: ACPI Error: AE_NOT_FOUND, During name lookup/catalog (20230628/psobject-220)
Mar 28 12:19:46 proxmox01 kernel: Bluetooth: hci0: Failed to load Intel firmware file intel/ibt-0040-1050.sfi (-2)
Mar 28 12:19:46 proxmox01 kernel: Bluetooth: hci0: Failed to read MSFT supported features (-56)

Daar lijken nog wel wat dingen mis te gaan die ik nog niet in de gaten heb? Maar op het eerste gezicht zie ik geen aanknopingspunten waarop hij kan blijven hangen in een boot?
Voor iedereen die hier ook mee te maken mocht krijgen.... ik heb na veel puzzelen, Googlen, etc. het probleem als volgt opgelost. Ik heb naast de al eerder beschreven mnt-stack.mount file een mnt-stack.automount gemaakt met de volgende inhoud:

[Unit]
Description=Stack WebDAV

[Automount]
Where=/mnt/stack
TimeoutIdleSec=60

[Install]
WantedBy=multi-user.target


Deze automount heb ik via het volgende commando geactiveerd: systemctl enable mnt-stack.automount

Nu komt mijn Proxmox server gewoon op en wordt mijn stack gemount wanneer de directory met de mount
(/mnt/stack) wordt benaderd.

Ik blijf wel nieuwsgierig waarom Proxmox tijdens de boot blijft hangen met de oplossing die @Kaspers beschreven heeft, maar deze oplossing werkt in ieder geval perfect tot op dit moment voor mij.

Wie weet heeft iemand iets aan deze tip.

Acties:
  • 0 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 09:23
Quad schreef op zondag 13 april 2025 @ 10:14:
@ThinkPad File restore kan ook binnen Proxmox VE. Je download de files of mappen naar een afzonderlijke locatie. Met Veeam kan dat direct met overschrijven of in dezelfde map met andere naam, is makkelijker maar tegen de tijd dat ik een restore binnen Veeam ben gestart heb ik in Proxmox de file al gedownload en handmatig op de juiste locatie geplaatst.

Edit: Ik heb het privé nog nooit nodig gehad. Zakelijk komt weinig voor.
Deze backups maak je dan via Proxmox Backup Server? Of op een andere manier?
Opzich heeft Veeam wel redelijk wat overhead (moet er een Windows VM voor in de lucht houden) dus als het makkelijker kan...

Acties:
  • +1 Henk 'm!

  • RailHenk87
  • Registratie: September 2018
  • Laatst online: 09:07
ThinkPad schreef op maandag 14 april 2025 @ 11:46:
[...]

Deze backups maak je dan via Proxmox Backup Server? Of op een andere manier?
Opzich heeft Veeam wel redelijk wat overhead (moet er een Windows VM voor in de lucht houden) dus als het makkelijker kan...
Proxmox Backup Server (PBS) hosten op een systeem, kan als VM op een Synology nas vb, daar een plekje aanmaken om de backups te zetten (datastore).
Vervolgens in je cluster de PBS toevoegen als locatie, en dan backups instellen naar PBS als bestemming.
Retentie en dergelijke regelen in je cluster, vind ik gemakkelijker en overzichtelijker.

Restore etc kan vanuit PVE, moet je niet voor in PBS zijn. Je kan ook een PBS offsite hosten en beide servers in sync houden. Grootste voordeel is ook de data deduplicatie, momenteel zit ik aan een factor 11!

Acties:
  • +1 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 07:57

Quad

Doof

ThinkPad schreef op maandag 14 april 2025 @ 11:46:
[...]

Deze backups maak je dan via Proxmox Backup Server? Of op een andere manier?
Opzich heeft Veeam wel redelijk wat overhead (moet er een Windows VM voor in de lucht houden) dus als het makkelijker kan...
Ik heb Proxmox backup server via script als LXC toegevoegd: https://community-scripts...?id=proxmox-backup-server

De share mounten, als opslag toevoegen en gaan.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • Theetjuh
  • Registratie: Januari 2000
  • Laatst online: 23:47
Het lukte mij niet om te backuppen naar een nfs mount point, jou wel @Quad ?

Acties:
  • +1 Henk 'm!

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 07:57

Quad

Doof

@Theetjuh Ik moet even kijken hoe ik gemount heb. Kan CIFS of NFS zijn geweest.

Laat ik wel even weten hoe het is ingericht.

Alles went behalve een Twent.
PVOutput☀️


Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 09:04

Cyphax

Moderator LNX
Je kunt niet zomaar een netwerk-share mounten in een LXC-container.
Je kunt wel op je host de share mounten en dan die lokatie als bind mount meegeven aan je container. Dat werkt prima. :)

Saved by the buoyancy of citrus

Pagina: 1 ... 55 ... 61 Laatste