Acties:
  • +2 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

Sp33dFr34k schreef op maandag 6 december 2021 @ 10:55:
Thanks guys, dat zal ik eens proberen ipv de lock file hard verwijderen.

Ik heb nu trouwens een ander probleem... ik backup maandagnacht altijd mijn VM's en doe dat op "stop", echter zie ik nu dat bij mijn Ubuntu Server VM ineens "Guest agent not running" staat out of the blue, heb al verschillende keren gerestart. Bij options heb ik "QEMU Guest Agent" gewoon enabled staan... is dit een bug ofzo? En wat zou ik hiermee moeten doen?

EDIT: Kan ook niet connecten via de Proxmox console:

code:
1
2
VM 101 qmp command 'set_password' failed - Could not set password
TASK ERROR: Failed to run vncproxy.


EDIT2: heb ook al een backup teruggezet en met de hardware/options van de VM gespeeld, maar geen resultaat... Iemand een idee what's going on?
Je moet de QEMU guest agent installeren in je VM mocht je dit nog niet gedaan hebben.

Waarom gebruik je trouwens stop?

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

@orvintax al gedaan inderdaad, het heeft maanden perfect gewerkt, maar ineens niet meer. Ik denk dat de VM corrupt is geraakt ofzo, backup van een week geleden teruggezet en die doet het wel weer... Stop gebruik ik omdat het "cleaner" zou moeten zijn, heb me er niet echt heel lang in verdiept, dus als er geen goeie reden is om stop te gebruiken naar jouw mening dan hoor ik het ook graag :)

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

Aah oke, vreemd.

Ik moet zeggen dat het een tijdje geleden is sinds ik daar naar heb gekeken, maar zover ik weet heeft het in jouw geval weinig bijkomende voordelen aangezien je gebruik maakt van de QEMU Guest Agent. Aangezien deze het filesystem kan "freezen". Maar don't quote me on that one :P

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Ok, hij staat weer op snapshot mode, blijkbaar moet dat ook voldoen idd :)

Ander "probleem", ik blijf bezig haha. De W10VM gebruikt constant vol geheugen, geef ik hem 8GB gebruikt ie 8GB vol, geef ik hem 16GB gebruikt ie 16GB vol. Ballooning staat aan en is geïnstalleerd evenals de QEMU Guest Agent. Als ik in task manager kijk draait er niets wat veel geheugen slurpt... valt me pas op sinds de update naar PVE7, maar misschien is het al langer gaande, geen idee... wat kan ik nog proberen?

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

Sp33dFr34k schreef op dinsdag 7 december 2021 @ 08:45:
Ok, hij staat weer op snapshot mode, blijkbaar moet dat ook voldoen idd :)

Ander "probleem", ik blijf bezig haha. De W10VM gebruikt constant vol geheugen, geef ik hem 8GB gebruikt ie 8GB vol, geef ik hem 16GB gebruikt ie 16GB vol. Ballooning staat aan en is geïnstalleerd evenals de QEMU Guest Agent. Als ik in task manager kijk draait er niets wat veel geheugen slurpt... valt me pas op sinds de update naar PVE7, maar misschien is het al langer gaande, geen idee... wat kan ik nog proberen?
Heb je ook de VirtIO drivers geinstalleerd?

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

@orvintax I did, van deze: virtio-win-0.1.185.iso

Hier zegt iemand dit:
This is pretty normal. Unused RAM is wasted RAM so most OSs will use almost all available to cache things you're likely to open. It's called Sysmain/Superfetch on Windows, you can probably turn it off but everything will run slower.
Dus misschien is het normaal dan?

[ Voor 87% gewijzigd door Sp33dFr34k op 07-12-2021 09:17 ]

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:27
Ja, klinkt logisch toch

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 00:50
Sp33dFr34k schreef op dinsdag 7 december 2021 @ 08:45:
Ok, hij staat weer op snapshot mode, blijkbaar moet dat ook voldoen idd :)

Ander "probleem", ik blijf bezig haha. De W10VM gebruikt constant vol geheugen, geef ik hem 8GB gebruikt ie 8GB vol, geef ik hem 16GB gebruikt ie 16GB vol. Ballooning staat aan en is geïnstalleerd evenals de QEMU Guest Agent. Als ik in task manager kijk draait er niets wat veel geheugen slurpt... valt me pas op sinds de update naar PVE7, maar misschien is het al langer gaande, geen idee... wat kan ik nog proberen?
Kan ook zijn dat je memory balloon het geheugen inneemt, die zie je nml niet omdat het een stuurprogramma is, die komen niet in task manager.

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

_JGC_ schreef op dinsdag 7 december 2021 @ 09:47:
[...]

Kan ook zijn dat je memory balloon het geheugen inneemt, die zie je nml niet omdat het een stuurprogramma is, die komen niet in task manager.
Dat zal het idd wel zijn. Koppig als ik ben heb ik even de meest recente virtio drivers gedownload en geïnstalleerd. Dat heeft het "probleem" wel verholpen, het RAM lijkt nu goed gerapporteerd te worden aan Proxmox vanuit de W10 VM.

Raar, want ik heb dat toch al eens gedaan een hele tijd terug.

Dacht al dat ik een deja-vu had:
Sp33dFr34k in "Het grote Proxmox VE topic" :P

EDIT: naja, "goed" nog steeds niet, maar iig wel beter dan voorheen. Ipv constant tegen de limiet aan te hikken heeft ie nu een paar procent buffer. Conclusie, het zal zo wel horen ivm de ballooning service zoals hierboven al een paar keer aangehaald.

[ Voor 15% gewijzigd door Sp33dFr34k op 07-12-2021 13:38 ]

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Volgens mij klopt die opmerking niet helemaal :
This is pretty normal. Unused RAM is wasted RAM so most OSs will use almost all available to cache things you're likely to open. It's called Sysmain/Superfetch on Windows, you can probably turn it off but everything will run slower.
Sinds we zoiets als SSD's hebben kan je die service gerust uitzetten, want je seektime en laadtijden zijn zo kort dat je daar toch niks van gaat merken! :)

Ik kan me zelfs herinneren dat de Intel SSD Tool dergelijke Services uitzet op het moment dat je de software de eerste keer draait op een systeem dat als opslagmedia eerst een HDD had! ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 20:00
nero355 schreef op dinsdag 7 december 2021 @ 17:28:
[...]

Volgens mij klopt die opmerking niet helemaal :

[...]

Sinds we zoiets als SSD's hebben kan je die service gerust uitzetten, want je seektime en laadtijden zijn zo kort dat je daar toch niks van gaat merken! :)

Ik kan me zelfs herinneren dat de Intel SSD Tool dergelijke Services uitzet op het moment dat je de software de eerste keer draait op een systeem dat als opslagmedia eerst een HDD had! ;)
Hahaha, wist niet dat het nog bestond superfetch. :P

Ik weet wel dat sommige applicatie alle ruimte te pakken en weer vrijgeven als het nodig is. Exhange bijv. Die slokt ook altijd een groot gedeelte op, is leuk met monitoring 8)7. Moet je dan een aparte trigger voor schrijven.

Acties:
  • +2 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 00:50
powerboat schreef op woensdag 8 december 2021 @ 09:01:
[...]


Hahaha, wist niet dat het nog bestond superfetch. :P

Ik weet wel dat sommige applicatie alle ruimte te pakken en weer vrijgeven als het nodig is. Exhange bijv. Die slokt ook altijd een groot gedeelte op, is leuk met monitoring 8)7. Moet je dan een aparte trigger voor schrijven.
SQL Server doet hetzelfde. Gelukkig kan je op beide limieten instellen.
Is overigens wel de reden waarom Microsoft aanbeveelt om beide op dedicated VMs/servers te draaien.

Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

Sp33dFr34k schreef op dinsdag 7 december 2021 @ 13:31:
[...]


Dat zal het idd wel zijn. Koppig als ik ben heb ik even de meest recente virtio drivers gedownload en geïnstalleerd. Dat heeft het "probleem" wel verholpen, het RAM lijkt nu goed gerapporteerd te worden aan Proxmox vanuit de W10 VM.

Raar, want ik heb dat toch al eens gedaan een hele tijd terug.

Dacht al dat ik een deja-vu had:
Sp33dFr34k in "Het grote Proxmox VE topic" :P

EDIT: naja, "goed" nog steeds niet, maar iig wel beter dan voorheen. Ipv constant tegen de limiet aan te hikken heeft ie nu een paar procent buffer. Conclusie, het zal zo wel horen ivm de ballooning service zoals hierboven al een paar keer aangehaald.
Ik denk inderdaad dat je er niet meer uit gaat kunnen krijgen dan dit. :9

https://dontasktoask.com/


  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 00:07
Ik heb een Nuc waar ik proxmox op draai met veel plezier. Ik heb een Mac Mini 2018 over die 32 gb ram heeft. Ik wil die gaan gebruiken als 2e proxmox en meer kennis gaan opdoen. Replication/cluster etc.

Ik wil vmware fusion gebruiken en dan nested vertialization aanzetten. Is dit aan te raden? Dus niet echt als productie maar ls lab (meer kennis dus opdoen)

Of moet ik de mac mini mar gewoon verkopen?

Acties:
  • +2 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:27
@TweakerVincent Kan prima. Als je alleen LXC container gebruikt, dan heb je nested virtualization helemaal niet nodig. Zo draait mijn Proxmox in Proxmox VPS bij contabo echt meer dan prima.

Sinds de 2 dagen regel reageer ik hier niet meer


  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 00:07
CurlyMo schreef op donderdag 23 december 2021 @ 22:10:
@TweakerVincent Kan prima. Als je alleen LXC container gebruikt, dan heb je nested virtualization helemaal niet nodig. Zo draait mijn Proxmox in Proxmox VPS bij contabo echt meer dan prima.
ik wil wel vm's ook. Maar fusion is dus een prima oplossing? Mooi :D

Acties:
  • 0 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
Even een stress-momentje hier. Ik heb net mijn Proxmox 7.0-server ge-upgrade naar 7.1, maar vervolgens gaat er iets erg mis bij het opstarten.

Hardware is een HP Microserver Gen10.

In /var/log/messages vond ik (met regels 15-17 en 110-112 in rood):
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
[    7.491562] [drm] Display Core initialized with v3.2.132!
[    7.530793] [drm] UVD initialized successfully.
[    7.730237] [drm] VCE initialized successfully.
[    7.730280] kvm: Nested Virtualization enabled
[    7.730285] SVM: kvm: Nested Paging enabled
[    7.730298] SVM: Virtual GIF supported
[    7.735608] kfd kfd: amdgpu: Allocated 3969056 bytes on gart
[    7.735751] kfd kfd: amdgpu: error getting iommu info. is the iommu enabled?
[    7.735757] kfd kfd: amdgpu: Error initializing iommuv2
[    7.736873] kfd kfd: amdgpu: device 1002:9874 NOT added due to errors
[    7.736882] kfd kfd: amdgpu: Failed to resume IOMMU for device 1002:9874
[    7.736890] amdgpu 0000:00:01.0: amdgpu: amdgpu_device_ip_init failed
[    7.736897] amdgpu 0000:00:01.0: amdgpu: Fatal error during GPU init
[    7.736904] amdgpu 0000:00:01.0: amdgpu: amdgpu: finishing device.
[    7.739303] BUG: kernel NULL pointer dereference, address: 00000000000001db
[    7.739310] #PF: supervisor read access in kernel mode
[    7.739314] #PF: error_code(0x0000) - not-present page
[    7.739318] PGD 0 P4D 0 
[    7.739324] Oops: 0000 [#1] SMP NOPTI
[    7.739329] CPU: 0 PID: 692 Comm: systemd-udevd Tainted: P           O      5.13.19-2-pve #1
[    7.739335] Hardware name: HPE ProLiant MicroServer Gen10/ProLiant MicroServer Gen10, BIOS 5.12 06/26/2018
[    7.739340] RIP: 0010:smu8_dpm_powergate_acp+0xc/0x40 [amdgpu]
[    7.739902] Code: 7a f7 fd ff 44 89 ea 4c 89 e7 31 c9 be 13 00 00 00 e8 68 f7 fd ff 31 c0 41 5c 41 5d 5d c3 0f 1f 44 00 00 48 8b 87 c0 01 00 00 <40> 38 b0 db 01 00 00 74 23 55 31 d2 48 89 e5 40 84 f6 74 0c be 0b
[    7.739910] RSP: 0018:ffffb86640743918 EFLAGS: 00010286
[    7.739914] RAX: 0000000000000000 RBX: ffff9a6bc33a0000 RCX: 000000000000000a
[    7.739918] RDX: 0000000000000000 RSI: 0000000000000000 RDI: ffff9a6bc6b63400
[    7.739921] RBP: ffffb86640743938 R08: 000000000000000f R09: 0000000000000000
[    7.739924] R10: ffff9a6bc66fc801 R11: ffff9a6bc66fc800 R12: ffff9a6bc6b63400
[    7.739927] R13: ffffffffc1272300 R14: ffff9a6bc33a0010 R15: ffff9a6bc33a0000
[    7.739931] FS:  00007f5d7b9bc8c0(0000) GS:ffff9a729f400000(0000) knlGS:0000000000000000
[    7.739936] CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
[    7.739940] CR2: 00000000000001db CR3: 00000001066ae000 CR4: 00000000001506f0
[    7.739944] Call Trace:
[    7.739950]  ? pp_set_powergating_by_smu+0x1ee/0x2b0 [amdgpu]
[    7.740262]  amdgpu_dpm_set_powergating_by_smu+0x70/0x100 [amdgpu]
[    7.740610]  ? amdgpu_dpm_set_powergating_by_smu+0x5/0x100 [amdgpu]
[    7.740936]  acp_hw_fini+0x154/0x160 [amdgpu]
[    7.741213]  amdgpu_device_fini+0x1d3/0x49f [amdgpu]
[    7.741521]  amdgpu_driver_unload_kms+0x43/0x70 [amdgpu]
[    7.741780]  amdgpu_driver_load_kms.cold+0x46/0x83 [amdgpu]
[    7.742104]  amdgpu_pci_probe+0x12a/0x1b0 [amdgpu]
[    7.742347]  local_pci_probe+0x48/0x80
[    7.742356]  pci_device_probe+0x105/0x1c0
[    7.742362]  really_probe+0x24b/0x4c0
[    7.742371]  driver_probe_device+0xf0/0x160
[    7.742375]  device_driver_attach+0xab/0xb0
[    7.742379]  __driver_attach+0xb2/0x140
[    7.742383]  ? device_driver_attach+0xb0/0xb0
[    7.742387]  bus_for_each_dev+0x7e/0xc0
[    7.742391]  driver_attach+0x1e/0x20
[    7.742395]  bus_add_driver+0x135/0x1f0
[    7.742398]  driver_register+0x91/0xf0
[    7.742402]  __pci_register_driver+0x57/0x60
[    7.742406]  amdgpu_init+0x77/0x1000 [amdgpu]
[    7.742652]  ? 0xffffffffc14ae000
[    7.742655]  do_one_initcall+0x48/0x1d0
[    7.742663]  ? kmem_cache_alloc_trace+0xfb/0x240
[    7.742669]  do_init_module+0x62/0x290
[    7.742674]  load_module+0x265e/0x2720
[    7.742679]  __do_sys_finit_module+0xc2/0x120
[    7.742683]  __x64_sys_finit_module+0x1a/0x20
[    7.742687]  do_syscall_64+0x61/0xb0
[    7.742694]  ? syscall_exit_to_user_mode+0x27/0x50
[    7.742697]  ? __x64_sys_newstat+0x16/0x20
[    7.742702]  ? do_syscall_64+0x6e/0xb0
[    7.742706]  ? do_syscall_64+0x6e/0xb0
[    7.742709]  ? do_syscall_64+0x6e/0xb0
[    7.742713]  ? sysvec_apic_timer_interrupt+0x4e/0x90
[    7.742717]  ? asm_sysvec_apic_timer_interrupt+0xa/0x20
[    7.742722]  entry_SYSCALL_64_after_hwframe+0x44/0xae
[    7.742726] RIP: 0033:0x7f5d7b7ff9b9
[    7.742732] Code: 00 c3 66 2e 0f 1f 84 00 00 00 00 00 0f 1f 44 00 00 48 89 f8 48 89 f7 48 89 d6 48 89 ca 4d 89 c2 4d 89 c8 4c 8b 4c 24 08 0f 05 <48> 3d 01 f0 ff ff 73 01 c3 48 8b 0d a7 54 0c 00 f7 d8 64 89 01 48
[    7.742738] RSP: 002b:00007fffd7e7d098 EFLAGS: 00000246 ORIG_RAX: 0000000000000139
[    7.742743] RAX: ffffffffffffffda RBX: 000056389ebf2450 RCX: 00007f5d7b7ff9b9
[    7.742747] RDX: 0000000000000000 RSI: 00007f5d7b9a3e2d RDI: 000000000000001a
[    7.742750] RBP: 0000000000020000 R08: 0000000000000000 R09: 000056389ebf2200
[    7.742753] R10: 000000000000001a R11: 0000000000000246 R12: 00007f5d7b9a3e2d
[    7.742756] R13: 0000000000000000 R14: 000056389ebf2280 R15: 000056389ebf2450
[    7.742761] Modules linked in: kvm_amd(+) ccp kvm fjes(-) irqbypass crct10dif_pclmul ghash_clmulni_intel aesni_intel crypto_simd cryptd amdgpu(+) pcspkr efi_pstore fam15h_power k10temp iommu_v2 gpu_sched drm_ttm_helper ttm drm_kms_helper cec rc_core i2c_algo_bit fb_sys_fops syscopyarea sysfillrect sysimgblt 8250_dw mac_hid vhost_net vhost vhost_iotlb tap ib_iser rdma_cm iw_cm ib_cm ib_core iscsi_tcp libiscsi_tcp libiscsi scsi_transport_iscsi drm sunrpc ip_tables x_tables autofs4 zfs(PO) zunicode(PO) zzstd(O) zlua(O) zavl(PO) icp(PO) zcommon(PO) znvpair(PO) spl(O) btrfs blake2b_generic xor zstd_compress raid6_pq libcrc32c xhci_pci xhci_pci_renesas ehci_pci ahci crc32_pclmul tg3 xhci_hcd i2c_piix4 libahci ehci_hcd video
[    7.742843] CR2: 00000000000001db
[    7.742927] ---[ end trace d747077e97d28095 ]---
[    7.838380] RIP: 0010:smu8_dpm_powergate_acp+0xc/0x40 [amdgpu]
[    7.839403] Code: 7a f7 fd ff 44 89 ea 4c 89 e7 31 c9 be 13 00 00 00 e8 68 f7 fd ff 31 c0 41 5c 41 5d 5d c3 0f 1f 44 00 00 48 8b 87 c0 01 00 00 <40> 38 b0 db 01 00 00 74 23 55 31 d2 48 89 e5 40 84 f6 74 0c be 0b
[    7.839411] RSP: 0018:ffffb86640743918 EFLAGS: 00010286
[    7.839417] RAX: 0000000000000000 RBX: ffff9a6bc33a0000 RCX: 000000000000000a
[    7.839420] RDX: 0000000000000000 RSI: 0000000000000000 RDI: ffff9a6bc6b63400
[    7.839424] RBP: ffffb86640743938 R08: 000000000000000f R09: 0000000000000000
[    7.839427] R10: ffff9a6bc66fc801 R11: ffff9a6bc66fc800 R12: ffff9a6bc6b63400
[    7.839430] R13: ffffffffc1272300 R14: ffff9a6bc33a0010 R15: ffff9a6bc33a0000
[    7.839433] FS:  00007f5d7b9bc8c0(0000) GS:ffff9a729f400000(0000) knlGS:0000000000000000
[    7.839437] CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
[    7.839440] CR2: 00000000000001db CR3: 00000001066ae000 CR4: 00000000001506f0
[    7.853846] MCE: In-kernel MCE decoding enabled.
[    7.855756] EDAC amd64: MCT channel count: 2
[    7.855865] EDAC MC0: Giving out device to module amd64_edac controller F15h_M60h: DEV 0000:00:18.3 (INTERRUPT)
[    7.855871] EDAC amd64: F15h_M60h detected (node 0).
[    7.855875] EDAC MC: DCT0 chip selects:
[    7.855878] EDAC amd64: MC: 0:  8192MB 1:  8192MB
[    7.855881] EDAC amd64: MC: 2:     0MB 3:     0MB
[    7.855884] EDAC amd64: MC: 4:     0MB 5:     0MB
[    7.855887] EDAC amd64: MC: 6:     0MB 7:     0MB
[    7.855890] EDAC MC: DCT1 chip selects:
[    7.855892] EDAC amd64: MC: 0:  8192MB 1:  8192MB
[    7.855895] EDAC amd64: MC: 2:     0MB 3:     0MB
[    7.855897] EDAC amd64: MC: 4:     0MB 5:     0MB
[    7.855900] EDAC amd64: MC: 6:     0MB 7:     0MB
[    7.855902] EDAC amd64: using x8 syndromes.
[    7.855919] EDAC PCI0: Giving out device to module amd64_edac controller EDAC PCI controller: DEV 0000:00:18.2 (POLLED)
[    7.855924] AMD64 EDAC driver v3.5.0
[    8.556659] BUG: kernel NULL pointer dereference, address: 00000000000001d8
[    8.556676] #PF: supervisor write access in kernel mode
[    8.556680] #PF: error_code(0x0002) - not-present page
[    8.556683] PGD 0 P4D 0 
[    8.556688] Oops: 0002 [#2] SMP NOPTI
[    8.556693] CPU: 0 PID: 7 Comm: kworker/0:1 Tainted: P      D    O      5.13.19-2-pve #1
[    8.556698] Hardware name: HPE ProLiant MicroServer Gen10/ProLiant MicroServer Gen10, BIOS 5.12 06/26/2018
[    8.556702] Workqueue: events amdgpu_uvd_idle_work_handler [amdgpu]
[    8.557130] RIP: 0010:smu8_dpm_powergate_uvd+0x15/0xd0 [amdgpu]
[    8.557389] Code: c6 43 7e cb e9 98 fd ff ff b8 f4 ff ff ff eb d8 e8 f0 d1 fe cd 0f 1f 44 00 00 55 48 89 e5 41 54 48 8b 87 c0 01 00 00 49 89 fc <40> 88 b0 d8 01 00 00 40 84 f6 74 3d 48 8b 3f 31 d2 be 08 00 00 00
[    8.557395] RSP: 0018:ffffb8664007fdc0 EFLAGS: 00010246
[    8.557399] RAX: 0000000000000000 RBX: 0000000000000000 RCX: 0000000100000000
[    8.557402] RDX: 0000000000000001 RSI: 0000000000000001 RDI: ffff9a6bc6b63400
[    8.557405] RBP: ffffb8664007fdc8 R08: ffff9a6bc0054eb0 R09: 0000000000000001
[    8.557408] R10: 0000000000000007 R11: 0000000000000001 R12: ffff9a6bc6b63400
[    8.557410] R13: ffff9a6bc6b63418 R14: 0000000000000001 R15: ffff9a6bc33a8218
[    8.557414] FS:  0000000000000000(0000) GS:ffff9a729f400000(0000) knlGS:0000000000000000
[    8.557417] CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
[    8.557420] CR2: 00000000000001d8 CR3: 0000000107e44000 CR4: 00000000001506f0
[    8.557424] Call Trace:
[    8.557430]  pp_set_powergating_by_smu+0xc5/0x2b0 [amdgpu]
[    8.557705]  amdgpu_dpm_enable_uvd+0x70/0x160 [amdgpu]
[    8.557977]  amdgpu_uvd_idle_work_handler+0x120/0x160 [amdgpu]
[    8.558207]  process_one_work+0x220/0x3c0
[    8.558214]  worker_thread+0x53/0x420
[    8.558217]  ? process_one_work+0x3c0/0x3c0
[    8.558220]  kthread+0x12b/0x150
[    8.558225]  ? set_kthread_struct+0x50/0x50
[    8.558229]  ret_from_fork+0x22/0x30
[    8.558235] Modules linked in: amd64_edac edac_mce_amd kvm_amd ccp kvm irqbypass crct10dif_pclmul ghash_clmulni_intel aesni_intel crypto_simd cryptd amdgpu(+) pcspkr efi_pstore fam15h_power k10temp iommu_v2 gpu_sched drm_ttm_helper ttm drm_kms_helper cec rc_core i2c_algo_bit fb_sys_fops syscopyarea sysfillrect sysimgblt 8250_dw mac_hid vhost_net vhost vhost_iotlb tap ib_iser rdma_cm iw_cm ib_cm ib_core iscsi_tcp libiscsi_tcp libiscsi scsi_transport_iscsi drm sunrpc ip_tables x_tables autofs4 zfs(PO) zunicode(PO) zzstd(O) zlua(O) zavl(PO) icp(PO) zcommon(PO) znvpair(PO) spl(O) btrfs blake2b_generic xor zstd_compress raid6_pq libcrc32c xhci_pci xhci_pci_renesas ehci_pci ahci crc32_pclmul tg3 xhci_hcd i2c_piix4 libahci ehci_hcd video
[    8.558311] CR2: 00000000000001d8
[    8.558315] ---[ end trace d747077e97d28096 ]---
[    8.654209] RIP: 0010:smu8_dpm_powergate_acp+0xc/0x40 [amdgpu]
[    8.654946] Code: 7a f7 fd ff 44 89 ea 4c 89 e7 31 c9 be 13 00 00 00 e8 68 f7 fd ff 31 c0 41 5c 41 5d 5d c3 0f 1f 44 00 00 48 8b 87 c0 01 00 00 <40> 38 b0 db 01 00 00 74 23 55 31 d2 48 89 e5 40 84 f6 74 0c be 0b
[    8.654952] RSP: 0018:ffffb86640743918 EFLAGS: 00010286
[    8.654958] RAX: 0000000000000000 RBX: ffff9a6bc33a0000 RCX: 000000000000000a
[    8.654961] RDX: 0000000000000000 RSI: 0000000000000000 RDI: ffff9a6bc6b63400
[    8.654964] RBP: ffffb86640743938 R08: 000000000000000f R09: 0000000000000000
[    8.654967] R10: ffff9a6bc66fc801 R11: ffff9a6bc66fc800 R12: ffff9a6bc6b63400
[    8.654969] R13: ffffffffc1272300 R14: ffff9a6bc33a0010 R15: ffff9a6bc33a0000
[    8.654972] FS:  0000000000000000(0000) GS:ffff9a729f400000(0000) knlGS:0000000000000000
[    8.654977] CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
[    8.654980] CR2: 00000000000001d8 CR3: 0000000107e44000 CR4: 00000000001506f0
Ik snap het niet helemaal, maar er lijkt dat de kernel iets doet met een null pointer wat hij niet hoort te doen.

Hoe kan ik nu permanent terugrollen naar de vorige kernel? Als ik tijdens het booten handmatig de vorige kernel kies, dan is er niks aan de hand. Maar mijn Microserver staat headless onder/achterin de trapkast, dus dat is niet heel praktisch.
Via "proxmox-boot-tool status" zie ik wel dat er 3 beschikbare kernels zijn:
code:
1
2
3
4
#proxmox-boot-tool status
Re-executing '/usr/sbin/proxmox-boot-tool' in new private mount namespace..
System currently booted with uefi
DC45-4581 is configured with: uefi (versions: 5.11.22-5-pve, 5.11.22-7-pve, 5.13.19-2-pve)

maar ik vind het boot-proces nog steeds erg ingewikkeld. Hoe kan ik nu permanent de 5.11 kiezen, zodat mijn server vanuit de woonkamer weer terug in de trapkast kan?

Update:
Is dat zo simpel als "apt remove pve-kernel-5.13.19-2-pve" ?
Of gaan er dan meer dingen mis?

(en dan kan ik me daarna druk gaan maken over de oorzaak/oplossing van die problemen met de 5.13-kernel)

Beetje jammer wel dit. Ik betaal keurig een licentie zodat ik gebruik kan maken van de enterprise-repository die wat stabieler is en dan krijg je nog zo'n dramatische update voor je kiezen |:(

Acties:
  • +1 Henk 'm!

  • Feni
  • Registratie: Juli 2005
  • Laatst online: 12-09 15:17
ocaj schreef op woensdag 29 december 2021 @ 09:56:
Even een stress-momentje hier. Ik heb net mijn Proxmox 7.0-server ge-upgrade naar 7.1, maar vervolgens gaat er iets erg mis bij het opstarten.


Update:
Is dat zo simpel als "apt remove pve-kernel-5.13.19-2-pve" ?
Of gaan er dan meer dingen mis?
Zie hier hoe je de kernel een rollback kan geven: https://forum.proxmox.com...rsions-proxmox-6-2.73938/

Acties:
  • +2 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
Dank je. Inmiddels ook hier al aan het lezen:
https://forum.proxmox.com...t-to-prior-kernel.100310/

Ik heb uiteindelijk de EFI-partitie gemount en daar in de loader.conf "default=proxmox-*" vervangen door "default=proxmox-5.11*".
Dat werkt en hij start nu weer op met de oude kernel.
Volgende stap lijkt me om een vraag op het proxmox-forum te stellen waarom de 5.13-kernel niet werkt.

Update: nog wel een gek ander dingetje: Uitzetten en aanzetten werkt prima, maar een reboot-commando blijft ergens hangen (helaas niet duidelijk te herleiden of dat tijdens de shutdown is of dat het reboot-commando toch ergens een iets andere initialisatie heeft dan uit + aan).

[ Voor 25% gewijzigd door ocaj op 29-12-2021 12:40 ]


Acties:
  • +2 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
Probleem waar ik tegenaanliep blijkt een bekend probleem te zijn met Proxmox 7.1 i.c.m. AMD-GPU's. Specifiek de HP Microserver Gen10 staat diverse malen genoemd op de Proxmox-forums.

Advies van Proxmox is om de opt-in 5.15 kernel te installeren. Dan schijnt het goed te gaan.
5.15-kernel komt in PVE 7.2 als standaard-optie.

Mijn server moet gewoon stabiel draaien, ik voel nog niet veel voor een pre-release kernel. Zou het een probleem zijn om lekker bij de 5.11-kernel te blijven tot PVE 7.2 uit is?

Acties:
  • 0 Henk 'm!

  • Langerakpc
  • Registratie: Juli 2014
  • Laatst online: 19:28
even een vraag.

Ik heb een goed werkende HA op proxmox en voor de test een werkende nextcloud installatie voor back ups vanaf de telefoons (foto's)

nu de vraag:
het hele geheel staat op een ssd van 120 gb en is dus snel vol.

Hoe kan ik een usb hardeschijf aan nextcloud koppelen?
heb hem geinstaleerd via de turnkey installatie.

Ik weet dat het via de mount point moet maar ik krijg de hdd niet gekoppeld.
het pat wat het datacenter geeft is /dev/sdb.

Proxmox zegt steeds no disks unusud

Wat doe ik fout?

[ Voor 3% gewijzigd door Langerakpc op 29-12-2021 15:13 ]


Acties:
  • +3 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

ocaj schreef op woensdag 29 december 2021 @ 09:56:
In /var/log/messages vond ik (met regels 15-17 en 110-112 in rood):
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
[    7.491562] [drm] Display Core initialized with v3.2.132!
[    7.530793] [drm] UVD initialized successfully.
[    7.730237] [drm] VCE initialized successfully.
[    7.730280] kvm: Nested Virtualization enabled
[    7.730285] SVM: kvm: Nested Paging enabled
[    7.730298] SVM: Virtual GIF supported
[    7.735608] kfd kfd: amdgpu: Allocated 3969056 bytes on gart
[    7.735751] kfd kfd: amdgpu: error getting iommu info. is the iommu enabled?
[    7.735757] kfd kfd: amdgpu: Error initializing iommuv2
[    7.736873] kfd kfd: amdgpu: device 1002:9874 NOT added due to errors
[    7.736882] kfd kfd: amdgpu: Failed to resume IOMMU for device 1002:9874
[    7.736890] amdgpu 0000:00:01.0: amdgpu: amdgpu_device_ip_init failed
[    7.736897] amdgpu 0000:00:01.0: amdgpu: Fatal error during GPU init
[    7.736904] amdgpu 0000:00:01.0: amdgpu: amdgpu: finishing device.
[    7.739303] BUG: kernel NULL pointer dereference, address: 00000000000001db
[    7.739310] #PF: supervisor read access in kernel mode
[    7.739314] #PF: error_code(0x0000) - not-present page
[    7.739318] PGD 0 P4D 0 
[    7.739324] Oops: 0000 [#1] SMP NOPTI
[    7.739329] CPU: 0 PID: 692 Comm: systemd-udevd Tainted: P           O      5.13.19-2-pve #1
[    7.739335] Hardware name: HPE ProLiant MicroServer Gen10/ProLiant MicroServer Gen10, BIOS 5.12 06/26/2018
[    7.739340] RIP: 0010:smu8_dpm_powergate_acp+0xc/0x40 [amdgpu]
[    7.739902] Code: 7a f7 fd ff 44 89 ea 4c 89 e7 31 c9 be 13 00 00 00 e8 68 f7 fd ff 31 c0 41 5c 41 5d 5d c3 0f 1f 44 00 00 48 8b 87 c0 01 00 00 <40> 38 b0 db 01 00 00 74 23 55 31 d2 48 89 e5 40 84 f6 74 0c be 0b
[    7.739910] RSP: 0018:ffffb86640743918 EFLAGS: 00010286
[    7.739914] RAX: 0000000000000000 RBX: ffff9a6bc33a0000 RCX: 000000000000000a
[    7.739918] RDX: 0000000000000000 RSI: 0000000000000000 RDI: ffff9a6bc6b63400
[    7.739921] RBP: ffffb86640743938 R08: 000000000000000f R09: 0000000000000000
[    7.739924] R10: ffff9a6bc66fc801 R11: ffff9a6bc66fc800 R12: ffff9a6bc6b63400
[    7.739927] R13: ffffffffc1272300 R14: ffff9a6bc33a0010 R15: ffff9a6bc33a0000
[    7.739931] FS:  00007f5d7b9bc8c0(0000) GS:ffff9a729f400000(0000) knlGS:0000000000000000
[    7.739936] CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
[    7.739940] CR2: 00000000000001db CR3: 00000001066ae000 CR4: 00000000001506f0
[    7.739944] Call Trace:
[    7.739950]  ? pp_set_powergating_by_smu+0x1ee/0x2b0 [amdgpu]
[    7.740262]  amdgpu_dpm_set_powergating_by_smu+0x70/0x100 [amdgpu]
[    7.740610]  ? amdgpu_dpm_set_powergating_by_smu+0x5/0x100 [amdgpu]
[    7.740936]  acp_hw_fini+0x154/0x160 [amdgpu]
[    7.741213]  amdgpu_device_fini+0x1d3/0x49f [amdgpu]
[    7.741521]  amdgpu_driver_unload_kms+0x43/0x70 [amdgpu]
[    7.741780]  amdgpu_driver_load_kms.cold+0x46/0x83 [amdgpu]
[    7.742104]  amdgpu_pci_probe+0x12a/0x1b0 [amdgpu]
[    7.742347]  local_pci_probe+0x48/0x80
[    7.742356]  pci_device_probe+0x105/0x1c0
[    7.742362]  really_probe+0x24b/0x4c0
[    7.742371]  driver_probe_device+0xf0/0x160
[    7.742375]  device_driver_attach+0xab/0xb0
[    7.742379]  __driver_attach+0xb2/0x140
[    7.742383]  ? device_driver_attach+0xb0/0xb0
[    7.742387]  bus_for_each_dev+0x7e/0xc0
[    7.742391]  driver_attach+0x1e/0x20
[    7.742395]  bus_add_driver+0x135/0x1f0
[    7.742398]  driver_register+0x91/0xf0
[    7.742402]  __pci_register_driver+0x57/0x60
[    7.742406]  amdgpu_init+0x77/0x1000 [amdgpu]
[    7.742652]  ? 0xffffffffc14ae000
[    7.742655]  do_one_initcall+0x48/0x1d0
[    7.742663]  ? kmem_cache_alloc_trace+0xfb/0x240
[    7.742669]  do_init_module+0x62/0x290
[    7.742674]  load_module+0x265e/0x2720
[    7.742679]  __do_sys_finit_module+0xc2/0x120
[    7.742683]  __x64_sys_finit_module+0x1a/0x20
[    7.742687]  do_syscall_64+0x61/0xb0
[    7.742694]  ? syscall_exit_to_user_mode+0x27/0x50
[    7.742697]  ? __x64_sys_newstat+0x16/0x20
[    7.742702]  ? do_syscall_64+0x6e/0xb0
[    7.742706]  ? do_syscall_64+0x6e/0xb0
[    7.742709]  ? do_syscall_64+0x6e/0xb0
[    7.742713]  ? sysvec_apic_timer_interrupt+0x4e/0x90
[    7.742717]  ? asm_sysvec_apic_timer_interrupt+0xa/0x20
[    7.742722]  entry_SYSCALL_64_after_hwframe+0x44/0xae
[    7.742726] RIP: 0033:0x7f5d7b7ff9b9
[    7.742732] Code: 00 c3 66 2e 0f 1f 84 00 00 00 00 00 0f 1f 44 00 00 48 89 f8 48 89 f7 48 89 d6 48 89 ca 4d 89 c2 4d 89 c8 4c 8b 4c 24 08 0f 05 <48> 3d 01 f0 ff ff 73 01 c3 48 8b 0d a7 54 0c 00 f7 d8 64 89 01 48
[    7.742738] RSP: 002b:00007fffd7e7d098 EFLAGS: 00000246 ORIG_RAX: 0000000000000139
[    7.742743] RAX: ffffffffffffffda RBX: 000056389ebf2450 RCX: 00007f5d7b7ff9b9
[    7.742747] RDX: 0000000000000000 RSI: 00007f5d7b9a3e2d RDI: 000000000000001a
[    7.742750] RBP: 0000000000020000 R08: 0000000000000000 R09: 000056389ebf2200
[    7.742753] R10: 000000000000001a R11: 0000000000000246 R12: 00007f5d7b9a3e2d
[    7.742756] R13: 0000000000000000 R14: 000056389ebf2280 R15: 000056389ebf2450
[    7.742761] Modules linked in: kvm_amd(+) ccp kvm fjes(-) irqbypass crct10dif_pclmul ghash_clmulni_intel aesni_intel crypto_simd cryptd amdgpu(+) pcspkr efi_pstore fam15h_power k10temp iommu_v2 gpu_sched drm_ttm_helper ttm drm_kms_helper cec rc_core i2c_algo_bit fb_sys_fops syscopyarea sysfillrect sysimgblt 8250_dw mac_hid vhost_net vhost vhost_iotlb tap ib_iser rdma_cm iw_cm ib_cm ib_core iscsi_tcp libiscsi_tcp libiscsi scsi_transport_iscsi drm sunrpc ip_tables x_tables autofs4 zfs(PO) zunicode(PO) zzstd(O) zlua(O) zavl(PO) icp(PO) zcommon(PO) znvpair(PO) spl(O) btrfs blake2b_generic xor zstd_compress raid6_pq libcrc32c xhci_pci xhci_pci_renesas ehci_pci ahci crc32_pclmul tg3 xhci_hcd i2c_piix4 libahci ehci_hcd video
[    7.742843] CR2: 00000000000001db
[    7.742927] ---[ end trace d747077e97d28095 ]---
[    7.838380] RIP: 0010:smu8_dpm_powergate_acp+0xc/0x40 [amdgpu]
[    7.839403] Code: 7a f7 fd ff 44 89 ea 4c 89 e7 31 c9 be 13 00 00 00 e8 68 f7 fd ff 31 c0 41 5c 41 5d 5d c3 0f 1f 44 00 00 48 8b 87 c0 01 00 00 <40> 38 b0 db 01 00 00 74 23 55 31 d2 48 89 e5 40 84 f6 74 0c be 0b
[    7.839411] RSP: 0018:ffffb86640743918 EFLAGS: 00010286
[    7.839417] RAX: 0000000000000000 RBX: ffff9a6bc33a0000 RCX: 000000000000000a
[    7.839420] RDX: 0000000000000000 RSI: 0000000000000000 RDI: ffff9a6bc6b63400
[    7.839424] RBP: ffffb86640743938 R08: 000000000000000f R09: 0000000000000000
[    7.839427] R10: ffff9a6bc66fc801 R11: ffff9a6bc66fc800 R12: ffff9a6bc6b63400
[    7.839430] R13: ffffffffc1272300 R14: ffff9a6bc33a0010 R15: ffff9a6bc33a0000
[    7.839433] FS:  00007f5d7b9bc8c0(0000) GS:ffff9a729f400000(0000) knlGS:0000000000000000
[    7.839437] CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
[    7.839440] CR2: 00000000000001db CR3: 00000001066ae000 CR4: 00000000001506f0
[    7.853846] MCE: In-kernel MCE decoding enabled.
[    7.855756] EDAC amd64: MCT channel count: 2
[    7.855865] EDAC MC0: Giving out device to module amd64_edac controller F15h_M60h: DEV 0000:00:18.3 (INTERRUPT)
[    7.855871] EDAC amd64: F15h_M60h detected (node 0).
[    7.855875] EDAC MC: DCT0 chip selects:
[    7.855878] EDAC amd64: MC: 0:  8192MB 1:  8192MB
[    7.855881] EDAC amd64: MC: 2:     0MB 3:     0MB
[    7.855884] EDAC amd64: MC: 4:     0MB 5:     0MB
[    7.855887] EDAC amd64: MC: 6:     0MB 7:     0MB
[    7.855890] EDAC MC: DCT1 chip selects:
[    7.855892] EDAC amd64: MC: 0:  8192MB 1:  8192MB
[    7.855895] EDAC amd64: MC: 2:     0MB 3:     0MB
[    7.855897] EDAC amd64: MC: 4:     0MB 5:     0MB
[    7.855900] EDAC amd64: MC: 6:     0MB 7:     0MB
[    7.855902] EDAC amd64: using x8 syndromes.
[    7.855919] EDAC PCI0: Giving out device to module amd64_edac controller EDAC PCI controller: DEV 0000:00:18.2 (POLLED)
[    7.855924] AMD64 EDAC driver v3.5.0
[    8.556659] BUG: kernel NULL pointer dereference, address: 00000000000001d8
[    8.556676] #PF: supervisor write access in kernel mode
[    8.556680] #PF: error_code(0x0002) - not-present page
[    8.556683] PGD 0 P4D 0 
[    8.556688] Oops: 0002 [#2] SMP NOPTI
[    8.556693] CPU: 0 PID: 7 Comm: kworker/0:1 Tainted: P      D    O      5.13.19-2-pve #1
[    8.556698] Hardware name: HPE ProLiant MicroServer Gen10/ProLiant MicroServer Gen10, BIOS 5.12 06/26/2018
[    8.556702] Workqueue: events amdgpu_uvd_idle_work_handler [amdgpu]
[    8.557130] RIP: 0010:smu8_dpm_powergate_uvd+0x15/0xd0 [amdgpu]
[    8.557389] Code: c6 43 7e cb e9 98 fd ff ff b8 f4 ff ff ff eb d8 e8 f0 d1 fe cd 0f 1f 44 00 00 55 48 89 e5 41 54 48 8b 87 c0 01 00 00 49 89 fc <40> 88 b0 d8 01 00 00 40 84 f6 74 3d 48 8b 3f 31 d2 be 08 00 00 00
[    8.557395] RSP: 0018:ffffb8664007fdc0 EFLAGS: 00010246
[    8.557399] RAX: 0000000000000000 RBX: 0000000000000000 RCX: 0000000100000000
[    8.557402] RDX: 0000000000000001 RSI: 0000000000000001 RDI: ffff9a6bc6b63400
[    8.557405] RBP: ffffb8664007fdc8 R08: ffff9a6bc0054eb0 R09: 0000000000000001
[    8.557408] R10: 0000000000000007 R11: 0000000000000001 R12: ffff9a6bc6b63400
[    8.557410] R13: ffff9a6bc6b63418 R14: 0000000000000001 R15: ffff9a6bc33a8218
[    8.557414] FS:  0000000000000000(0000) GS:ffff9a729f400000(0000) knlGS:0000000000000000
[    8.557417] CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
[    8.557420] CR2: 00000000000001d8 CR3: 0000000107e44000 CR4: 00000000001506f0
[    8.557424] Call Trace:
[    8.557430]  pp_set_powergating_by_smu+0xc5/0x2b0 [amdgpu]
[    8.557705]  amdgpu_dpm_enable_uvd+0x70/0x160 [amdgpu]
[    8.557977]  amdgpu_uvd_idle_work_handler+0x120/0x160 [amdgpu]
[    8.558207]  process_one_work+0x220/0x3c0
[    8.558214]  worker_thread+0x53/0x420
[    8.558217]  ? process_one_work+0x3c0/0x3c0
[    8.558220]  kthread+0x12b/0x150
[    8.558225]  ? set_kthread_struct+0x50/0x50
[    8.558229]  ret_from_fork+0x22/0x30
[    8.558235] Modules linked in: amd64_edac edac_mce_amd kvm_amd ccp kvm irqbypass crct10dif_pclmul ghash_clmulni_intel aesni_intel crypto_simd cryptd amdgpu(+) pcspkr efi_pstore fam15h_power k10temp iommu_v2 gpu_sched drm_ttm_helper ttm drm_kms_helper cec rc_core i2c_algo_bit fb_sys_fops syscopyarea sysfillrect sysimgblt 8250_dw mac_hid vhost_net vhost vhost_iotlb tap ib_iser rdma_cm iw_cm ib_cm ib_core iscsi_tcp libiscsi_tcp libiscsi scsi_transport_iscsi drm sunrpc ip_tables x_tables autofs4 zfs(PO) zunicode(PO) zzstd(O) zlua(O) zavl(PO) icp(PO) zcommon(PO) znvpair(PO) spl(O) btrfs blake2b_generic xor zstd_compress raid6_pq libcrc32c xhci_pci xhci_pci_renesas ehci_pci ahci crc32_pclmul tg3 xhci_hcd i2c_piix4 libahci ehci_hcd video
[    8.558311] CR2: 00000000000001d8
[    8.558315] ---[ end trace d747077e97d28096 ]---
[    8.654209] RIP: 0010:smu8_dpm_powergate_acp+0xc/0x40 [amdgpu]
[    8.654946] Code: 7a f7 fd ff 44 89 ea 4c 89 e7 31 c9 be 13 00 00 00 e8 68 f7 fd ff 31 c0 41 5c 41 5d 5d c3 0f 1f 44 00 00 48 8b 87 c0 01 00 00 <40> 38 b0 db 01 00 00 74 23 55 31 d2 48 89 e5 40 84 f6 74 0c be 0b
[    8.654952] RSP: 0018:ffffb86640743918 EFLAGS: 00010286
[    8.654958] RAX: 0000000000000000 RBX: ffff9a6bc33a0000 RCX: 000000000000000a
[    8.654961] RDX: 0000000000000000 RSI: 0000000000000000 RDI: ffff9a6bc6b63400
[    8.654964] RBP: ffffb86640743938 R08: 000000000000000f R09: 0000000000000000
[    8.654967] R10: ffff9a6bc66fc801 R11: ffff9a6bc66fc800 R12: ffff9a6bc6b63400
[    8.654969] R13: ffffffffc1272300 R14: ffff9a6bc33a0010 R15: ffff9a6bc33a0000
[    8.654972] FS:  0000000000000000(0000) GS:ffff9a729f400000(0000) knlGS:0000000000000000
[    8.654977] CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
[    8.654980] CR2: 00000000000001d8 CR3: 0000000107e44000 CR4: 00000000001506f0
TIP : Zet lange code blokken tussen quote tags! :)
Langerakpc schreef op woensdag 29 december 2021 @ 15:06:
nu de vraag:
het hele geheel staat op een ssd van 120 gb en is dus snel vol.

Hoe kan ik een usb hardeschijf aan nextcloud koppelen?

Ik weet dat het via de mount point moet maar ik krijg de hdd niet gekoppeld.
het pat wat het datacenter geeft is /dev/sdb.

Proxmox zegt steeds no disks unusud

Wat doe ik fout?
Typ eens het volgende in :
dmesg -w

En sluit daarna de USB HDD aan : Wat zie je dan :?

Verder kan je de mountpoints vergelijken voordat je de USB HDD aansluit en nadat je de USB HDD hebt aangesloten :
mount


Ik gok dat er een hele grote kans is dat de USB HDD namelijk ergens onder /mnt/ automatisch wordt gemount! :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Langerakpc
  • Registratie: Juli 2014
  • Laatst online: 19:28
Typ eens het volgende in :
dmesg -w

En sluit daarna de USB HDD aan : Wat zie je dan :?

Verder kan je de mountpoints vergelijken voordat je de USB HDD aansluit en nadat je de USB HDD hebt aangesloten :
mount


Ik gok dat er een hele grote kans is dat de USB HDD namelijk ergens onder /mnt/ automatisch wordt gemount! :)
Hier staan de resultaten van mount.
dmesg is te lang om te posten.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
Zonder hdd 
Last login: Wed Dec 29 21:22:13 CET 2021 on pts/1
Linux HA 5.4.73-1-pve #1 SMP PVE 5.4.73-1 (Mon, 16 Nov 2020 10:52:16 +0100) x86_64

The programs included with the Debian GNU/Linux system are free software;
the exact distribution terms for each program are described in the
individual files in /usr/share/doc/*/copyright.

Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
permitted by applicable law.
root@HA:~# mount
sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
proc on /proc type proc (rw,relatime)
udev on /dev type devtmpfs (rw,nosuid,relatime,size=1936296k,nr_inodes=484074,mode=755)
devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)
tmpfs on /run type tmpfs (rw,nosuid,noexec,relatime,size=392224k,mode=755)
/dev/mapper/pve-root on / type ext4 (rw,relatime,errors=remount-ro)
securityfs on /sys/kernel/security type securityfs (rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)
tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k)
tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755)
cgroup2 on /sys/fs/cgroup/unified type cgroup2 (rw,nosuid,nodev,noexec,relatime)
cgroup on /sys/fs/cgroup/systemd type cgroup (rw,nosuid,nodev,noexec,relatime,xattr,name=systemd)
pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime)
none on /sys/fs/bpf type bpf (rw,nosuid,nodev,noexec,relatime,mode=700)
cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,nosuid,nodev,noexec,relatime,perf_event)
cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset)
cgroup on /sys/fs/cgroup/devices type cgroup (rw,nosuid,nodev,noexec,relatime,devices)
cgroup on /sys/fs/cgroup/blkio type cgroup (rw,nosuid,nodev,noexec,relatime,blkio)
cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup (rw,nosuid,nodev,noexec,relatime,cpu,cpuacct)
cgroup on /sys/fs/cgroup/net_cls,net_prio type cgroup (rw,nosuid,nodev,noexec,relatime,net_cls,net_prio)
cgroup on /sys/fs/cgroup/rdma type cgroup (rw,nosuid,nodev,noexec,relatime,rdma)
cgroup on /sys/fs/cgroup/memory type cgroup (rw,nosuid,nodev,noexec,relatime,memory)
cgroup on /sys/fs/cgroup/pids type cgroup (rw,nosuid,nodev,noexec,relatime,pids)
cgroup on /sys/fs/cgroup/freezer type cgroup (rw,nosuid,nodev,noexec,relatime,freezer)
cgroup on /sys/fs/cgroup/hugetlb type cgroup (rw,nosuid,nodev,noexec,relatime,hugetlb)
systemd-1 on /proc/sys/fs/binfmt_misc type autofs (rw,relatime,fd=41,pgrp=1,timeout=0,minproto=5,maxproto=5,direct,pipe_ino=15296)
mqueue on /dev/mqueue type mqueue (rw,relatime)
hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,pagesize=2M)
debugfs on /sys/kernel/debug type debugfs (rw,relatime)
sunrpc on /run/rpc_pipefs type rpc_pipefs (rw,relatime)
configfs on /sys/kernel/config type configfs (rw,relatime)
fusectl on /sys/fs/fuse/connections type fusectl (rw,relatime)
/dev/sda2 on /boot/efi type vfat (rw,relatime,fmask=0022,dmask=0022,codepage=437,iocharset=iso8859-1,shortname=mixed,errors=remount-ro)
lxcfs on /var/lib/lxcfs type fuse.lxcfs (rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other)
/dev/fuse on /etc/pve type fuse (rw,nosuid,nodev,relatime,user_id=0,group_id=0,default_permissions,allow_other)
tmpfs on /run/user/0 type tmpfs (rw,nosuid,nodev,relatime,size=392220k,mode=700)
root@HA:~# 

met hddindividual files in /usr/share/doc/*/copyright.

Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
permitted by applicable law.
root@HA:~# Last login: Wed Dec 29 21:22:13 CET 2021 on pts/1
-bash: Last: command not found
root@HA:~# Linux HA 5.4.73-1-pve #1 SMP PVE 5.4.73-1 (Mon, 16 Nov 2020 10:52:16 +0100) x86_64
-bash: Linux: command not found
root@HA:~# 
root@HA:~# The programs included with the Debian GNU/Linux system are free software;
-bash: The: command not found
root@HA:~# the exact distribution terms for each program are described in the
-bash: the: command not found
root@HA:~# individual files in /usr/share/doc/*/copyright.
-bash: individual: command not found
root@HA:~# 
root@HA:~# Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
-bash: Debian: command not found
root@HA:~# permitted by applicable law.
-bash: permitted: command not found
root@HA:~# root@HA:~# mount
-bash: root@HA:~#: command not found
root@HA:~# sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
-bash: syntax error near unexpected token `('
root@HA:~# proc on /proc type proc (rw,relatime)
-bash: syntax error near unexpected token `('
root@HA:~# udev on /dev type devtmpfs (rw,nosuid,relatime,size=1936296k,nr_inodes=484074,mode=755)
-bash: syntax error near unexpected token `('
root@HA:~# devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)
-bash: syntax error near unexpected token `('
root@HA:~# tmpfs on /run type tmpfs (rw,nosuid,noexec,relatime,size=392224k,mode=755)
-bash: syntax error near unexpected token `('
root@HA:~# /dev/mapper/pve-root on / type ext4 (rw,relatime,errors=remount-ro)
-bash: syntax error near unexpected token `('
root@HA:~# securityfs on /sys/kernel/security type securityfs (rw,nosuid,nodev,noexec,relatime)
-bash: syntax error near unexpected token `('
root@HA:~# tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)
-bash: syntax error near unexpected token `('
root@HA:~# tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k)
-bash: syntax error near unexpected token `('
root@HA:~# tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755)
-bash: syntax error near unexpected token `('
root@HA:~# cgroup2 on /sys/fs/cgroup/unified type cgroup2 (rw,nosuid,nodev,noexec,relatime)
-bash: syntax error near unexpected token `('
root@HA:~# cgroup on /sys/fs/cgroup/systemd type cgroup (rw,nosuid,nodev,noexec,relatime,xattr,name=systemd)-bash: syntax error near unexpected token `('
root@HA:~# pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime)
-bash: syntax error near unexpected token `('
root@HA:~# none on /sys/fs/bpf type bpf (rw,nosuid,nodev,noexec,relatime,mode=700)
-bash: syntax error near unexpected token `('
root@HA:~# cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,nosuid,nodev,noexec,relatime,perf_event)
-bash: syntax error near unexpected token `('
root@HA:~# cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset)
-bash: syntax error near unexpected token `('
root@HA:~# cgroup on /sys/fs/cgroup/devices type cgroup (rw,nosuid,nodev,noexec,relatime,devices)
-bash: syntax error near unexpected token `('
root@HA:~# cgroup on /sys/fs/cgroup/blkio type cgroup (rw,nosuid,nodev,noexec,relatime,blkio)
-bash: syntax error near unexpected token `('
root@HA:~# cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup (rw,nosuid,nodev,noexec,relatime,cpu,cpuacct)
-bash: syntax error near unexpected token `('
root@HA:~# cgroup on /sys/fs/cgroup/net_cls,net_prio type cgroup (rw,nosuid,nodev,noexec,relatime,net_cls,net_prio)
-bash: syntax error near unexpected token `('
root@HA:~# cgroup on /sys/fs/cgroup/rdma type cgroup (rw,nosuid,nodev,noexec,relatime,rdma)
-bash: syntax error near unexpected token `('
root@HA:~# cgroup on /sys/fs/cgroup/memory type cgroup (rw,nosuid,nodev,noexec,relatime,memory)
-bash: syntax error near unexpected token `('
root@HA:~# cgroup on /sys/fs/cgroup/pids type cgroup (rw,nosuid,nodev,noexec,relatime,pids)
-bash: syntax error near unexpected token `('
root@HA:~# cgroup on /sys/fs/cgroup/freezer type cgroup (rw,nosuid,nodev,noexec,relatime,freezer)
-bash: syntax error near unexpected token `('
root@HA:~# cgroup on /sys/fs/cgroup/hugetlb type cgroup (rw,nosuid,nodev,noexec,relatime,hugetlb)
-bash: syntax error near unexpected token `('
root@HA:~# systemd-1 on /proc/sys/fs/binfmt_misc type autofs (rw,relatime,fd=41,pgrp=1,timeout=0,minproto=5,maxproto=5,direct,pipe_ino=15296)
-bash: syntax error near unexpected token `('
root@HA:~# mqueue on /dev/mqueue type mqueue (rw,relatime)
-bash: syntax error near unexpected token `('
root@HA:~# hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,pagesize=2M)
-bash: syntax error near unexpected token `('
root@HA:~# debugfs on /sys/kernel/debug type debugfs (rw,relatime)
-bash: syntax error near unexpected token `('
root@HA:~# sunrpc on /run/rpc_pipefs type rpc_pipefs (rw,relatime)
-bash: syntax error near unexpected token `('
root@HA:~# configfs on /sys/kernel/config type configfs (rw,relatime)
-bash: syntax error near unexpected token `('
root@HA:~# fusectl on /sys/fs/fuse/connections type fusectl (rw,relatime)
-bash: syntax error near unexpected token `('
root@HA:~# /dev/sda2 on /boot/efi type vfat (rw,relatime,fmask=0022,dmask=0022,codepage=437,iocharset=iso8859-1,shortname=mixed,errors=remount-ro)
-bash: syntax error near unexpected token `('
root@HA:~# lxcfs on /var/lib/lxcfs type fuse.lxcfs (rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other)
-bash: syntax error near unexpected token `('
root@HA:~# /dev/fuse on /etc/pve type fuse (rw,nosuid,nodev,relatime,user_id=0,group_id=0,default_permissions,allow_other)
-bash: syntax error near unexpected token `('
root@HA:~# tmpfs on /run/user/0 type tmpfs (rw,nosuid,nodev,relatime,size=392220k,mode=700)
-bash: syntax error near unexpected token `('
root@HA:~# root@HA:~#
Hij lijkt wel van slag te zijn.
heb 2 usb apparaten eraan hangen voor HA (zigbee en een p1 poort)

ik kom er niet uit.
Het is een simpele gigabite brix met 2core en 4 gb ram maar dat zou genoeg moeten zijn.

Mijn doel is om via een app op de telefoon automatisch bepaalde mappen te kopieren.
kan dat misschien makkelijker dan wat ik nu doe?

Acties:
  • +1 Henk 'm!

  • RudolfR
  • Registratie: Maart 2011
  • Laatst online: 13-09 16:51
@Langerakpc

De output van het tweede command klopt niet, het lijkt wel alsof je daar de output van het eerste commando opnieuw hebt ingevoerd op de commandoregel. (per ongelukt geplakt...)

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Langerakpc schreef op woensdag 29 december 2021 @ 22:23:
Hier staan de resultaten van mount.
Ik zie alleen sda2 en geen sdb/sdc/enz. dus de USB HDD is in ieder geval niet automatisch gemount, maar je moet ons echt effe laten zien wat de dmesg output is op het moment dat je de USB HDD inprikt! ;)
dmesg is te lang om te posten.
Alleen de berichten op het moment dat je de USB HDD aansluit hebben we nodig hé! B)
Mijn doel is om via een app op de telefoon automatisch bepaalde mappen te kopieren.
kan dat misschien makkelijker dan wat ik nu doe?
Je zou een DIY NASje ervan kunnen maken! :)

Maar wat ik me nu afvraag : Hoe heb je het geheel eigenlijk opgezet :?

[ Voor 5% gewijzigd door nero355 op 30-12-2021 00:25 ]

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • Theone098
  • Registratie: Februari 2015
  • Laatst online: 21:40
Ik heb een nieuw Synology NAS en wilde eigenlijk een tweetal Proxmox VM's op de Synology draaien (dicht bij de Storage, zijn nogal schijfintensief).
Ik heb de proxmox VM schijven gemoved naar het NAS en het type op Vmware gezet. Importeren in Synology VMM en hoppa..... draaien! Gaat om 2 Ubuntu VM's.

  • Langerakpc
  • Registratie: Juli 2014
  • Laatst online: 19:28
nero355 schreef op donderdag 30 december 2021 @ 00:24:
[...]

Ik zie alleen sda2 en geen sdb/sdc/enz. dus de USB HDD is in ieder geval niet automatisch gemount, maar je moet ons echt effe laten zien wat de dmesg output is op het moment dat je de USB HDD inprikt! ;)


[...]

Alleen de berichten op het moment dat je de USB HDD aansluit hebben we nodig hé! B)


[...]

Je zou een DIY NASje ervan kunnen maken! :)

Maar wat ik me nu afvraag : Hoe heb je het geheel eigenlijk opgezet :?
de dmesg is als volgt als ik de usb hdd inplug
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
ce=10.10
[875926.090339] usb 2-1: New USB device strings: Mfr=1, Product=2, SerialNumber=5
[875926.090343] usb 2-1: Product: My Passport 0748
[875926.090346] usb 2-1: Manufacturer: Western Digital
[875926.090349] usb 2-1: SerialNumber: 575834314333324439373439
[875926.091838] usb-storage 2-1:1.0: USB Mass Storage device detected
[875926.096153] scsi host2: usb-storage 2-1:1.0
[875927.110862] scsi 2:0:0:0: Direct-Access     WD       My Passport 0748 1010 PQ: 0 ANSI: 6
[875927.111277] scsi 2:0:0:1: Enclosure         WD       SES Device       1010 PQ: 0 ANSI: 6
[875927.113935] sd 2:0:0:0: [sdb] Spinning up disk...
[875927.114330] sd 2:0:0:0: Attached scsi generic sg1 type 0
[875927.114530] ses 2:0:0:1: Attached Enclosure device
[875927.114675] ses 2:0:0:1: Attached scsi generic sg2 type 13
[875928.132949] .
[875932.634188] ses 2:0:0:1: Wrong diagnostic page; asked for 1 got 8
[875932.634292] ses 2:0:0:1: Failed to get diagnostic page 0x1
[875932.634299] ready
[875932.634368] ses 2:0:0:1: Failed to bind enclosure -19
[875932.634535] sd 2:0:0:0: [sdb] 3906963456 512-byte logical blocks: (2.00 TB/1.82 TiB)
[875932.635080] sd 2:0:0:0: [sdb] Write Protect is off
[875932.635086] sd 2:0:0:0: [sdb] Mode Sense: 47 00 10 08
[875932.635363] sd 2:0:0:0: [sdb] No Caching mode page found
[875932.635452] sd 2:0:0:0: [sdb] Assuming drive cache: write through
[875932.671549]  sdb: sdb1
[875932.673278] sd 2:0:0:0: [sdb] Attached SCSI disk
[923250.536149] usb 2-1: USB disconnect, device number 4
[923269.477092] usb 2-1: new SuperSpeed Gen 1 USB device number 5 using xhci_hcd
[923269.497241] usb 2-1: New USB device found, idVendor=1058, idProduct=0748, bcdDevice=10.10
[923269.497246] usb 2-1: New USB device strings: Mfr=1, Product=2, SerialNumber=5
[923269.497248] usb 2-1: Product: My Passport 0748
[923269.497251] usb 2-1: Manufacturer: Western Digital
[923269.497253] usb 2-1: SerialNumber: 575834314333324439373439
[923269.498704] usb-storage 2-1:1.0: USB Mass Storage device detected
[923269.499978] scsi host2: usb-storage 2-1:1.0
[923270.530025] scsi 2:0:0:0: Direct-Access     WD       My Passport 0748 1010 PQ: 0 ANSI: 6
[923270.530318] scsi 2:0:0:1: Enclosure         WD       SES Device       1010 PQ: 0 ANSI: 6
[923270.534023] sd 2:0:0:0: Attached scsi generic sg1 type 0
[923270.534843] ses 2:0:0:1: Attached Enclosure device
[923270.536319] ses 2:0:0:1: Attached scsi generic sg2 type 13
[923270.536513] sd 2:0:0:0: [sdb] Spinning up disk...
[923271.552914] .
[923275.927378] ses 2:0:0:1: Wrong diagnostic page; asked for 1 got 8
[923275.927456] ses 2:0:0:1: Failed to get diagnostic page 0x1
[923275.927513] ses 2:0:0:1: Failed to bind enclosure -19
[923275.927545] ready
[923275.927719] sd 2:0:0:0: [sdb] 3906963456 512-byte logical blocks: (2.00 TB/1.82 TiB)
[923275.928039] sd 2:0:0:0: [sdb] Write Protect is off
[923275.928043] sd 2:0:0:0: [sdb] Mode Sense: 47 00 10 08
[923275.929056] sd 2:0:0:0: [sdb] No Caching mode page found
[923275.929132] sd 2:0:0:0: [sdb] Assuming drive cache: write through
[923275.965193]  sdb: sdb1
[923275.966945] sd 2:0:0:0: [sdb] Attached SCSI disk
Dit is de mount na het inpluggen
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
Last login: Thu Dec 30 10:33:02 CET 2021 on pts/1
Linux HA 5.4.73-1-pve #1 SMP PVE 5.4.73-1 (Mon, 16 Nov 2020 10:52:16 +0100) x86_64

The programs included with the Debian GNU/Linux system are free software;
the exact distribution terms for each program are described in the
individual files in /usr/share/doc/*/copyright.

Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
permitted by applicable law.
root@HA:~# mount
sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime)
proc on /proc type proc (rw,relatime)
udev on /dev type devtmpfs (rw,nosuid,relatime,size=1936296k,nr_inodes=484074,mode=755)
devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000)
tmpfs on /run type tmpfs (rw,nosuid,noexec,relatime,size=392224k,mode=755)
/dev/mapper/pve-root on / type ext4 (rw,relatime,errors=remount-ro)
securityfs on /sys/kernel/security type securityfs (rw,nosuid,nodev,noexec,relatime)
tmpfs on /dev/shm type tmpfs (rw,nosuid,nodev)
tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k)
tmpfs on /sys/fs/cgroup type tmpfs (ro,nosuid,nodev,noexec,mode=755)
cgroup2 on /sys/fs/cgroup/unified type cgroup2 (rw,nosuid,nodev,noexec,relatime)
cgroup on /sys/fs/cgroup/systemd type cgroup (rw,nosuid,nodev,noexec,relatime,xattr,name=systemd)
pstore on /sys/fs/pstore type pstore (rw,nosuid,nodev,noexec,relatime)
none on /sys/fs/bpf type bpf (rw,nosuid,nodev,noexec,relatime,mode=700)
cgroup on /sys/fs/cgroup/perf_event type cgroup (rw,nosuid,nodev,noexec,relatime,perf_event)
cgroup on /sys/fs/cgroup/cpuset type cgroup (rw,nosuid,nodev,noexec,relatime,cpuset)
cgroup on /sys/fs/cgroup/devices type cgroup (rw,nosuid,nodev,noexec,relatime,devices)
cgroup on /sys/fs/cgroup/blkio type cgroup (rw,nosuid,nodev,noexec,relatime,blkio)
cgroup on /sys/fs/cgroup/cpu,cpuacct type cgroup (rw,nosuid,nodev,noexec,relatime,cpu,cpuacct)
cgroup on /sys/fs/cgroup/net_cls,net_prio type cgroup (rw,nosuid,nodev,noexec,relatime,net_cls,net_prio)
cgroup on /sys/fs/cgroup/rdma type cgroup (rw,nosuid,nodev,noexec,relatime,rdma)
cgroup on /sys/fs/cgroup/memory type cgroup (rw,nosuid,nodev,noexec,relatime,memory)
cgroup on /sys/fs/cgroup/pids type cgroup (rw,nosuid,nodev,noexec,relatime,pids)
cgroup on /sys/fs/cgroup/freezer type cgroup (rw,nosuid,nodev,noexec,relatime,freezer)
cgroup on /sys/fs/cgroup/hugetlb type cgroup (rw,nosuid,nodev,noexec,relatime,hugetlb)
systemd-1 on /proc/sys/fs/binfmt_misc type autofs (rw,relatime,fd=41,pgrp=1,timeout=0,minproto=5,maxproto=5,direct,pipe_ino=15296)
mqueue on /dev/mqueue type mqueue (rw,relatime)
hugetlbfs on /dev/hugepages type hugetlbfs (rw,relatime,pagesize=2M)
debugfs on /sys/kernel/debug type debugfs (rw,relatime)
sunrpc on /run/rpc_pipefs type rpc_pipefs (rw,relatime)
configfs on /sys/kernel/config type configfs (rw,relatime)
fusectl on /sys/fs/fuse/connections type fusectl (rw,relatime)
/dev/sda2 on /boot/efi type vfat (rw,relatime,fmask=0022,dmask=0022,codepage=437,iocharset=iso8859-1,shortname=mixed,errors=remount-ro)
lxcfs on /var/lib/lxcfs type fuse.lxcfs (rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other)
/dev/fuse on /etc/pve type fuse (rw,nosuid,nodev,relatime,user_id=0,group_id=0,default_permissions,allow_other)
tmpfs on /run/user/0 type tmpfs (rw,nosuid,nodev,relatime,size=392220k,mode=700)
Hopelijk kunnen jullie er wat mee.

De opstelling is als volgt.
Gigabyte brix met 2 core cpu (celeron)
4 gb ram en 120 gb SSD (SSD wordt een grotere)

Proxmox 6.4
1 node
in de node Home assistant VM en nextcloud turnkey

Wil een 2 TB usb hdd in de nextcloud hebben.
via de NC app op meerdere telefoons foto's automatisch laten kopieren.

Ik sta open voor andere ideeen ipv Nextcloud. zolang de telefoons maar automatisch uploaden.
het uploaden gebeurt alleen bij intern netwerk. er is geen opening naar buiten.

(maak ook offline kopietjes ernaast)

  • htca
  • Registratie: November 2001
  • Laatst online: 13-09 17:31
Langerakpc schreef op donderdag 30 december 2021 @ 10:40:
[...]


de dmesg is als volgt als ik de usb hdd inplug

[...]


Dit is de mount na het inpluggen

[...]


Hopelijk kunnen jullie er wat mee.

De opstelling is als volgt.
Gigabyte brix met 2 core cpu (celeron)
4 gb ram en 120 gb SSD (SSD wordt een grotere)

Proxmox 6.4
1 node
in de node Home assistant VM en nextcloud turnkey

Wil een 2 TB usb hdd in de nextcloud hebben.
via de NC app op meerdere telefoons foto's automatisch laten kopieren.

Ik sta open voor andere ideeen ipv Nextcloud. zolang de telefoons maar automatisch uploaden.
het uploaden gebeurt alleen bij intern netwerk. er is geen opening naar buiten.

(maak ook offline kopietjes ernaast)
Waarom draai je niet nextcloud rechtstreeks op je synology? Ik heb een poosje geprobeerd nextcloud te draaien onder proxmox op een nuc (i7) met een gedeelde schijf op mijn synology, maar het bleef instabiel op de een of andere manier. Nadat ik nextcloud op de synology heb gezet en op de nuc een proxy heb geïnstalleerd geen problemen meer gehad.
Je kan ook de oplossing van synology zelf gebruiken, maar hé je bent tweaker of niet….

  • Langerakpc
  • Registratie: Juli 2014
  • Laatst online: 19:28
htca schreef op donderdag 30 december 2021 @ 11:16:
[...]

Waarom draai je niet nextcloud rechtstreeks op je synology? Ik heb een poosje geprobeerd nextcloud te draaien onder proxmox op een nuc (i7) met een gedeelde schijf op mijn synology, maar het bleef instabiel op de een of andere manier. Nadat ik nextcloud op de synology heb gezet en op de nuc een proxy heb geïnstalleerd geen problemen meer gehad.
Je kan ook de oplossing van synology zelf gebruiken, maar hé je bent tweaker of niet….
Ik heb geen synology

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

htca schreef op donderdag 30 december 2021 @ 11:16:
[...]

Waarom draai je niet nextcloud rechtstreeks op je synology? Ik heb een poosje geprobeerd nextcloud te draaien onder proxmox op een nuc (i7) met een gedeelde schijf op mijn synology, maar het bleef instabiel op de een of andere manier. Nadat ik nextcloud op de synology heb gezet en op de nuc een proxy heb geïnstalleerd geen problemen meer gehad.
Je kan ook de oplossing van synology zelf gebruiken, maar hé je bent tweaker of niet….
Ik draai het op precies die manier. Shared folder op de Syno, Docker container draait op mijn proxmox bak in een ubuntu server VM, fstab share gemount naar de Syno en werkt al lang perfect stabiel. Enige probleem wat ik had is dat de interne update van NC niet lekker wilde werken, dit heb ik opgelost door zelf een scriptje te schrijven wat de update uitvoert, is nog 100x sneller dan de standaard NC methode ook.

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


  • htca
  • Registratie: November 2001
  • Laatst online: 13-09 17:31
htca schreef op donderdag 30 december 2021 @ 11:16:
[...]

Waarom draai je niet nextcloud rechtstreeks op je synology? Ik heb een poosje geprobeerd nextcloud te draaien onder proxmox op een nuc (i7) met een gedeelde schijf op mijn synology, maar het bleef instabiel op de een of andere manier. Nadat ik nextcloud op de synology heb gezet en op de nuc een proxy heb geïnstalleerd geen problemen meer gehad.
Je kan ook de oplossing van synology zelf gebruiken, maar hé je bent tweaker of niet….
Oeps 2 users door elkaar gehaald…excuus

Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Langerakpc schreef op donderdag 30 december 2021 @ 10:40:
de dmesg is als volgt als ik de usb hdd inplug

[...]


Dit is de mount na het inpluggen

[...]


Hopelijk kunnen jullie er wat mee.
Nou dan is de HDD in ieder geval niet automatisch gemount en wordt die wel gewoon herkend door het systeem dus het enige dat je nog hoeft te doen is dan :
- De USB Hub waar die USB HDD aan hangt doorgeven aan de HA VM via VT-D
Maar ik weet niet of die Celeron die erin zit dat wel kan dus check dat effe eerst!
- En dan de USB HDD mounten zoals je dat altijd zou doen :
mkdir /mnt/MijnUSB_HDD
mount /dev/sdb1 /mnt/MijnUSB_HDD

En daarna effe permanent maken in je fstab als alles eenmaal werkt! :)

Wel effe goed opletten wat betreft de partitie die je gebruikt :
- Is de USB HDD wel met bijvoorbeeld EXT4 i.p.v. FAT32/NTFS/exFAT geformatteerd ?!
- Zo niet, dan moet je met parted de partitie weggooien en weer opnieuw aanmaken!
Let dan effe goed op je alignment en zo... ;)
De opstelling is als volgt.
Gigabyte brix met 2 core cpu (celeron)
4 gb ram en 120 gb SSD (SSD wordt een grotere)

Proxmox 6.4
1 node
in de node Home assistant VM en nextcloud turnkey

Wil een 2 TB usb hdd in de nextcloud hebben.
Waarom ik dat vroeg : Je laat elke keer snippets zien van root@HA dus ik zou dan denken dat je vanuit de VM kijkt of de USB HDD wordt herkend en dat kan natuurlijk niet zonder iets van Passthrough erbij als het echt om een VM gaat! ;)
via de NC app op meerdere telefoons foto's automatisch laten kopieren.

Ik sta open voor andere ideeen ipv Nextcloud. zolang de telefoons maar automatisch uploaden.
het uploaden gebeurt alleen bij intern netwerk. er is geen opening naar buiten.

(maak ook offline kopietjes ernaast)
Er zijn zoveel opties voor zo'n setup dat je toch echt zelf zal moeten kijken wat voor jou het makkelijkst werkt! ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +2 Henk 'm!

  • haborym
  • Registratie: September 2008
  • Laatst online: 12-09 06:54
Wie o wie kan mij helpen. Ik heb 2 SATA disken die ik wil vervangen. Dit is een ZFS mirror raid opstelling van 2x 500GB. 1 van die disken heeft een boot partitie.
Nu lees ik op https://pve.proxmox.com/p....html#_zfs_administration onder "Changing a failed bootable device" dat ik eerst moet bepalen wat voor bootloader is gebruik. Dat is EFI.

Nu moet ik de volgende stappen volgen

# sgdisk <healthy bootable device> -R <new device>
# sgdisk -G <new device>
# zpool replace -f <pool> <old zfs partition> <new zfs partition>

In die eerste stap staat <healthy bootable device> wordt hiermee de huidige bootdisk bedoeld?


Inmiddels is het gelukt om de partities over te zetten en de disk te vervangen. :D

[ Voor 6% gewijzigd door haborym op 30-12-2021 21:27 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

@haborym
Dus ZFS onder Proxmox maakt dan niet beide HDD's bootable :?

Dat is best wel irritant namelijk, want ik was juist blij toen ik erachter kwam dat Ubuntu bij het aanmaken van een ouderwetse Software RAID Mirror set via MDADM tijdens de installatie van Ubuntu meteen de Grub installatie op beide HDD's werd gedaan in tegenstelling tot Debian zelf bijvoorbeeld! :)

Jammer dat we dan weer daarmee moeten prutsen... :/

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • haborym
  • Registratie: September 2008
  • Laatst online: 12-09 06:54
nero355 schreef op vrijdag 31 december 2021 @ 00:35:
@haborym
Dus ZFS onder Proxmox maakt dan niet beide HDD's bootable :?

Dat is best wel irritant namelijk, want ik was juist blij toen ik erachter kwam dat Ubuntu bij het aanmaken van een ouderwetse Software RAID Mirror set via MDADM tijdens de installatie van Ubuntu meteen de Grub installatie op beide HDD's werd gedaan in tegenstelling tot Debian zelf bijvoorbeeld! :)

Jammer dat we dan weer daarmee moeten prutsen... :/
Volgens mij niet automatisch. Moet er nog even induiken maar volgens mij kan ik beide disken in sync brengen wat betreft de efi boot.

Acties:
  • +1 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:27
Bootable maken is wel makkelijk gemaakt
code:
1
2
proxmox-boot-tool format /dev/xxx
proxmox-boot-tool init /dev/xxx

Meestal is dat de tweede partition, dus in geval van je eerste schijf: /dev/sda2

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • haborym
  • Registratie: September 2008
  • Laatst online: 12-09 06:54
Dus als ik op die 2e disk een partitie maak van 500 Mb dan kan ik die ook bootable maken?

Acties:
  • +2 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:27
haborym schreef op vrijdag 31 december 2021 @ 14:07:
Dus als ik op die 2e disk een partitie maak van 500 Mb dan kan ik die ook bootable maken?
Als je netjes de partitietabel hebt gekopieerd van de ene naar de andere schijf, dan heb je die partitie als het goed is al.

* CurlyMo heeft afgelopen maand beide SSD's uit de root pool moeten vervangen. Ze gingen kort na elkaar kapot

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • cville
  • Registratie: Juni 2012
  • Laatst online: 09-09 12:43
CurlyMo schreef op vrijdag 31 december 2021 @ 14:31:
[...]

Als je netjes de partitietabel hebt gekopieerd van de ene naar de andere schijf, dan heb je die partitie als het goed is al.

* CurlyMo heeft afgelopen maand beide SSD's uit de root pool moeten vervangen. Ze gingen kort na elkaar kapot
Uit nieuwsgierigheid: welk type, na hoeveel tijd en/of data en hoeveel tijd zat er tussen de 2 SSD's?

12.090kWp → 40 panelen → oost/zuid/west | Tibber | EV


Acties:
  • +2 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:27
cville schreef op vrijdag 31 december 2021 @ 17:06:
[...]


Uit nieuwsgierigheid: welk type, na hoeveel tijd en/of data en hoeveel tijd zat er tussen de 2 SSD's?
De eerste was een BX500 die na een jaar er de brui aan begon te geven na voorbij zijn TBW te zijn gekomen. Dit werd tijdig gemeld via de SMART.
202 Percent_Lifetime_Remain 0x0030 001 001 001 Old_age Offline FAILING_NOW 99
Deze is vergoed door de webwinkel.

De tweede was een MX100 die al vele jaren in mijn NAS had gezeten en dus wel eens kapot mocht gaan. Die melde zich ook ruim op tijd via de SMART.

Beide zijn nu vervangen door MX500.

Allemaal Crucials.

[ Voor 6% gewijzigd door CurlyMo op 31-12-2021 17:45 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

haborym schreef op vrijdag 31 december 2021 @ 07:07:
[...]

Volgens mij niet automatisch. Moet er nog even induiken maar volgens mij kan ik beide disken in sync brengen wat betreft de efi boot.
Hierover gesproken, bij mijn node zie ik dit staan onder de disks. Het lijkt er dan toch op dat ik hier wel van beide kan booten of niet? Ik heb zelf nooit hier iets manueel mee gedaan. :)

Afbeeldingslocatie: https://tweakers.net/i/gDJf5vRAvaWG1PoC2YWcRTHao_c=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/t2Z1nSKc8qN8m848khkQfmFp.png?f=user_large

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:27
@orvintax Dat kan je zien met:
code:
1
proxmox-boot-tool refresh

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

Hij geeft de twee disks aan dus ik neem aan dat het in orde is. Dan vind ik het raar dat het bij @haborym niet automatisch zo is.

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • haborym
  • Registratie: September 2008
  • Laatst online: 12-09 06:54
orvintax schreef op vrijdag 31 december 2021 @ 20:28:
Hij geeft de twee disks aan dus ik neem aan dat het in orde is. Dan vind ik het raar dat het bij @haborym niet automatisch zo is.
Dat vindt ik ook, maar ik heb 1 van die 2 SK hynix latjes als eens vervangen. Ik heb toen niet de stappen gevolgd die ik nu heb gevolgd. toen heb ik alleen een zpool replace uitgevoerd zonder SGDisk uit te voeren.
Denk dat ik van de week nog even de SK hynix SC311 tijdelijk terug zet in de mirror om daarna de juiste partities aan te maken bij de intel zonder boot. Dan klopt alles weer.


Heb nu 2 INTEL enterprise ssd's erin gezet. 1 van de 2 is zelfs helemaal ongebruikt, de andere heeft 3 jaar gedraaid.


Afbeeldingslocatie: https://tweakers.net/i/N_2KidHMIq1fXpNLD0A18xocglY=/800x/filters:strip_exif()/f/image/2GtIUyK9kvMWml6t3Fp6YLVY.png?f=fotoalbum_large

Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

haborym schreef op vrijdag 31 december 2021 @ 20:33:
[...]

Dat vindt ik ook, maar ik heb 1 van die 2 SK hynix latjes als eens vervangen. Ik heb toen niet de stappen gevolgd die ik nu heb gevolgd. toen heb ik alleen een zpool replace uitgevoerd zonder SGDisk uit te voeren.
Denk dat ik van de week nog even de SK hynix SC311 tijdelijk terug zet in de mirror om daarna de juiste partities aan te maken bij de intel zonder boot. Dan klopt alles weer.


Heb nu 2 INTEL enterprise ssd's erin gezet. 1 van de 2 is zelfs helemaal ongebruikt, de andere heeft 3 jaar gedraaid.


[Afbeelding]
Ik heb totaal geen ervaring met het vervangen van ZFS disks in Proxmox (even afkloppen ;) ) maar zoals jij het typt klinkt het wel logisch. Je voert "enkel" een "zpool replace" uit, die pool heeft niks te maken met de boot partitie.

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 03:56

Zenix

BOE!

CurlyMo schreef op vrijdag 31 december 2021 @ 17:42:
[...]

De eerste was een BX500 die na een jaar er de brui aan begon te geven na voorbij zijn TBW te zijn gekomen. Dit werd tijdig gemeld via de SMART.

[...]

Deze is vergoed door de webwinkel.

De tweede was een MX100 die al vele jaren in mijn NAS had gezeten en dus wel eens kapot mocht gaan. Die melde zich ook ruim op tijd via de SMART.

Beide zijn nu vervangen door MX500.

Allemaal Crucials.
Mijn MX500 1TB zit op wear 10% naar 1,5 jaar. Dus dat lijkt ook geen goede optie te zijn. Wat gebruik je trouwens om Proxmox over te zetten, nieuwe installatie of?

Acties:
  • +1 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:27
Zenix schreef op vrijdag 31 december 2021 @ 22:21:
[...]


Mijn MX500 1TB zit op wear 10% naar 1,5 jaar. Dus dat lijkt ook geen goede optie te zijn. Wat gebruik je trouwens om Proxmox over te zetten, nieuwe installatie of?
Gewoon een ZFS mirror.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • jbhc
  • Registratie: Juli 2007
  • Laatst online: 11-09 11:03
Kijk, een Proxmox topic.

Ik ben mij sinds een paar dagen aan het verdiepen in Proxmox omdat ik graag een paar virtuele servers thuis wil hebben draaien. Ik heb dus een oudere SFF pc op de kop getikt en ben er nu wat mee aan het experimenteren.

Nou heb ik een aantal tutorials bekekeken maar er wordt mij een ding niet echt duidelijk en dat is hoe schijven in te delen en te gebruiken. Weet iemand hier een duidelijke uitleg voor?

Ik ben wel eens wat aan het hobbyen met virtual machine manager in linux en daar wijs je een virtuele HD toe maar in Proxmox lijkt dat heel anders te werken.

Hoe dit in Proxmox is bedoeld is mij echt een compleet raadsel.

Acties:
  • +2 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 22:15

Cyphax

Moderator LNX
In principe is het in Proxmox niet heel anders, waar loop je precies op vast? Het is even wennen/zoeken in de web-interface soms.
Welke tutorial heb je gelezen en wat begrijp je daar niet van? :)

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • jbhc
  • Registratie: Juli 2007
  • Laatst online: 11-09 11:03
Ik heb nu om te experimenteren Proxmox op een 250GB SSD geinstalleerd.

Daar heb ik nu een LVM en een LVM-thin. Als ik nu een virtueel system aanmaak dan doe ik dat volgens mij op de LVM maar ik kan nergens aangeven dat je bijvoorbeeld 20GB toewijst aan een virtueel systeem. Of zie ik iets over het hoofd?

/edit:

Hmmm, Ik zit nu eens goed te kijken en ik heb een local van 60GB en een local-lvm van 150GB.
Ik neem dus even aan dat de installer de boel heeft opgedeeld in 3-en;
~30GB voor de Proxmox installatie
~60GB voor VZDump backup files, ISO images en Container templates
~150GB om VM's op te installeren.

Heb ik dat zo goed begrepen?

En tijdens het opzetten van je VM geef je aan hoe groot de schijf moet zijn en deze installeert hij dan op local-lvm

[ Voor 43% gewijzigd door jbhc op 03-01-2022 21:19 ]


Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 22:15

Cyphax

Moderator LNX
Zo begrijp ik het inderdaad ook.
Vrijwel dezelfde setup als ik (op de 256GB SSD). :)

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • jbhc
  • Registratie: Juli 2007
  • Laatst online: 11-09 11:03
Wat ik niet helemaal begreep was dat veel tutorials ZFS pools aanmaken maar dat blijkt dus niet perse nodig te zijn. Ik vraag mij wel af of bijvoorbeeld een aparte boot schijf voordelen heeft want dat was mijn orginele plan.

Acties:
  • +1 Henk 'm!

  • haborym
  • Registratie: September 2008
  • Laatst online: 12-09 06:54
jbhc schreef op maandag 3 januari 2022 @ 21:44:
Wat ik niet helemaal begreep was dat veel tutorials ZFS pools aanmaken maar dat blijkt dus niet perse nodig te zijn. Ik vraag mij wel af of bijvoorbeeld een aparte boot schijf voordelen heeft want dat was mijn orginele plan.
Vanuit een continuïteitsoogpunt heeft het voordelen. Je bootschijf wordt minder intensief gebruik dan de disken waar de vm's draaien. Daarnaast zit de io elkaar minder in de weg.
Allemaal maar niet wereldschokkend maar vanuit een enterprise gedachte wordt dit wel zo gehanteerd. Voor een homelab maakt het minder uit als je wat langer offline bent bij een breakdown ;)

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

jbhc schreef op maandag 3 januari 2022 @ 21:44:
Wat ik niet helemaal begreep was dat veel tutorials ZFS pools aanmaken maar dat blijkt dus niet perse nodig te zijn. Ik vraag mij wel af of bijvoorbeeld een aparte boot schijf voordelen heeft want dat was mijn orginele plan.
Effe gek gezegd zou je ZFS kunnen zien als het nieuwe LVM + EXT4 of XFS :)

In mijn "VMbakkie" zitten twee van deze gouwe ouwe beesten : pricewatch: WD Raptor WD360ADFD, 36GB :*)

- Eentje voor het OS
- Eentje voor de ISO's

En dan nog een zooi oude grotere normale HDD's voor de VM's zelf :Y)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Koepert
  • Registratie: Augustus 2013
  • Laatst online: 21:25
Even een vraag waarbij ik me besef dat ik tegelijktijdig andere redundantie-opties skip. Het gaat me om t concept.

Ik heb 1 host met proxmox waarop pi-hole op 1 LXC container draait. Is het mogelijk een 2e container op te starten die naar hetzelfde (V)IP luistert waardoor het een Active-active set-up is?

Idealiter zou je dan de tweede pi-hole op een andere host draaien, maar ben wel nieuwsgierig.

Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

Koepert schreef op maandag 10 januari 2022 @ 16:25:
Even een vraag waarbij ik me besef dat ik tegelijktijdig andere redundantie-opties skip. Het gaat me om t concept.

Ik heb 1 host met proxmox waarop pi-hole op 1 LXC container draait. Is het mogelijk een 2e container op te starten die naar hetzelfde (V)IP luistert waardoor het een Active-active set-up is?

Idealiter zou je dan de tweede pi-hole op een andere host draaien, maar ben wel nieuwsgierig.
Misschien ligt het aan mij, maar dat heeft toch niks met Proxmox te maken? Dit is toch een router verhaal?

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Koepert schreef op maandag 10 januari 2022 @ 16:25:
Even een vraag waarbij ik me besef dat ik tegelijktijdig andere redundantie-opties skip. Het gaat me om t concept.

Ik heb 1 host met proxmox waarop pi-hole op 1 LXC container draait. Is het mogelijk een 2e container op te starten die naar hetzelfde (V)IP luistert waardoor het een Active-active set-up is?

Idealiter zou je dan de tweede pi-hole op een andere host draaien, maar ben wel nieuwsgierig.
Zie : https://discourse.pi-hole...-pihole-ive-done-it/12716

Dat was het eerste topic ooit dat Pi-Hole + VRRP beschreef! :)
orvintax schreef op maandag 10 januari 2022 @ 16:32:
Misschien ligt het aan mij, maar dat heeft toch niks met Proxmox te maken? Dit is toch een router verhaal?
Een VRRP verhaal d.m.v. KeepAliveD :Y

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Phoolie
  • Registratie: Juni 2002
  • Laatst online: 12-09 20:25
Ik heb begrepen dat het aan te raden is om een losse disk te gebruiken voor Proxmox en een losse disk voor de VM's/images. Nou zit daar mijn probleem/uitdaging. Ik heb een pricewatch: Intel NUC Kit NUC7i3BNK overgenomen, alleen is dat het plattere model, waar maar 1 disk in past. Nou kan ik (denk ik) voor 2 opties kiezen.
  • Een USB stick of HDD aansluiten, waar ik Proxmox zelf op zet en dan de VM's/images op de SSD zetten.
  • Proxmox op de SSD zetten en dan mijn Synology NAS via iscsi gebruiken voor de VM's/images.
Iemand hier ervaring mee en welke optie is dan aan te raden? Of zie ik wellicht nog een betere optie over het hoofd?

Acties:
  • 0 Henk 'm!

  • Deshmir
  • Registratie: Februari 2012
  • Laatst online: 22:20
@Phoolie ik lees dat er wel een sata aansluiting op zit en een m2 ssd aansluiting.
Enige is dat je sata schijf niet in de behuizing past..

Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

Phoolie schreef op maandag 10 januari 2022 @ 19:26:
Ik heb begrepen dat het aan te raden is om een losse disk te gebruiken voor Proxmox en een losse disk voor de VM's/images. Nou zit daar mijn probleem/uitdaging. Ik heb een pricewatch: Intel NUC Kit NUC7i3BNK overgenomen, alleen is dat het plattere model, waar maar 1 disk in past. Nou kan ik (denk ik) voor 2 opties kiezen.
  • Een USB stick of HDD aansluiten, waar ik Proxmox zelf op zet en dan de VM's/images op de SSD zetten.
  • Proxmox op de SSD zetten en dan mijn Synology NAS via iscsi gebruiken voor de VM's/images.
Iemand hier ervaring mee en welke optie is dan aan te raden? Of zie ik wellicht nog een betere optie over het hoofd?
Ik ben benieuwd waar je hebt gelezen dat je beter aparte schijven kunt gebruiken. Partities kan ik me nog iets bij voorstellen, maar schijven?

Optie 1 werd vroeger veel gedaan, maar tegenwoordig raad iedere hypervisor het af, en ik ook. USB sticks zijn gewoon te unreliable.

Optie 2 klinkt beter maar ik zou gewoon alles op die SSD donderen en zeer regelmatig backups maken (lees dagelijks) naar die NAS toe.

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • Phoolie
  • Registratie: Juni 2002
  • Laatst online: 12-09 20:25
Deshmir schreef op maandag 10 januari 2022 @ 21:05:
@Phoolie ik lees dat er wel een sata aansluiting op zit en een m2 ssd aansluiting.
Enige is dat je sata schijf niet in de behuizing past..
Ja, die zit er inderdaad ook gewoon op, alleen hoe ga je die kabel dan uberhaupt door de behuizing heen krijgen? Vrees dat dit niet heel makkelijk zal gaan.
orvintax schreef op maandag 10 januari 2022 @ 23:06:
[...]

Ik ben benieuwd waar je hebt gelezen dat je beter aparte schijven kunt gebruiken. Partities kan ik me nog iets bij voorstellen, maar schijven?
Dat dacht ik hier gelezen te hebben, maar lijkt een interpretatie foutje van mij te zijn. Voor wat betreft die partities. Voegt dat nog iets toe of is dat gewoon meer wat mensen fijn vinden en/of gewend zijn?
Optie 1 werd vroeger veel gedaan, maar tegenwoordig raad iedere hypervisor het af, en ik ook. USB sticks zijn gewoon te unreliable.
Ok helder. Deze optie kende ik nog van een oud werkgever, daar had een collega dit toen zo ingericht. Was overigens voor een testsysteem, dus daar waren de eisen ook wat minder hoog. Wellicht dat er daarom toen gekozen was voor die optie. Maar ik volg je advies en ga die dus niet doen :)
Optie 2 klinkt beter maar ik zou gewoon alles op die SSD donderen en zeer regelmatig backups maken (lees dagelijks) naar die NAS toe.
Ok helder, dan ga ik een grotere SSD aanschaffen. Er zit nu een 128 GB SSD in, denk dat ik maar voor een 512 GB variant ga, dan kan ik wel even vooruit denk ik.

Acties:
  • +1 Henk 'm!

  • Deshmir
  • Registratie: Februari 2012
  • Laatst online: 22:20
Phoolie schreef op dinsdag 11 januari 2022 @ 10:52:
[...]
Ja, die zit er inderdaad ook gewoon op, alleen hoe ga je die kabel dan uberhaupt door de behuizing heen krijgen? Vrees dat dit niet heel makkelijk zal gaan.
[...]
Je zou 1 van de ventilatie gaten kunnen gebruiken; dat is dun aluminium.

Acties:
  • 0 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 13-09 17:31
Phoolie schreef op maandag 10 januari 2022 @ 19:26:
Ik heb begrepen dat het aan te raden is om een losse disk te gebruiken voor Proxmox en een losse disk voor de VM's/images. Nou zit daar mijn probleem/uitdaging. Ik heb een pricewatch: Intel NUC Kit NUC7i3BNK overgenomen, alleen is dat het plattere model, waar maar 1 disk in past. Nou kan ik (denk ik) voor 2 opties kiezen.
  • Een USB stick of HDD aansluiten, waar ik Proxmox zelf op zet en dan de VM's/images op de SSD zetten.
  • Proxmox op de SSD zetten en dan mijn Synology NAS via iscsi gebruiken voor de VM's/images.
Iemand hier ervaring mee en welke optie is dan aan te raden? Of zie ik wellicht nog een betere optie over het hoofd?
Optie 2 werkt prima. Ik heb een poosje op eenzelfde NUC gedraaid, draai nu op een opvolger met een behuizing waarin wel een hhd past (die zit er ook in met 2TB grootte). Maar ik draai de VM staan op de SSD en de HHD en backup ze op mijn NAS (synology).

Op de NUC draaien nu 4 LXC (proxymanager (SSD), pihole (HHD), webservertje (HHD), text LXC voor wireguard (HHD) en 3 VM (Home assistant (SSD), DSMR-reader (HHD), voormalige NC server doet nog wat specifieke crawlzaken, maar ga ik binnenkort opruimen en verplaatsen naar een LXC (HHD))
Wireguard draait nog niet naar mijn zin, dus die staat veelal stil (hou me aanbevolen voor een goede tutorial....)
Ik weet niet wat je van plan bent op je NUC; ik heb een 64GB SSD erin hangen en zou voor HA en wat specifieke taken meer dan genoeg zijn. Afhankelijk van je wensen zou ik een grotere SSD erin hangen (hoewel die 128GB ook al veel "covert"). Maar goed, een SSD kost je de kop ook niet.

[ Voor 14% gewijzigd door htca op 11-01-2022 12:06 ]


Acties:
  • +1 Henk 'm!

  • wankel
  • Registratie: September 2000
  • Laatst online: 01-07 23:08
Phoolie schreef op maandag 10 januari 2022 @ 19:26:
(...)
Iemand hier ervaring mee en welke optie is dan aan te raden? Of zie ik wellicht nog een betere optie over het hoofd?
Waarvoor ga je het gebruiken?

Mijn motto: zo goedkoop mogelijk beginnen, als je het een tijdje bekeken hebt kun je beter afwegen wat er in jouw situatie belangrijk is.

Mocht je nog een oude laptop hebben liggen of op de kop kunnen tikken: vooral doen. Het grootste deel van de tijd zit de machine op jou te wachten, niet andersom, dus het verschil tussen een oud laptopje van 50 euro en een redelijk snelle nieuwe machine van 500 euro zal in het begin nauwelijks merkbaar zijn.

Acties:
  • 0 Henk 'm!

  • Phoolie
  • Registratie: Juni 2002
  • Laatst online: 12-09 20:25
Deshmir schreef op dinsdag 11 januari 2022 @ 11:22:
[...]


Je zou 1 van de ventilatie gaten kunnen gebruiken; dat is dun aluminium.
Dat zou ik inderdaad nog wel eens kunnen bekijken.
htca schreef op dinsdag 11 januari 2022 @ 11:54:
[...]

Optie 2 werkt prima. Ik heb een poosje op eenzelfde NUC gedraaid, draai nu op een opvolger met een behuizing waarin wel een hhd past (die zit er ook in met 2TB grootte). Maar ik draai de VM staan op de SSD en de HHD en backup ze op mijn NAS (synology).

Op de NUC draaien nu 4 LXC (proxymanager (SSD), pihole (HHD), webservertje (HHD), text LXC voor wireguard (HHD) en 3 VM (Home assistant (SSD), DSMR-reader (HHD), voormalige NC server doet nog wat specifieke crawlzaken, maar ga ik binnenkort opruimen en verplaatsen naar een LXC (HHD))
Wireguard draait nog niet naar mijn zin, dus die staat veelal stil (hou me aanbevolen voor een goede tutorial....)
Ik weet niet wat je van plan bent op je NUC; ik heb een 64GB SSD erin hangen en zou voor HA en wat specifieke taken meer dan genoeg zijn. Afhankelijk van je wensen zou ik een grotere SSD erin hangen (hoewel die 128GB ook al veel "covert"). Maar goed, een SSD kost je de kop ook niet.
Ik heb hem aangeschaft om er Proxmox icm Home Assistant op te zetten. Maar zodra dat allemaal goed draait wil ik er nog meer op gaan zetten. DSMR-reader, Unifi controller, pihole zat ik aan te denken.
wankel schreef op dinsdag 11 januari 2022 @ 13:58:
[...]

Waarvoor ga je het gebruiken?
Zie bovenstaande.
Mijn motto: zo goedkoop mogelijk beginnen, als je het een tijdje bekeken hebt kun je beter afwegen wat er in jouw situatie belangrijk is.

Mocht je nog een oude laptop hebben liggen of op de kop kunnen tikken: vooral doen. Het grootste deel van de tijd zit de machine op jou te wachten, niet andersom, dus het verschil tussen een oud laptopje van 50 euro en een redelijk snelle nieuwe machine van 500 euro zal in het begin nauwelijks merkbaar zijn.
Daarom heb ik ook besloten een 2e hands NUC aan te schaffen. Wellicht was een oud laptopje nog goedkoper geweest. Maar ik wil hem in de meterkast gaan plaatsen en voor mijn gevoel was een NUC dan een betere oplossing.

Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Phoolie schreef op dinsdag 11 januari 2022 @ 14:07:
Ik heb hem aangeschaft om er Proxmox icm Home Assistant op te zetten. Maar zodra dat allemaal goed draait wil ik er nog meer op gaan zetten. DSMR-reader, Unifi controller, pihole zat ik aan te denken.
Dat kan een Raspberry Pi ook! :*)
Daarom heb ik ook besloten een 2e hands NUC aan te schaffen. Wellicht was een oud laptopje nog goedkoper geweest. Maar ik wil hem in de meterkast gaan plaatsen en voor mijn gevoel was een NUC dan een betere oplossing.
NUCjes en alle andere soortgelijke kastjes zijn geweldig, maar als je wat meer opslag erin wil zetten dan krijg je met een uitdaging te maken... :)
htca schreef op dinsdag 11 januari 2022 @ 11:54:
Wireguard draait nog niet naar mijn zin, dus die staat veelal stil (hou me aanbevolen voor een goede tutorial....)
Wireguard kan je makkelijk via PiVPN opzetten en dan echt in Windows "NEXT, NEXT, NEXT" style zeg maar dus probeer dat eens! ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • Phoolie
  • Registratie: Juni 2002
  • Laatst online: 12-09 20:25
nero355 schreef op dinsdag 11 januari 2022 @ 15:13:
[...]

Dat kan een Raspberry Pi ook! :*)
Het is in eerste instantie ook om te beginnen met Home Assistant. En ja, dat werkt officieel ook op een Raspberry, maar zodra je wat meer gaat vragen van het systeem, loop je wel een beetje tegen de grenzen aan. Vandaar dat ik het volledig opnieuw op ga bouwen op een NUC, maar aangezien deze dan eigenlijk weer wat overkill is, had ik bedacht om zoveel mogelijk te virtualiseren en richting de NUC over te zetten :)
[...]

NUCjes en alle andere soortgelijke kastjes zijn geweldig, maar als je wat meer opslag erin wil zetten dan krijg je met een uitdaging te maken... :)
Dat was mij ondertussen ook wel duidelijk :) Vandaar dat ik dus ook maar besloten heb om er direct een 512 GB SSD in te zetten, maar wellicht zelfs wel een 1 TB, al denk ik dat dat wel weer wat overkill zal zijn.

Acties:
  • +1 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 13-09 17:31
nero355 schreef op dinsdag 11 januari 2022 @ 15:13:


Wireguard kan je makkelijk via PiVPN opzetten en dan echt in Windows "NEXT, NEXT, NEXT" style zeg maar dus probeer dat eens! ;)
Dat ging soepel... Maar ik weet ook meteen waarom ik aan het klooien was... ik zocht een web-gui voor wireguard, dat was me nog niet gelukt. (tegelijk ook iets met beschikbare tijd....)

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

htca schreef op dinsdag 11 januari 2022 @ 17:41:
Dat ging soepel... Maar ik weet ook meteen waarom ik aan het klooien was... ik zocht een web-gui voor wireguard, dat was me nog niet gelukt. (tegelijk ook iets met beschikbare tijd....)
WebMin heeft een webGUI plug-in voor OpenVPN maar ik weet niet of er al zoiets voor Wireguard beschikbaar is dus je zou dat effe snel kunnen testen in een VM :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +2 Henk 'm!

  • gastje01
  • Registratie: Oktober 2005
  • Laatst online: 13-09 09:32
@Phoolie Ik heb een NUC uit dezelfde generatie (i7) maar dan met een leeg sata slot. Ik heb er een 1 TB Samsung nvme in geprikt (sata m2 was zuiniger geweest) en besloten zo te laten voor energieverbruik. Ik draai er met ruime marges HA, WS19, xpenology (vms) en pihole, WireGuard, UniFi controller, unms (LXC) op. Dat gaat meer dan snel zat vanaf 1 schijf.

Qua performance niks te klagen en gemiddeld lust ie zo’n 15-18 watt bij 24/7 gebruik, ook niet onbelangrijk.

Acties:
  • 0 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 12-09 16:30

Harmen

⭐⭐⭐⭐⭐⭐

Tevreden gebruiker van Proxmox 7. ( draai oa Plex, Unifi, Smokeping) Wil nu beginnen met DSMR_reader, is er een simpele guide te vinden? Kom tot nu toe relatief complexe instructies tegen, is er geen makkelijkere manier. Docker waag ik mij nog niet aan. Wil hem graag draaien in een LXC container.

Whatever.


Acties:
  • +1 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 17:40
@Phoolie , gewoon een nvme ssd kopen met genoeg ruimte voor wat je wilt en daar alles op knallen. Vm's wekelijks ( kan gewoon in de interface van proxmox) backuppen naar een NAS of iets dergelijks en gaan.

Acties:
  • +1 Henk 'm!

  • gastje01
  • Registratie: Oktober 2005
  • Laatst online: 13-09 09:32
Harmen schreef op dinsdag 11 januari 2022 @ 20:04:
Tevreden gebruiker van Proxmox 7. ( draai oa Plex, Unifi, Pingplotter) Wil nu beginnen met DSMR_reader, is er een simpele guide te vinden? Kom tot nu toe relatief complexe instructies tegen, is er geen makkelijkere manier. Docker waag ik mij nog niet aan. Wil hem graag draaien in een LXC container.
https://dsmr-reader.readt...o/installation/quick.html

Staat er letterlijk stap voor stap beschreven? Waar loop je op vast?

Acties:
  • +1 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 17:40
Harmen schreef op dinsdag 11 januari 2022 @ 20:04:
Tevreden gebruiker van Proxmox 7. ( draai oa Plex, Unifi, Pingplotter)
als je snel wilt beginnen: een docker container opspinnen: https://github.com/xirixiz/dsmr-reader-docker

Vraagje: Hoe draai je pingplotter: ik ken dat alleen als een windows applicatie?

Acties:
  • +2 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 13-09 17:31
Harmen schreef op dinsdag 11 januari 2022 @ 20:04:
Tevreden gebruiker van Proxmox 7. ( draai oa Plex, Unifi, Pingplotter) Wil nu beginnen met DSMR_reader, is er een simpele guide te vinden? Kom tot nu toe relatief complexe instructies tegen, is er geen makkelijkere manier. Docker waag ik mij nog niet aan. Wil hem graag draaien in een LXC container.
Ik heb deze gevolgd. Gewoon een LXC debian aanmaken en dan deze volgen.

Acties:
  • 0 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 12-09 16:30

Harmen

⭐⭐⭐⭐⭐⭐

Top mensen, zal eens kijken. Wellicht was ik niet meer zo scherp na een dag werken. :)

Whatever.


Acties:
  • +1 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 13-09 17:31
nero355 schreef op dinsdag 11 januari 2022 @ 19:37:
[...]

WebMin heeft een webGUI plug-in voor OpenVPN maar ik weet niet of er al zoiets voor Wireguard beschikbaar is dus je zou dat effe snel kunnen testen in een VM :)
Nee die is er niet. Voor mezelf niet zo'n probleem... Maar eens verder in verdiepen, als ik tijd heb.

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 04:13
Even ter controle, een dezer dagen wil ik een tweede NVME drive aan mijn systeem toevoegen zodat ik redundancy heb op de (zfs) root pool.

Als ik het goed heb zijn dit dan de stappen:
sgdisk /dev/nvme0n1 -R /dev/nvme1n1
sgdisk -G /dev/nvme1n1
zpool attach rpool /dev/nvme0n1p3 /dev/nvme1n1p3
# Wachten tot resilver / sync klaar is
proxmox-boot-tool format /dev/nvme1n1p2
proxmox-boot-tool init /dev/nvme1n1p2


Correct?

Dit is momenteel de output van fdisk voor de huidige NVME SSD.
robert@nas:~$ sudo fdisk -l /dev/nvme0n1
Disk /dev/nvme0n1: 465.76 GiB, 500107862016 bytes, 976773168 sectors
Disk model: Samsung SSD 970 EVO Plus 500GB
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 4807BFB4-B885-4E64-8AAD-90661F649D1C

Device           Start       End   Sectors   Size Type
/dev/nvme0n1p1      34      2047      2014  1007K BIOS boot
/dev/nvme0n1p2    2048   1050623   1048576   512M EFI System
/dev/nvme0n1p3 1050624 976773134 975722511 465.3G Solaris /usr & Apple ZFS


Bij de nieuwe wordt nvme0 dan als ik mij niet vergis 1 en de overige nummers worden dan behouden, waarop ik dan al de commando's heb aangepast.

Ik twijfel dan alleen nog even over een eventueel afwijkend aantal sectoren op de disks. Beiden zijn wel 500GB (en beide Samsungs, 970 EVO Plus vs 980), maar volgens mij kan het aantal sectoren altijd iets afwijken. Als de nieuwe drive minder sectoren heeft lijkt mij dat nogal problematisch?

Acties:
  • +2 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:27
Ik gebruik hier altijd sfdisk voor, sgdisk ken ik niet.
sfdisk -d /dev/sda | sfdisk /dev/sdb


Of de nieuwe 1 wordt of 0 zou ik voor de zekerheid dubbel checken en niet zomaar aannemen.

Als de nieuwe drive inderdaad andere sectoren heeft en je oude gebruikt alle sectoren, dan wordt het inderdaad lastiger. Dan moet je een nieuwe pool aanmaken of de nieuwe en alles overzetten. Dan die pool weer tot mirror maken.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 04:13
CurlyMo schreef op vrijdag 14 januari 2022 @ 14:08:
Ik gebruik hier altijd sfdisk voor, sgdisk ken ik niet.
sfdisk -d /dev/sda | sfdisk /dev/sdb
Die sgdisk had ik uit de Proxmox handleiding gehaald, ben zelf met beiden onbekend, en zeker v.w.b. het clonen van een partitietabel.
Of de nieuwe 1 wordt of 0 zou ik voor de zekerheid dubbel checken en niet zomaar aannemen.
Zeer goed punt inderdaad, en dat zou echt zo'n ding zijn waar ik gigantisch de mist in mee zou gaan. Meestal ben ik dan net te snel met het een of ander en loopt alles mis. Zo heb ik ook al eens een zpool add gedaan i.p.v. attach, bv. Maar ik heb wel al vast gisteren voor een offline backup gezorgd, zoals je gisteren in het ZFS topic hebt gelezen.
Als de nieuwe drive inderdaad andere sectoren heeft en je oude gebruikt alle sectoren, dan wordt het inderdaad lastiger. Dan moet je een nieuwe pool aanmaken of de nieuwe en alles overzetten. Dan die pool weer tot mirror maken.
Dat zou wel een flinke bummer zijn. Maar gelukkig vooraf te zien en dan "opnieuw in te plannen met meer tijd".

Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 04:13
CurlyMo schreef op vrijdag 14 januari 2022 @ 14:08:
Ik gebruik hier altijd sfdisk voor, sgdisk ken ik niet.
sfdisk -d /dev/sda | sfdisk /dev/sdb
Had even de man pages erbij gepakt. sgdisk -R vermeld expliciet dat het een één op één kopie is inclusief de GUIDs, en dat je daarom een sgdisk -G erna moet doen. Aangezien sfdisk -d een dump / backup maakt vermoed ik dat daarvoor hetzelfde geldt, GUIDs blijven behouden en die zullen dus "herschreven" moeten worden. Om die reden me maar gewoon aan de Proxmox handleiding gehouden.
Of de nieuwe 1 wordt of 0 zou ik voor de zekerheid dubbel checken en niet zomaar aannemen.
Uiteindelijk maar de /dev/disk/by-id paden gebruikt. Aangezien daar ook een variant met merk en modelnaam bij is leek dat me veiliger (alhoewel met 970 vs 980 een foutje nog zo gemaakt is), en het id was (later) toch al nodig voor de zpool attach
Als de nieuwe drive inderdaad andere sectoren heeft en je oude gebruikt alle sectoren, dan wordt het inderdaad lastiger. Dan moet je een nieuwe pool aanmaken of de nieuwe en alles overzetten. Dan die pool weer tot mirror maken.
Beide drives hebben exact hetzelfde aantal sectoren, dus dit was gelukkig niet aan de orde.

V.w.v. bootloader stukje. proxmox-boot-tool is een van beide opties. Deze bouwt op systemd-boot en wordt in ieder geval toegepast bij ZFS met EFI, maar volgens mij altijd bij EFI (documentatie is nogal vaag). In ieder geval bij het "legacy" verhaal wordt grub toegepast.
Onderscheid tussen beiden is het makkelijkst te maken bij een boot. (Traditioneel) blauw boot menu is grub, zwart menu is systemd-boot.

Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 13-09 13:22
Ik heb eens in de paar dagen dat de status van de VM's grijs wordt, ik kan het weer herstellen met pvestatd start

Nu zie ik in de logs:

pve kernel: pvestatd[28632]: segfault at 55f6c3a865e0 ip 00007f64a81b6973 sp 00007ffdded85240 error 4 in libc-2.28.so[7f64a8156000+148000]

Ik kan niet goed terugvinden wat dit betekend. Iemand een idee? Segfault zie ik wel eens staan als memory problem. Kun je makkelijk een memory test in de shell van proxmox doen? Ik draai de server headless

Acties:
  • +1 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 13-09 17:31
tomdh76 schreef op maandag 17 januari 2022 @ 19:34:
Ik heb eens in de paar dagen dat de status van de VM's grijs wordt, ik kan het weer herstellen met pvestatd start

Nu zie ik in de logs:

pve kernel: pvestatd[28632]: segfault at 55f6c3a865e0 ip 00007f64a81b6973 sp 00007ffdded85240 error 4 in libc-2.28.so[7f64a8156000+148000]

Ik kan niet goed terugvinden wat dit betekend. Iemand een idee? Segfault zie ik wel eens staan als memory problem. Kun je makkelijk een memory test in de shell van proxmox doen? Ik draai de server headless
Het grijs worden gebeurd bij mij ook. Alles draait gewoon verder. Het lijkt een hikje te zijn van netwerkcontroller. Restart helpt, maar ja...

Acties:
  • +2 Henk 'm!

  • Feni
  • Registratie: Juli 2005
  • Laatst online: 12-09 15:17
tomdh76 schreef op maandag 17 januari 2022 @ 19:34:
Kun je makkelijk een memory test in de shell van proxmox doen? Ik draai de server headless
Ja, het is een Debian systeem dus je kan elke memory test draaien op Proxmox die je ook op Debian zou doen. Memtester is een package die je met sudo apt install memtester kunt installeren, maar gezien het RAM in gebruik is kan je nooit alles testen. Onbetrouwbaar dus.

Het beste kan je memtest86+ van een USB stick booten en een nacht laten lopen: https://www.memtest.org/

Heb je IPMI/BMC op je systeem zoals HP iLO of DELL iDRAC? Dan kan je de output van memtest86+ via je browser volgen.

Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 13-09 16:45
Ik heb op mijn proxmox server een container welke ik gebruikte voor een samba share op 2 zfs schijven.
Heb hier een mountpoint aan toegevoegd op de zfs genaamd DataTank.
Vanwege het gigantisch hoge RAM gebruik van deze configuratie heb ik een andere oplossing bedacht.
Ik heb de DataTank inmiddels verwijderd alleen ik wil de container ook verwijderen.
Als ik het wil verwijderen zegt hij:

Error: storage ' DataTank' does not exist

Ik had dit andersom moeten doen maar dat is nu te laat.
Hoe kan ik de container alsnog verwijderen?
Het mountpoint in de containeropties verwijderen geeft hetzelfde resultaat.

Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

ComTech schreef op donderdag 20 januari 2022 @ 15:45:
Ik heb op mijn proxmox server een container welke ik gebruikte voor een samba share op 2 zfs schijven.
Heb hier een mountpoint aan toegevoegd op de zfs genaamd DataTank.
Vanwege het gigantisch hoge RAM gebruik van deze configuratie heb ik een andere oplossing bedacht.
Ik heb de DataTank inmiddels verwijderd alleen ik wil de container ook verwijderen.
Als ik het wil verwijderen zegt hij:

Error: storage ' DataTank' does not exist

Ik had dit andersom moeten doen maar dat is nu te laat.
Hoe kan ik de container alsnog verwijderen?
Het mountpoint in de containeropties verwijderen geeft hetzelfde resultaat.
Even voor de duidelijkheid, ZFS gebruikt het RAM als cache en gaat zoveel RAM gebruiken als dat je hem geeft. Ja er is een minimum, iets van min. 2GB + 1GB per TB aan data. Daar zijn trouwens wel de meningen over verdeeld maar goed daar gaat het niet over. Dus misschien dat je veel minder RAM had kunnen gebruiken voor je config :)

Verder voor de verduidelijking, lukt het niet om de storage onder het datacenter tabje te verwijderen of vanuit de container configuratie?

https://dontasktoask.com/


Acties:
  • +4 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 23:27
orvintax schreef op donderdag 20 januari 2022 @ 17:19:
[...]
Ja er is een minimum, iets van min. 2GB + 1GB per TB aan data. Daar zijn trouwens wel de meningen over verdeeld maar goed daar gaat het niet over.
Omdat die aanbeveling gaat over enterprise systemen, niet over thuisgebruik.

@ComTech ZFS gebruikt zoveel ram als beschikbaar en veilig wordt geacht. Dat betekent dus dat het lijkt alsof ZFS zoveel ram nodig heeft. Dat is niet zo. Het is alleen zonde om RAM niet te gebruiken als je het wel beschikbaar hebt. Je kan ZFS wel sturen om minder RAM te gebruiken, de vraag is alleen waarom je dat zou willen. De OS regelt dat veelal prima automatisch.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +3 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 04:13
Vergeet niet dat het RAM dat ZFS voor zijn ARC gebruikt in free en andere weergaves van het RAM gebruik wordt meegeteld als geheugen dat echt in gebruik is en niet beschikbaar is. Gebruik je bv ext4 dan gebruikt de Linux kernel ook het RAM als cache, maar dit wordt dan ook geteld onder buff/cache en onder available. Maar dit geldt dus niet voor het ZFS ARC.

Mijn Proxmox installatie laat nu ook zien dat er 869MB aan buff/cache is en 2074MB beschikbaar. Kijk ik vervolgens naar de grote van ZFS' ARC dan is dit 7265MB. Zou ik nu meer RAM vragen dan zou het ARC dus ook netjes kleiner moeten worden.

Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

orvintax schreef op donderdag 20 januari 2022 @ 17:19:
Even voor de duidelijkheid, ZFS gebruikt het RAM als cache en gaat zoveel RAM gebruiken als dat je hem geeft.
ZFS gebruikt als het goed is standaard maximaal de helft van de hoeveelheid aanwezige RAM in het systeem! :)

Maar effe terug naar het probleem :
ComTech schreef op donderdag 20 januari 2022 @ 15:45:
Ik had dit andersom moeten doen maar dat is nu te laat.
Hoe kan ik de container alsnog verwijderen?
Het mountpoint in de containeropties verwijderen geeft hetzelfde resultaat.
Hoe heb je dat gedaan en heb je de Container daarna een restart gegeven :?

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 13-09 16:45
nero355 schreef op donderdag 20 januari 2022 @ 18:52:
[...]

Maar effe terug naar het probleem :

[...]

Hoe heb je dat gedaan en heb je de Container daarna een restart gegeven :?
Ik heb bij storage gewoon de ZFS verwijderd, de container was al afgesloten had het kleine beetje data wat ik erop had staan al ergens anders staan en een deel kon ook weg.
Al mijn Vm's staan op een nvme (ook ZFS overigens).

Intussen heb ik het opgelost misschien niet op een nette manier maar het werkt.
in /etc/pve/lxc de 100.conf de regel voor het mountpoint van DataTank weggehaald en toen kon ik de container verwijderen.

Het geheugengebruik staat nu 16 GB van de 32 GB.
Maar als ik het goed begrijp van alle berichten over ZFS is het zo dat ZFS gewoon RAM pakt wat vrij is?
Als ik dus meer RAM nodig heb voor mijn VM's had ik die gewoon kunnen toewijzen?
Ik kreeg het een beetje benauwd omdat het geheugengebruik in het rood stond op 95% :X

Heel iets anders wat mij ook opviel is de SMART data van mijn NvMe drive.
Het is een Samsung 1 TB 960 Evo van een half jaar oud en ik zag al dat hij behoorlijk wat writes en reads heeft gedaan.
Data Units Read: 4,691,640 [2.40 TB]
Data Units Written: 20,192,587 [10.3 TB]
Gaat hij dat nog lang volhouden?

Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

Intussen heb ik het opgelost misschien niet op een nette manier maar het werkt.
in /etc/pve/lxc de 100.conf de regel voor het mountpoint van DataTank weggehaald en toen kon ik de container verwijderen.
Dit is gewoon een zeer nette manier hoor, niks mis mee. :) Proxmox zelf doet precies hetzelfde mocht je die via de web interface of cli willen verwijderen.
Het geheugengebruik staat nu 16 GB van de 32 GB.
Maar als ik het goed begrijp van alle berichten over ZFS is het zo dat ZFS gewoon RAM pakt wat vrij is?
Als ik dus meer RAM nodig heb voor mijn VM's had ik die gewoon kunnen toewijzen?
Ik kreeg het een beetje benauwd omdat het geheugengebruik in het rood stond op 95%
Dat is dus inderdaad geen probleem, heb ik hier al jaren :D

https://dontasktoask.com/


Acties:
  • +2 Henk 'm!

  • peter-rm
  • Registratie: Juni 2015
  • Laatst online: 23:43
@ComTech als je even naar de specs kijkt kun je zelf de conclusie trekken

mtbf 1.500.000 uur(ongeveer 190 jaar)

tbw 400T
hij kan nog 20 jaar mee bij gelijk gebruik

[ Voor 3% gewijzigd door peter-rm op 20-01-2022 20:17 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

ComTech schreef op donderdag 20 januari 2022 @ 19:56:
Intussen heb ik het opgelost misschien niet op een nette manier maar het werkt.
in /etc/pve/lxc de 100.conf de regel voor het mountpoint van DataTank weggehaald en toen kon ik de container verwijderen.
Ik had precies hetzelfde voorgesteld! :D d:)b
Heel iets anders wat mij ook opviel is de SMART data van mijn NvMe drive.
Het is een Samsung 1 TB 960 Evo van een half jaar oud en ik zag al dat hij behoorlijk wat writes en reads heeft gedaan.
Data Units Read: 4,691,640 [2.40 TB]
Data Units Written: 20,192,587 [10.3 TB]

Gaat hij dat nog lang volhouden?
Voor het mooie zou je eigenlijk zoiets als SSD moeten hebben :
- pricewatch: Samsung PM9A3 960GB
- pricewatch: Samsung PM983 M.2 960GB
Om het maar bij Samsung te houden, maar andere merken hebben ze ook : SSD's met fatsoenlijke bescherming tegen stroomverlies! :*)

Die zijn dan ook gelijk beter ingericht om tegen veel Writes te kunnen! ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 00:50
RobertMe schreef op donderdag 20 januari 2022 @ 18:03:
Vergeet niet dat het RAM dat ZFS voor zijn ARC gebruikt in free en andere weergaves van het RAM gebruik wordt meegeteld als geheugen dat echt in gebruik is en niet beschikbaar is. Gebruik je bv ext4 dan gebruikt de Linux kernel ook het RAM als cache, maar dit wordt dan ook geteld onder buff/cache en onder available. Maar dit geldt dus niet voor het ZFS ARC.

Mijn Proxmox installatie laat nu ook zien dat er 869MB aan buff/cache is en 2074MB beschikbaar. Kijk ik vervolgens naar de grote van ZFS' ARC dan is dit 7265MB. Zou ik nu meer RAM vragen dan zou het ARC dus ook netjes kleiner moeten worden.
In de praktijk zal de ARC niet kleiner worden, maar gaan je VMs hun memory balloon opblazen en swappen.

Misschien dat het bij recentere releases opgelost is, maar ik stel nog altijd een zinnige hoeveelheid geheugen in als max voor de ARC en houd die ook vrij ipv toewijzen aan VMs.

Acties:
  • +1 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 13-09 16:45
[b]nero355 schreef op donderdag 20 januari 2022 @ 23:37:

Voor het mooie zou je eigenlijk zoiets als SSD moeten hebben :
- pricewatch: Samsung PM9A3 960GB
- pricewatch: Samsung PM983 M.2 960GB
Om het maar bij Samsung te houden, maar andere merken hebben ze ook : SSD's met fatsoenlijke bescherming tegen stroomverlies! :*)

Die zijn dan ook gelijk beter ingericht om tegen veel Writes te kunnen! ;)
Ik heb zoiets ook overwogen maar de hogere prijs is het mij niet waard.
Het is maar een simpele hobby thuis server ik maak elke dag backups op harde schijven dus mocht het een keer fout gaan ligt het een paar uurtje plat.
En ik heb die 980evo voor een mooie prijs kunnen kopen (€69) :)

Acties:
  • 0 Henk 'm!

  • TheMystery
  • Registratie: Februari 2004
  • Laatst online: 13-09 15:07
Ik heb sinds kort proxmox draaien voor home assistant en heb nu 5 usb devices toegevoegd aan de vm.
nu zou ik een 6e toe willen voegen maar dit gaat niet via de gui.
Nu was ik in de conf file aan het kijken en daar staat nu het volgende in:
usb0: host=10c4:ea60,usb3=1
usb1: host=16d6:0007,usb3=1
usb2: host=0403:6001,usb3=1
usb3: host=0403:6001,usb3=1
usb4: host=0403:6001,usb3=1

De onderste 3 id's zijn hetzelfde maar het zijn 3 devices aangesloten aan een usb hub, moet ik deze wel 3x toevoegen of is 1x genoeg? In de gui heb ik use usb vendor/device is gekozen en dan zie je namelijk wel 3 namen van de devices erbij staan.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

TheMystery schreef op zaterdag 22 januari 2022 @ 10:06:
Ik heb sinds kort proxmox draaien voor home assistant en heb nu 5 usb devices toegevoegd aan de vm.
nu zou ik een 6e toe willen voegen maar dit gaat niet via de gui.
Nu was ik in de conf file aan het kijken en daar staat nu het volgende in:
usb0: host=10c4:ea60,usb3=1
usb1: host=16d6:0007,usb3=1
usb2: host=0403:6001,usb3=1
usb3: host=0403:6001,usb3=1
usb4: host=0403:6001,usb3=1

De onderste 3 id's zijn hetzelfde maar het zijn 3 devices aangesloten aan een usb hub, moet ik deze wel 3x toevoegen of is 1x genoeg?

In de gui heb ik use usb vendor/device is gekozen en dan zie je namelijk wel 3 namen van de devices erbij staan.
Mijn laptop heeft ook voor elke USB Controller dezelfde ID maar ik kan alleen effe niet vinden wat de verhouding t.o.v. de poorten is : Twee ID's maar ik heb 3 USB poorten...

Dus ik zou bijna gaan denken dat je elke poort van een apparaat met dezelfde ID aanspreekt, zodat er "geheugenruimte" over blijft op het moment dat je laten we zeggen een muis en toetsenbord tegelijk probeert aan te spreken via dezelfde USB Hub of Controller :?

Best wel een interessante vraag! :Y Doet ook je nickname eer aan! :D

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 22:15

Cyphax

Moderator LNX
TheMystery schreef op zaterdag 22 januari 2022 @ 10:06:
Ik heb sinds kort proxmox draaien voor home assistant en heb nu 5 usb devices toegevoegd aan de vm.
nu zou ik een 6e toe willen voegen maar dit gaat niet via de gui.
Nu was ik in de conf file aan het kijken en daar staat nu het volgende in:
usb0: host=10c4:ea60,usb3=1
usb1: host=16d6:0007,usb3=1
usb2: host=0403:6001,usb3=1
usb3: host=0403:6001,usb3=1
usb4: host=0403:6001,usb3=1

De onderste 3 id's zijn hetzelfde maar het zijn 3 devices aangesloten aan een usb hub, moet ik deze wel 3x toevoegen of is 1x genoeg? In de gui heb ik use usb vendor/device is gekozen en dan zie je namelijk wel 3 namen van de devices erbij staan.
Ik weet niet of die 3 gelijke id's wat uitmaken, maar het lijkt wel mogelijk te zijn om meer usb-devices toe te voegen: https://forum.proxmox.com...devices-in-vm-conf.26551/
Laatste post op pagina 2 is nog niet zo heel oud. :)

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

@Cyphax
Deze reactie : https://forum.proxmox.com...m-conf.26551/#post-176452
En die daarna lijken het interessantst als mogelijke oplossingen :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +4 Henk 'm!

  • UTMachine
  • Registratie: Juli 2000
  • Laatst online: 21:46
TheMystery schreef op zaterdag 22 januari 2022 @ 10:06:
Ik heb sinds kort proxmox draaien voor home assistant en heb nu 5 usb devices toegevoegd aan de vm.
nu zou ik een 6e toe willen voegen maar dit gaat niet via de gui.
Nu was ik in de conf file aan het kijken en daar staat nu het volgende in:
usb0: host=10c4:ea60,usb3=1
usb1: host=16d6:0007,usb3=1
usb2: host=0403:6001,usb3=1
usb3: host=0403:6001,usb3=1
usb4: host=0403:6001,usb3=1

De onderste 3 id's zijn hetzelfde maar het zijn 3 devices aangesloten aan een usb hub, moet ik deze wel 3x toevoegen of is 1x genoeg? In de gui heb ik use usb vendor/device is gekozen en dan zie je namelijk wel 3 namen van de devices erbij staan.
Google is op usbip (zit standaard in Debian 11) ... Dan hoef je niet te hobbieen/hacken en kan je je usb device via IP beschikbaar maken in je VM (Je VM ziet gewoon het device in /dev). Ik heb dit expliciet moeten doen voor de Z-Wave stick, want via de pass-through kreeg ik heel veel timeouts met OZW opstarten (dan poll die alle waarden).
Pagina: 1 ... 24 ... 61 Laatste