Acties:
  • 0 Henk 'm!

  • Woodski
  • Registratie: Maart 2006
  • Laatst online: 06-09 16:31
Op mijn proxmox host heb ik mijn storage geshared via Samba
Dat gaat goed met LXC's zoals Deluge (torrents)
Maar niet met de NextPVR (video recorder) in een privileged LXC

Samba mount, kan folders en files maken maar niet schrijven (blijft 0kb)

Dus ik ben geen testen met NFS en SSHFS mount
Dan kan hij wel schrijven maar de permissions worden 0644
Onder windows krijg ik dan de fout you require permissions from unix user\root

NextPVR is gestart als root
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
177 root 20 0 23.3g 231640 57768 S 6.3 11.0 3:42.07 dotne

NextPVR draait als root en ik mount de share zo:
sshfs -o allow_other root@192.168.1.10:/var/download /mnt/test

Dus hoe krijg ik het voor elkaar om files naar SSHFS met 77x rechten weg te schrijven ?
Ik heb wat zitten stoeien met /etc/pam.d/common-session maar schiet niets op
Wie kan me op weg helpen ?

[ Voor 8% gewijzigd door Woodski op 03-07-2022 16:03 ]


Acties:
  • +3 Henk 'm!

  • Peet3kabo
  • Registratie: Augustus 2018
  • Laatst online: 09-09 18:58
Ok weer wat verder..........denk ik
In pve fstab:
//192.168.1.12/Movies /mnt/ShareMovies cifs username=*****,password=******,iocharset=utf8,noperm 0 0
//192.168.1.12/Music /mnt/ShareMusic cifs username=*****,password=******,iocharset=utf8,noperm 0 0

Nu met mount -a geen fout

In: nano /etc/pve/lxc/103.conf heb ik nu de volgende regels gezet:
mp1: /mnt/Movies,mp=/Movies
mp2: /mnt/Music,mp=/Music

En je gelooft het niet, ik heb de gedeelde mappen in mijn Plex

Ik zou elke keer hier posten wat er fout ging of waarom het niet wou maar elke keer zag ik mijn eigen fout en herstellende weg kreeg ik het werkend.
Nu goed opschrijven voor de volgende keer haha

Volgende stap zal zijn om de oude Raspberry met Plex uit te zetten en volledig op deze te draaien. Kan ik van de oude situatie een 2TB schijf gebruiken voor in Proxmox om te kijken of we daarvan een soort Cloud Drive kunnen maken om Google Drive te vervangen

Acties:
  • +2 Henk 'm!

  • Peet3kabo
  • Registratie: Augustus 2018
  • Laatst online: 09-09 18:58
En een update hierop.......................
Ik heb gisteren de 2TB schijf toegevoegd aan de PM server en gemount aan OMV VM.
Hierna zie ik geen bestanden meer in Plex van de gedeelde schijven.
Al diverse malen geprobeerd om de toegevoegde regels te verwijderen en het path opnieuw toe te voegen en tevens aan te passen, maar krijg op dit moment op geen enkele mogelijkheid de bestanden weer in Plex te zien.

Wel zijn de gedeelde mappen gewoon in het netwerk te benaderen via SMB/CFIS.
Iemand een idee waar ik dit moet zoeken?


Edit, de plek waar je de regels in de CT neer zet maakt dus uit.
Helemaal onderaan neer gezet en nu heb ik alles wel weer |:( |:(

Noem het maar lurning curve :X

[ Voor 14% gewijzigd door Peet3kabo op 06-07-2022 20:22 ]


Acties:
  • 0 Henk 'm!

  • Peet3kabo
  • Registratie: Augustus 2018
  • Laatst online: 09-09 18:58
Hier mensen welke Nextcloud werkend hebben onder Proxmox 7?
Diverse manieren geprobeerd maar krijg het niet echt werkend.
De laatste poging is een CT en installeren via snapd, als ik dan een gebruiker aan wil maken blijft hij hangen lijkt het. Vindt hier wel iets over op internet maar niks wat echt helpt of een oplossing is.
Ik kan dan via het ip adres Nextcloud ook niet bereiken aangezien hij op 1 of andere manier niet opgestart is.

Edit, na lang spitten eindelijk voor elkaar. Ik kan in Nextcloud komen en tevens een SMB map vanaf Openmediavault toegevoegd, Het begin is er, nu uitzoeken hoe ik hem van buitenaf bereikbaar krijg. Zal wel iets met Nginx worden oid.

[ Voor 21% gewijzigd door Peet3kabo op 10-07-2022 21:52 ]


Acties:
  • +2 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

Peet3kabo schreef op zondag 10 juli 2022 @ 18:50:
Hier mensen welke Nextcloud werkend hebben onder Proxmox 7?
Diverse manieren geprobeerd maar krijg het niet echt werkend.
De laatste poging is een CT en installeren via snapd, als ik dan een gebruiker aan wil maken blijft hij hangen lijkt het. Vindt hier wel iets over op internet maar niks wat echt helpt of een oplossing is.
Ik kan dan via het ip adres Nextcloud ook niet bereiken aangezien hij op 1 of andere manier niet opgestart is.

Edit, na lang spitten eindelijk voor elkaar. Ik kan in Nextcloud komen en tevens een SMB map vanaf Openmediavault toegevoegd, Het begin is er, nu uitzoeken hoe ik hem van buitenaf bereikbaar krijg. Zal wel iets met Nginx worden oid.
Ik zou geen snap packages gebruiken in LXC containers. Zover ik weet gaat dat ook niet in unprivileged containers en privileged containers gebruik je liever niet. Ik zou aanraden om Nextcloud zelf te installeren.

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • Peet3kabo
  • Registratie: Augustus 2018
  • Laatst online: 09-09 18:58
orvintax schreef op maandag 11 juli 2022 @ 00:10:
[...]

Ik zou geen snap packages gebruiken in LXC containers. Zover ik weet gaat dat ook niet in unprivileged containers en privileged containers gebruik je liever niet. Ik zou aanraden om Nextcloud zelf te installeren.
Denk dat ik daar nu uiteindelijk ook achter was en daarom ook niet werkend kreeg. Heb nu een CT gemaakt met turnkey-nextcloud template.
Deze heb ik nu werkend voor zover.
Moet wel eerlijk zeggen dat veel informatie en uitleg online niet echt duidelijk is, laat vaak nog het nodige onduidelijke of uitzoekwerk over omdat vaak belangrijke dingen niet verteld worden. Maar maakt niet uit, dat maakt het een uitdaging........ ;)

Acties:
  • +2 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Het onhandige is vaak ook dat er belangrijke dingen zijn die niet verteld worden, omdat het niet op alle systemen van toepassing is. Vooral als je aan de slag gaat met containers kan je daar wel eens tegenaan lopen, want je moet bijvoorbeeld maar net weten dat Snap ook gebruik maakt van containers, en dat op zijn minst de optie 'Nesting' aan moet staan, of de container misschien wel privileged gemaakt moet worden.

Vorige week had ik nog het issue dat in containers de detectie van het aantal threads (van de CPU) blijkbaar anders werkt, en dat Gitlab daardoor doodleuk 0 workers gaf aan nginx (die daardoor geen request meer kon afhandelen. Ook dubieus dat 0 workers een geldige configuratie is overigens). Dat duurde ook nog wel even voordat ik het issue had gevonden.

Acties:
  • +1 Henk 'm!

  • Peet3kabo
  • Registratie: Augustus 2018
  • Laatst online: 09-09 18:58
dcm360 schreef op maandag 11 juli 2022 @ 10:00:
Het onhandige is vaak ook dat er belangrijke dingen zijn die niet verteld worden, omdat het niet op alle systemen van toepassing is. Vooral als je aan de slag gaat met containers kan je daar wel eens tegenaan lopen, want je moet bijvoorbeeld maar net weten dat Snap ook gebruik maakt van containers, en dat op zijn minst de optie 'Nesting' aan moet staan, of de container misschien wel privileged gemaakt moet worden.

Vorige week had ik nog het issue dat in containers de detectie van het aantal threads (van de CPU) blijkbaar anders werkt, en dat Gitlab daardoor doodleuk 0 workers gaf aan nginx (die daardoor geen request meer kon afhandelen. Ook dubieus dat 0 workers een geldige configuratie is overigens). Dat duurde ook nog wel even voordat ik het issue had gevonden.
Dat soort dingen dus idd, diverse malen tegen zulke issues aangelopen maar doorspitten en blijven proberen kom je er uiteindelijk wel. Denk dat ik ondertussen wel 10 keer een nieuwe CT heb gemaakt voor Nextcloud |:( |:(

Acties:
  • 0 Henk 'm!

  • vortexnl1982
  • Registratie: Augustus 2014
  • Laatst online: 15:58
Heb een containertje aangemaakt met debian en daarop sabnzb en transmission geinstalleerd. Daarnaast een ander containertje met turnkey fileserver.

Op de proxmox server zelf heb ik een ZFS pool aangemaakt. Ik kan de zfs pool aanspreken op de proxmox host zelf. Ik kan 'm ook mounten op 1 container.

Als ik echter dezelfde zfs pool laat mounten op een andere container dan krijg ik opeens een ander subvolume. En die container krijgt dan een lege storage..

Kan ik dezelfde ZFS pool over containers heen delen ? Dus zonder een constructie met samba etc ?

Acties:
  • +3 Henk 'm!

  • XiMMiX
  • Registratie: Mei 2012
  • Laatst online: 12-09 15:37
vortexnl1982 schreef op dinsdag 12 juli 2022 @ 22:13:
Heb een containertje aangemaakt met debian en daarop sabnzb en transmission geinstalleerd. Daarnaast een ander containertje met turnkey fileserver.

Op de proxmox server zelf heb ik een ZFS pool aangemaakt. Ik kan de zfs pool aanspreken op de proxmox host zelf. Ik kan 'm ook mounten op 1 container.

Als ik echter dezelfde zfs pool laat mounten op een andere container dan krijg ik opeens een ander subvolume. En die container krijgt dan een lege storage..

Kan ik dezelfde ZFS pool over containers heen delen ? Dus zonder een constructie met samba etc ?
Je kan een ZFS filesystem maken en dat als een bind mount point aan je container toevoegen (moet buiten GUI om):
https://pve.proxmox.com/w...tainer#_bind_mount_points
Je kan hetzelfde ZFS filesystem aan meerdere containers als bind mount point toevoegen.

Acties:
  • 0 Henk 'm!

  • vortexnl1982
  • Registratie: Augustus 2014
  • Laatst online: 15:58
XiMMiX schreef op dinsdag 12 juli 2022 @ 23:50:
[...]


Je kan een ZFS filesystem maken en dat als een bind mount point aan je container toevoegen (moet buiten GUI om):
https://pve.proxmox.com/w...tainer#_bind_mount_points
Je kan hetzelfde ZFS filesystem aan meerdere containers als bind mount point toevoegen.
Yes, werkt _/-\o_

Ik heb het gedaan met het pct commando :
pct set 101 -mp0 storage1/subvol-100-disk-0,mp=/mnt/storage
Zit nu wel met de user/groupids mismatch tussen host en containers natuurlijk... Maar even chmod -R 777 gedaan zodat ik verder kan...

[ Voor 11% gewijzigd door vortexnl1982 op 13-07-2022 08:06 ]


Acties:
  • +1 Henk 'm!

  • XiMMiX
  • Registratie: Mei 2012
  • Laatst online: 12-09 15:37
vortexnl1982 schreef op woensdag 13 juli 2022 @ 07:53:
[...]


Yes, werkt _/-\o_

Ik heb het gedaan met het pct commando :


[...]


Zit nu wel met de user/groupids mismatch tussen host en containers natuurlijk... Maar even chmod -R 777 gedaan zodat ik verder kan...
Inderdaad, voor unprivileged containers worden de UIDs uit de container vertaald naar een UID 100.000 hoger op de host.

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Misschien een beetje een rare vraag, maar ik heb een Windows 10 VM draaiend in Proxmox. Nu geeft deze 1x in de zoveel tijd een zwart scherm als ik probeer te connecten via RDP. Ik dacht eerst dat het lag aan het snapshot moment, maar ik heb dit nu uitgezet en het gebeurt nog steeds zo nu en dan (at random). Hoe troubleshoot ik dit issue? Enige oplossing die ik heb is de VM rebooten vanuit de Proxmox GUI, maar handig is anders...

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +1 Henk 'm!

  • Polyphemus
  • Registratie: Maart 2003
  • Laatst online: 18:56
Sp33dFr34k schreef op vrijdag 5 augustus 2022 @ 15:53:
Misschien een beetje een rare vraag, maar ik heb een Windows 10 VM draaiend in Proxmox. Nu geeft deze 1x in de zoveel tijd een zwart scherm als ik probeer te connecten via RDP. Ik dacht eerst dat het lag aan het snapshot moment, maar ik heb dit nu uitgezet en het gebeurt nog steeds zo nu en dan (at random). Hoe troubleshoot ik dit issue? Enige oplossing die ik heb is de VM rebooten vanuit de Proxmox GUI, maar handig is anders...
Heb je die qemu-tools geïnstalleerd in de VM zelf? Daar zitten ook drivers in namelijk.

Acties:
  • +1 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Polyphemus schreef op vrijdag 5 augustus 2022 @ 16:02:
[...]

Heb je die qemu-tools geïnstalleerd in de VM zelf? Daar zitten ook drivers in namelijk.
Yes, die zijn geïnstalleerd inderdaad. Anders zou je volgens mij helemaal niet kunnen verbinden via RDP.

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +1 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 07:42
Sp33dFr34k schreef op vrijdag 5 augustus 2022 @ 16:05:
[...]


Yes, die zijn geïnstalleerd inderdaad. Anders zou je volgens mij helemaal niet kunnen verbinden via RDP.
ligt eraan welke virtual hardware je hebt geinstalleerd.

controleer de powersettings eens in je windows vm.

Acties:
  • +1 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 17:31
Ik heb stabiliteitsproblemen met een van mijn nodes en het lijkt door Bluetooth te komen. Die lijkt zich "aan en uit te zetten", zie 2x lsusb achter elkaar.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
root@proxmox:/proc# lsusb
Bus 001 Device 002: ID 8087:8001 Intel Corp. Integrated Hub
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 003 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Bus 002 Device 003: ID 0403:6001 Future Technology Devices International, Ltd FT232 Serial (UART) IC
Bus 002 Device 002: ID 1a86:7523 QinHeng Electronics CH340 serial converter
Bus 002 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
root@proxmox:/proc# lsusb
Bus 001 Device 002: ID 8087:8001 Intel Corp. Integrated Hub
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 003 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Bus 002 Device 022: ID 8087:0a2a Intel Corp. Bluetooth wireless interface
Bus 002 Device 003: ID 0403:6001 Future Technology Devices International, Ltd FT232 Serial (UART) IC
Bus 002 Device 002: ID 1a86:7523 QinHeng Electronics CH340 serial converter
Bus 002 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub

Als ik dmesg bekijk, zie ik een timeout op de en dat de reset failed.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
root@proxmox:/proc# dmesg | egrep -i 'blue|firm' 
[    0.149505] Spectre V2 : Enabling Restricted Speculation for firmware calls
[    6.407245] Bluetooth: Core ver 2.22
[    6.407263] NET: Registered PF_BLUETOOTH protocol family
[    6.407264] Bluetooth: HCI device and connection manager initialized
[    6.407267] Bluetooth: HCI socket layer initialized
[    6.407269] Bluetooth: L2CAP socket layer initialized
[    6.407273] Bluetooth: SCO socket layer initialized
[    8.443453] Bluetooth: hci0: command 0x0c03 tx timeout
[   16.475454] Bluetooth: hci0: sending initial HCI reset failed (-110)
[   20.731457] Bluetooth: hci0: command 0x0c03 tx timeout
[   28.763452] Bluetooth: hci0: sending initial HCI reset failed (-110)
[   33.019456] Bluetooth: hci0: command 0x0c03 tx timeout
[   40.959590] Bluetooth: hci0: sending initial HCI reset failed (-110)
[   45.328031] Bluetooth: hci0: command 0x0c03 tx timeout
[   53.359875] Bluetooth: hci0: sending initial HCI reset failed (-110)
[   57.601274] Bluetooth: hci0: command 0x0c03 tx timeout
[   65.620767] Bluetooth: hci0: sending initial HCI reset failed (-110)

Eerlijk gezegd zou ik het liefst Bluetooth blocken (ik dacht, is handig om in Homeassistant te hebben, niet echt toegevoegde waarde). Het heeft al die tijd aangestaan en eigelijk recent zijn de problemen begonnen. Vanmorgen een crash, waarna ik moest rebooten:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
Aug 12 09:41:09 proxmox kernel: usb 2-7: new full-speed USB device number 117 using xhci_hcd
Aug 12 09:41:10 proxmox kernel: usb 2-7: device descriptor read/64, error -71
Aug 12 09:41:10 proxmox kernel: usb 2-7: device descriptor read/64, error -71
Aug 12 09:41:10 proxmox kernel: usb usb2-port7: attempt power cycle
Aug 12 09:41:11 proxmox kernel: usb 2-7: new full-speed USB device number 118 using xhci_hcd
Aug 12 09:41:11 proxmox kernel: usb 2-7: New USB device found, idVendor=8087, idProduct=0a2a, bcdDevice= 0.01
Aug 12 09:41:11 proxmox kernel: usb 2-7: New USB device strings: Mfr=0, Product=0, SerialNumber=0
Aug 12 09:41:11 proxmox systemd[1]: Reached target Bluetooth.
Aug 12 09:41:13 proxmox kernel: usb 2-7: USB disconnect, device number 118
Aug 12 09:41:13 proxmox kernel: Bluetooth: hci0: command 0x0c03 tx timeout
-- Reboot --
Aug 12 10:58:31 proxmox kernel: Linux version 5.15.39-3-pve (build@proxmox) (gcc (Debian 10.2.1-6) 10.2.1 20210110, GNU ld (GNU Binutils for Debian) 2.35.2) #2 SMP PVE 5.15.39-3 (Wed, 27 Jul 2022 13:45:39 +0200) ()
Aug 12 10:58:31 proxmox kernel: Command line: BOOT_IMAGE=/boot/vmlinuz-5.15.39-3-pve root=/dev/mapper/pve-root ro quiet intel_iommu=on pcie_aspm=off
Aug 12 10:58:31 proxmox kernel: KERNEL supported cpus:
Aug 12 10:58:31 proxmox kernel:   Intel GenuineIntel
Aug 12 10:58:31 proxmox kernel:   AMD AuthenticAMD
Aug 12 10:58:31 proxmox kernel:   Hygon HygonGenuine
Aug 12 10:58:31 proxmox kernel:   Centaur CentaurHauls
Aug 12 10:58:31 proxmox kernel:   zhaoxin   Shanghai


Iemand een idee (behalve een scherm aansluiten en bluetooth in de bios uitschakelen)?.
============ update ============
Inmiddels scherm, toetsenbord aangesloten, bluetooth disabled in de BIOS. Geen foutmeldingen meer....

Acties:
  • 0 Henk 'm!

  • iGadget
  • Registratie: Januari 2000
  • Laatst online: 06-07 11:46

iGadget

Wowsers!

XiMMiX schreef op dinsdag 12 juli 2022 @ 23:50:
[...]
Je kan hetzelfde ZFS filesystem aan meerdere containers als bind mount point toevoegen.
Wow, dat is wel vet. En dat kan dan ook R/W?

En hoe werkt dat dan als je een ZFS filesystem deelt met meerdere containers en je migreert één van die containers naar een andere PVE node? Bij een exclusief filesystem wordt alles mee gemigreert, maar dat kan in dit geval natuurlijk niet...

"I'll just use my Go-Go-Gadget handbook!"


Acties:
  • +1 Henk 'm!

  • XiMMiX
  • Registratie: Mei 2012
  • Laatst online: 12-09 15:37
iGadget schreef op woensdag 31 augustus 2022 @ 15:37:
[...]

Wow, dat is wel vet. En dat kan dan ook R/W?

En hoe werkt dat dan als je een ZFS filesystem deelt met meerdere containers en je migreert één van die containers naar een andere PVE node? Bij een exclusief filesystem wordt alles mee gemigreert, maar dat kan in dit geval natuurlijk niet...
Ja, dat kan ook R/W.

Ik heb geen ervaring met meerdere nodes, maar ik zie niet hoe dit kan werken met migratie. ZFS is geen distributed filesystem. Ik neem aan dat als je met meerdere nodes werkt je dan ook geen ZFS gebruikt, maar Ceph.

Acties:
  • +2 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 09-09 15:31

icecreamfarmer

en het is

icecreamfarmer schreef op woensdag 16 maart 2022 @ 12:04:
Iemand een idee hoe ik de lokale storage van proxmox (dus de storage waar proxmox zelf vanaf draait) kan vergroten zonder een compleet nieuwe install te moeten doen?
Dus dit: Storage 'local' on node 'proxmox' .
Die is door proxmox tijdens de install op 7,5 gb gezet en kon ik toen niet aanpassen. Maar na 2 updates is hij nu helemaal vol en ik er niets meer mee.

Iemand ideeën hoe ik dat volume kan vergroten?


Edit:
Hier staat de oplossing denk ik maar vraag mij af hoe dat werkt.

https://forum.proxmox.com...size-local-storage.72241/
Ik heb zelf het antwoord gevonden via:
https://forum.proxmox.com...local-lvm-and-how.105263/
En dan:
YouTube: Virtual Machines Pt. 2 (Proxmox install w/ Kali Linux)

Werkte goed. Eindelijk is het resizen van Local goed gegaan en ben ik van die nutteloze local-lvm af.
Alles bleef in de tussentijd nog draaien ook. _/-\o_

Overigens zag ik deze comment daar bij staan:
Quick tip(s): Check the Option "Qemu Agent" and "Advanced". Use the Ballooning Option for RAM and select "Host" as the CPU Type, instead of Emulating the kvm64. Also you cant do updates on Proxmox, if you dont enable them for the Free Version. You can check how that works in the Wiki. Its done in like 30 seconds. And as a last step: Install Qemu-guest-agent in all Linux VMs. You can see stats outside the VM then. Like IP n Stuff. Also gives better Performance as far as i know. Its something like the VMWare Tools on ESXi.
Is dit echt zinvol?

----------------------------------------------
Edit:

Nu met GPU passthrough naar een lxc bezig waar plex op staat. Ik heb een thinclient met geintgreerde amd gpu.
https://forum.proxmox.com...mdgpu-on-proxmox-7.95285/
2. **Proxmox Host:** Add them to the LXC configuration file.

nano /etc/pve/lxc/LXC_ID.conf
add the lines below...

lxc.cgroup2.devices.allow: c 226:0 rwm
lxc.cgroup2.devices.allow: c 226:128 rwm
lxc.mount.entry: /dev/dri/card0 dev/dri/card0 none bind,optional,create=file
lxc.mount.entry: /dev/dri/renderD128 dev/dri/renderD128 none bind,optional,create=file
Dit gevolgd maar nu werkt mijn dns resolver niet meer? Dit terwijl ik een gpu wil toevoegen?

En alweer opgelost. Blijkbaar bij de update heeft Tailscale zijn magic dns ingesteld waardoor het niet meer werkte.


---------------------------

Oke nu het spel om amdpro drivers te installeren via CLI.
Verschillende sites gevolgd maar ik hang al bij het downloaden.
Via curl een deb gedownload maar dat geeft ook foutmeldingen. Iemand ideeen?

[ Voor 24% gewijzigd door icecreamfarmer op 04-09-2022 18:17 ]

ik zie ik zie wat jij niet ziet


Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 12:42

zeroday

There is no alternative!

[b]icecreamfarmer in "Het grote Proxmox VE topic"icecreamfarmer schreef op zondag 4 september 2022 @i.Stijn Beetje ---------------------------

Oke nu het spel om amdpro drivers te installeren via CLI.
Verschillende sites gevolgd maar ik hang al bij het downloaden.
Via curl een deb gedownload maar dat geeft ook foutmeldingen. Iemand ideeen?
Beetje lastig als je niet meer info geeft
welke fout, welke deb
kan je er via een ander systeem wel bij?
etc.

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 09-09 15:31

icecreamfarmer

en het is

zeroday schreef op maandag 5 september 2022 @ 09:41:
[...]


Beetje lastig als je niet meer info geeft
welke fout, welke deb
kan je er via een ander systeem wel bij?
etc.
Het is meer de basis dat ik het uberhaupt niet voor elkaar krijg. Alle manuals beginnen met download via website en dan ga er via de cli naar toe. Ik ga al fout bij het downloaden.

ik zie ik zie wat jij niet ziet


Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 12:42

zeroday

There is no alternative!

icecreamfarmer schreef op dinsdag 6 september 2022 @ 08:36:
[...]


Het is meer de basis dat ik het uberhaupt niet voor elkaar krijg. Alle manuals beginnen met download via website en dan ga er via de cli naar toe. Ik ga al fout bij het downloaden.
Snap ik, maar als jij niet verteld
hoe jij via de cli het probeert te downloaden (curl / wget ?)
waar jij die download vandaan wil halen (link)
dan kan niemand je verder helpen.
want als die link een 404 geeft dan tsja.. moet je op zoek naar een andere link
en soms is de website niet echt vriendelijk omdat er een redirect in de download zit ..

Dus geef nu aan hoe je iets wil downloaden, waarvandaan je het wil downloaden en laat je cli info / errors zien

Pas dan kan wellicht iemand je helpen

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 09-09 15:31

icecreamfarmer

en het is

zeroday schreef op dinsdag 6 september 2022 @ 08:52:
[...]


Snap ik, maar als jij niet verteld
hoe jij via de cli het probeert te downloaden (curl / wget ?)
waar jij die download vandaan wil halen (link)
dan kan niemand je verder helpen.
want als die link een 404 geeft dan tsja.. moet je op zoek naar een andere link
en soms is de website niet echt vriendelijk omdat er een redirect in de download zit ..

Dus geef nu aan hoe je iets wil downloaden, waarvandaan je het wil downloaden en laat je cli info / errors zien

Pas dan kan wellicht iemand je helpen
Ah sorry.
Ik probeer dit te volgen:
https://www.amd.com/en/support/kb/faq/gpu-643

Heb het via curl geprobeerd.

ik zie ik zie wat jij niet ziet


Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 12:42

zeroday

There is no alternative!

icecreamfarmer schreef op dinsdag 6 september 2022 @ 10:11:
[...]


Ah sorry.
Ik probeer dit te volgen:
https://www.amd.com/en/support/kb/faq/gpu-643

Heb het via curl geprobeerd.
Downloaden via je browser, en dan via bijv winscp op je server zetten
op de een of andere manier (er zal vast wel een wget of curl optie zijn) krijg je een authorisatie probleem

Je krijgt deze error

<H1>Access Denied</H1>

You don't have permission to access
etc

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • Step5
  • Registratie: Oktober 2011
  • Laatst online: 11-09 22:49
zeroday schreef op dinsdag 6 september 2022 @ 14:49:
[...]


Downloaden via je browser, en dan via bijv winscp op je server zetten
op de een of andere manier (er zal vast wel een wget of curl optie zijn) krijg je een authorisatie probleem

Je krijgt deze error

<H1>Access Denied</H1>

You don't have permission to access
etc
Weet zo snel niet meer 100% maar volgens mij was het met firefox devtools, netwerkmonitor. Dan de download starten tot het echt gaat downloaden, dan zie je de uiteindelijke GET of POST request in de netwerkmonitor lijst, daar op met rechtermuisknop copy/copy as cURL. En dan plakken in je terminal.
Geen idee trouwens of dat in dit specifieke geval ook werkt. Kon er ook niet te lang mee wachten meestal.

Acties:
  • 0 Henk 'm!

  • sypie
  • Registratie: Oktober 2000
  • Niet online
Omdat het niet in een V&A paste maar wel hier volgens een mod plaats ik mijn vraag ook maar hier.

Ik heb op mijn Synology een VM draaien met daarin Proxmox. In die PVE heb ik een aantal LXC's, draait als een tiet. Nu is mijn PVE opslag nagenoeg vol, mijn Synology nog lang niet. Met al mijn missende kennis zou ik toch graag de ruimte voor de PVE groter willen hebben. Met de online commando's lukt dat niet, ik ben ook niet echt thuis in Linux en z'n terminal. Soms ontkom ik er niet aan en doe ik copy-paste als het even kan.

Is er iemand die mij remote kan assisteren met het vergroten van de opslagruimte voor mijn PVE? Dit kan via AnyDesk (bij voorkeur).

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 07:42
sypie schreef op vrijdag 9 september 2022 @ 19:29:
Omdat het niet in een V&A paste maar wel hier volgens een mod plaats ik mijn vraag ook maar hier.

Ik heb op mijn Synology een VM draaien met daarin Proxmox. In die PVE heb ik een aantal LXC's, draait als een tiet. Nu is mijn PVE opslag nagenoeg vol, mijn Synology nog lang niet. Met al mijn missende kennis zou ik toch graag de ruimte voor de PVE groter willen hebben. Met de online commando's lukt dat niet, ik ben ook niet echt thuis in Linux en z'n terminal. Soms ontkom ik er niet aan en doe ik copy-paste als het even kan.

Is er iemand die mij remote kan assisteren met het vergroten van de opslagruimte voor mijn PVE? Dit kan via AnyDesk (bij voorkeur).
Ik heb geen tijd om je te remote te helpen maar het makkelijkste is om een NFS share aan te maken op je Synology en deze via Proxmox aan te bieden ( Datacenter, Storage)

Kan allemaal gewoon via de Gui ;)

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

sypie schreef op vrijdag 9 september 2022 @ 19:29:
Ik heb op mijn Synology een VM draaien met daarin Proxmox.
Dat klinkt echt heel erg als echt vreselijk verkeerd bezig zijn! :X

Doe jezelf een lol en overweeg bijvoorbeeld een Intel NUCje als Dedicated Proxmox bakkie! ;)

De NAS kan je dan altijd nog als extra opslag gebruiken :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • sypie
  • Registratie: Oktober 2000
  • Niet online
Waarom is een VM op een Synology echt vreselijk verkeerd? Mijn Syno kan dat allemaal prima bolwerken (extra cache SSD's, 18GB RAM en meer dan voldoende opslag.) Het draait prima en ik zie écht niet in waarom dat niet zou werken.

Ik heb liever mijn Syno die dergelijke taken voor mij doet dan een extra NUC of vergelijkbaar. Zoveel zware dingen doet die Syno niet en wát die doet is allemaal voor mezelf.

Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

sypie schreef op zaterdag 10 september 2022 @ 21:42:
Waarom is een VM op een Synology echt vreselijk verkeerd?
Je draait een VM omgeving binnen een VM dus je hebt overhead en straks eventueel zelfs allerlei rare problemen erbij door die setup! :/
Mijn Syno kan dat allemaal prima bolwerken (extra cache SSD's, 18GB RAM en meer dan voldoende opslag.)
v.s.
Zoveel zware dingen doet die Syno niet en wát die doet is allemaal voor mezelf.
Waarom dan zelfs Caching SSD's i.c.m. zoveel RAM :?
Het draait prima en ik zie écht niet in waarom dat niet zou werken.
Dergelijke uitspraken worden vaak opgevolgd door een "Maar het heeft altijd zo gewerkt!" in de toekomst op het moment dat er iets misgaat... ;)
Ik heb liever mijn Syno die dergelijke taken voor mij doet dan een extra NUC of vergelijkbaar.
Uiteindelijk ieder zijn ding en zo, maar hou er gewoon rekening mee dat het niet echt bepaald handig is om het zo te doen! :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:50
nero355 schreef op zaterdag 10 september 2022 @ 22:55:
[...]

Je draait een VM omgeving binnen een VM dus je hebt overhead en straks eventueel zelfs allerlei rare problemen erbij door die setup! :/
Gelukkig forceert Proxmox je niet om VMs te gebruiken. En ik kan uit de voorgaande berichten ook niet zo snel opmaken dat @sypie VMs gebruikt of LXC. En met LXC draai je natuurlijk geen nested VM met bijkomende problemen. Maar alleen een set aan geïsoleerde processen op de normale (Proxmox) kernel.

Acties:
  • 0 Henk 'm!

  • sypie
  • Registratie: Oktober 2000
  • Niet online
@nero355 Die SSD'S en extra RAM waren "omdat het kon". Mijn vorige Syno was aardig traag, dat wilde ik niet weer. Daarom meteen de upgrades gedaan bij het uitpakken. Ik kan je dus niet vertellen of het echt verschil maakt met een standaard configuratie.

Zoals ik het heb opgezet :
VM met Proxmox en daarin een aantal containers. Er draaien binnen PVE geen andere VM's.

Op de Syno draaien naast PVE nog wel 2 andere VM's (heel af en toe wanneer ik die even nodig heb, dus niet constant). Dit alles binnen de VM manager van Synology. Ik ben nooit van plan geweest en zal ook nooit VM's binnen PVE opzetten. Ik ben me er bewust van dat een geneste VM meer gedoe kan opleveren dan een standaard VM.

Omdat ik in het verleden een pakket via Docker aan de praat heb gekregen maar daar nu ook een Turnkey container voor is, wilde ik die overzetten. Daardoor kwam ik tot de conclusie dat de ruimte voor mijn PVE te klein is.

Vandaar de vraag of iemand dat remote zou willen en kunnen doen.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

@RobertMe @sypie

Ik zou dan dus eerder kiezen voor Docker direct op de NAS zelf en dat zeg ik dan zelfs als iemand die best wel een hekel aan Docker heeft! :)

Maar wat LXCtjes onder Proxmox zou misschien nog wel net kunnen...

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:50
nero355 schreef op maandag 12 september 2022 @ 13:18:
@RobertMe @sypie

Ik zou dan dus eerder kiezen voor Docker direct op de NAS zelf en dat zeg ik dan zelfs als iemand die best wel een hekel aan Docker heeft! :)

Maar wat LXCtjes onder Proxmox zou misschien nog wel net kunnen...
Docker en LXC zijn wel nogal erg verschillend. Ze gebruiken dan wel dezelfde kernel features v.w.b. proces isolatie etc. Maar verder lijken ze totaal niet op elkaar. LXC is een soort VM alleen dan zonder kernel / op de kernel van hypervisor. Docker is gericht op het draaien van één enkel proces in een geïsoleerde omgeving waarbij ook nog eens het eeployen etc vergemakkelijkt wordt.
Beetje als zeggen dat een motor("fiets") en auto hetzelfde zijn. Alleen is een motor bedoeld voor een, hoogstens twee, personen, en kun je in een auto met 5 man als niet meer. Beiden gebruiken dezelfde infrastructuur (wegennet) maar de rest is toch echt verschillend.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

RobertMe schreef op maandag 12 september 2022 @ 13:42:
Docker en LXC zijn wel nogal erg verschillend.

Ze gebruiken dan wel dezelfde kernel features v.w.b. proces isolatie etc. Maar verder lijken ze totaal niet op elkaar. LXC is een soort VM alleen dan zonder kernel / op de kernel van hypervisor. Docker is gericht op het draaien van één enkel proces in een geïsoleerde omgeving waarbij ook nog eens het eeployen etc vergemakkelijkt wordt.
Dat weet ik ook wel, maar het punt is dat die kant en klare NASjes dat vaak gewoon ondersteunen, terwijl ze niks met LXC doen, want kreupel embedded systeem met BusyBox en dergelijken... :-(

Één van de reden dat ik liever voor een DIY NAS kies dan zo'n ding koop! :)
Beetje als zeggen dat een motor("fiets") en auto hetzelfde zijn. Alleen is een motor bedoeld voor een, hoogstens twee, personen, en kun je in een auto met 5 man als niet meer. Beiden gebruiken dezelfde infrastructuur (wegennet) maar de rest is toch echt verschillend.
Dat soort vergelijkingen kan je beter niet maken... "Rule #1 on the Internet" en zo...

/Oude MEME voordat het woord MEME überhaupt bestond! ;) :+

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • iGadget
  • Registratie: Januari 2000
  • Laatst online: 06-07 11:46

iGadget

Wowsers!

XiMMiX schreef op zaterdag 3 september 2022 @ 10:26:
Ja, dat kan ook R/W.

Ik heb geen ervaring met meerdere nodes, maar ik zie niet hoe dit kan werken met migratie. ZFS is geen distributed filesystem. Ik neem aan dat als je met meerdere nodes werkt je dan ook geen ZFS gebruikt, maar Ceph.
Hoe vet. Maar ik gebruik (nog) geen Ceph, wel ZFS op iedere node. Dus denk dat je dan heeeeel voorzichtig moet zijn als je containers gaan migreren naar andere nodes. Of mss blokkeert PVE zelf de migratie wel, dat gebeurt al vrij snel als een bepaalde resource niet exclusief is of niet aanwezig is op de node waar naartoe gemigreerd wordt.

"I'll just use my Go-Go-Gadget handbook!"


Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

nero355 schreef op maandag 12 september 2022 @ 14:44:
[...]

Dat weet ik ook wel, maar het punt is dat die kant en klare NASjes dat vaak gewoon ondersteunen, terwijl ze niks met LXC doen, want kreupel embedded systeem met BusyBox en dergelijken... :-(

Één van de reden dat ik liever voor een DIY NAS kies dan zo'n ding koop! :)


[...]

Dat soort vergelijkingen kan je beter niet maken... "Rule #1 on the Internet" en zo...

/Oude MEME voordat het woord MEME überhaupt bestond! ;) :+
Als ik me niet vergis is er maar een paar procent overhead die je krijgt door te virtualizeren met iets als QEMU. Ondanks dat het misschien direct in Docker kan denk ik niet dat het qua performance enig relevant verschil maakt. Wat wel een relevant verschil maakt is dat OP misschien liever/fijner/beter overweg kan met LXC in plaarts van Docker.

https://dontasktoask.com/


Acties:
  • +4 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 12:42

zeroday

There is no alternative!

zo zo .. ze hebben wat nieuws

https://forum.proxmox.com...e-mirror-released.115219/

Proxmox Offline Mirror ..

There are no secrets, only information you do not yet have


  • Flappie
  • Registratie: Februari 2001
  • Laatst online: 14:07
Weet iemand wat het vinkje "VLAN Aware" doet op de bridge interface?
Ik heb een (simpele) proxmox machine met 1 netwerkkaart.
Management en VM's zitten op deze bridge. Op de bridge staat het vinkje VLAN Aware NIET aan.
Echter heb ik gewoon allerlei VM's in VLAN's zitten en dat werkt prima.
Zou ik dat vinkje dan aan moeten zetten?

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

Flappie schreef op woensdag 21 september 2022 @ 20:08:
Weet iemand wat het vinkje "VLAN Aware" doet op de bridge interface?
Ik heb een (simpele) proxmox machine met 1 netwerkkaart.
Management en VM's zitten op deze bridge. Op de bridge staat het vinkje VLAN Aware NIET aan.
Echter heb ik gewoon allerlei VM's in VLAN's zitten en dat werkt prima.
Zou ik dat vinkje dan aan moeten zetten?
De theorie is dat je met vmbr, meerdere vlans kunt gebruiken op die vmbr.
Zonder heeft het instellen van een vlan op de vm's geen nut, omdat de bridge het allemaal toch in 1 vlan duwt.

https://www.oreilly.com/l...0-a6e0-7f4d56614dae.xhtml

Kortom, weet je zeker dat je vm's op vlan niveau gescheiden zijn? (Of verwar je per ongeluk een vlan met een subnet?)

Ná Scaoll. - Don’t Panic.


  • Flappie
  • Registratie: Februari 2001
  • Laatst online: 14:07
Ja hoor, alles in een eigen vlan en dat werkt prima.

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

Flappie schreef op woensdag 21 september 2022 @ 21:38:
Ja hoor, alles in een eigen vlan en dat werkt prima.
Hier staat de hele uitleg:
https://pve.proxmox.com/wiki/Network_Configuration

Ik neig er naar dat als je het niet aan hebt staan, de hele bende effectief in 1 vlan zit en hooguit gescheiden is op subnet. Niet 100% zeker van, maar volgens de beschrijving is dat vinkje wel noodzakelijk om je vmbr uberhaupt bewust te maken van het feit dat je vlans gebruikt.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 17:31
Ik heb al een aantal dagen dat mijn proxmox server vastloopt. Daarbij is steeds de laatste melding in de syslog als hieronder (na de cronjob dus). Ik moet daarna een fysieke reboot doen.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
Oct 07 06:05:14 proxmox smartd[753]: Device: /dev/sda [SAT], SMART Usage Attribute: 242 Total_LBAs_Read changed from 94 to 100
Oct 07 06:17:01 proxmox CRON[1186118]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Oct 07 06:17:01 proxmox CRON[1186119]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Oct 07 06:17:01 proxmox CRON[1186118]: pam_unix(cron:session): session closed for user root
Oct 07 06:25:01 proxmox CRON[1189598]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Oct 07 06:25:01 proxmox CRON[1189599]: (root) CMD (test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.daily ))
Oct 07 06:25:01 proxmox CRON[1189598]: pam_unix(cron:session): session closed for user root
Oct 07 06:58:19 proxmox systemd[1]: Starting Daily apt upgrade and clean activities...
Oct 07 06:58:19 proxmox systemd[1]: apt-daily-upgrade.service: Succeeded.
Oct 07 06:58:19 proxmox systemd[1]: Finished Daily apt upgrade and clean activities.
Oct 07 07:17:01 proxmox CRON[1212250]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Oct 07 07:17:01 proxmox CRON[1212251]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Oct 07 07:17:01 proxmox CRON[1212250]: pam_unix(cron:session): session closed for user root

Na 7:17 zijn er geen meldingen meer in de syslog totdat ik rebootte.
Onder CLI voor de root user heb ik geen cronzaken lopen. Ik heb geen automatische backups scheduled. cron.hourly is ook leeg. Voor en na de reboot, heeft dezelfde cronjob blijkbaar zonder problemen gelopen (6:17 en 8:17)
Iemand een idee waar ik moet beginnen met zoeken, want de WAF begint af te nemen als de DNS uitvalt (LXC) en de home automation er mee ophoudt (VM).

Acties:
  • 0 Henk 'm!

  • Polyphemus
  • Registratie: Maart 2003
  • Laatst online: 18:56
htca schreef op vrijdag 7 oktober 2022 @ 08:42:
Ik heb al een aantal dagen dat mijn proxmox server vastloopt. Daarbij is steeds de laatste melding in de syslog als hieronder (na de cronjob dus). Ik moet daarna een fysieke reboot doen.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
Oct 07 06:05:14 proxmox smartd[753]: Device: /dev/sda [SAT], SMART Usage Attribute: 242 Total_LBAs_Read changed from 94 to 100
Oct 07 06:17:01 proxmox CRON[1186118]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Oct 07 06:17:01 proxmox CRON[1186119]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Oct 07 06:17:01 proxmox CRON[1186118]: pam_unix(cron:session): session closed for user root
Oct 07 06:25:01 proxmox CRON[1189598]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Oct 07 06:25:01 proxmox CRON[1189599]: (root) CMD (test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.daily ))
Oct 07 06:25:01 proxmox CRON[1189598]: pam_unix(cron:session): session closed for user root
Oct 07 06:58:19 proxmox systemd[1]: Starting Daily apt upgrade and clean activities...
Oct 07 06:58:19 proxmox systemd[1]: apt-daily-upgrade.service: Succeeded.
Oct 07 06:58:19 proxmox systemd[1]: Finished Daily apt upgrade and clean activities.
Oct 07 07:17:01 proxmox CRON[1212250]: pam_unix(cron:session): session opened for user root(uid=0) by (uid=0)
Oct 07 07:17:01 proxmox CRON[1212251]: (root) CMD (   cd / && run-parts --report /etc/cron.hourly)
Oct 07 07:17:01 proxmox CRON[1212250]: pam_unix(cron:session): session closed for user root

Na 7:17 zijn er geen meldingen meer in de syslog totdat ik rebootte.
Onder CLI voor de root user heb ik geen cronzaken lopen. Ik heb geen automatische backups scheduled. cron.hourly is ook leeg. Voor en na de reboot, heeft dezelfde cronjob blijkbaar zonder problemen gelopen (6:17 en 8:17)
Iemand een idee waar ik moet beginnen met zoeken, want de WAF begint af te nemen als de DNS uitvalt (LXC) en de home automation er mee ophoudt (VM).
Ook geen kernel panics op de console? Wat zegt
code:
1
dmesg
?

Acties:
  • 0 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 17:31
Polyphemus schreef op vrijdag 7 oktober 2022 @ 09:52:
[...]


Ook geen kernel panics op de console? Wat zegt
code:
1
dmesg
?
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
root@proxmox:~# dmesg | grep kernel
[    0.034818] Booting paravirtualized kernel on bare hardware
[    0.035137] Unknown kernel command line parameters "BOOT_IMAGE=/boot/vmlinuz-5.15.60-1-pve", will be passed to user space.
[    0.080701] Memory: 16156948K/16659788K available (16393K kernel code, 4338K rwdata, 10208K rodata, 3196K init, 6640K bss, 502580K reserved, 0K cma-reserved)
[    0.142498] MDS CPU bug present and SMT on, data leak possible. See https://www.kernel.org/doc/html/latest/admin-guide/hw-vuln/mds.html for more details.
[    0.937960] Loaded X.509 cert 'Build time autogenerated kernel key: 6128780398bddce194ee8a450d995c4dfb8102ef'
[    0.939585] Freeing unused kernel image (initmem) memory: 3196K
[    0.956309] Write protecting the kernel read-only data: 28672k
[    0.956712] Freeing unused kernel image (text/rodata gap) memory: 2036K
[    0.956761] Freeing unused kernel image (rodata/data gap) memory: 32K
[    4.223689] systemd[1]: Starting Create list of static device nodes for the current kernel...
[    4.248703] systemd[1]: Finished Create list of static device nodes for the current kernel.
[    4.343989] spl: loading out-of-tree module taints kernel.
[    4.345926] znvpair: module license 'CDDL' taints kernel.
[    4.345929] Disabling lock debugging due to kernel taint
[   19.670370] L1TF CPU bug present and SMT on, data leak possible. See CVE-2018-3646 and https://www.kernel.org/doc/html/latest/admin-guide/hw-vuln/l1tf.html for details.
[ 7571.680290] perf: interrupt took too long (2502 > 2500), lowering kernel.perf_event_max_sample_rate to 79750


Ik kan dit niet goed interpreteren (als er een extra parameter met dmesg mee moet, moet je dat even zeggen)

Als ik "dmesg -k" doe krijg ik wel deze melding een aantal keren:
code:
1
2
3
4
5
6
7
8
[    0.001514]  gran_size: 1M   chunk_size: 16M         num_reg: 10     lose cover RAM: 16M
[    0.001516]  gran_size: 1M   chunk_size: 32M         num_reg: 10     lose cover RAM: 0G
[    0.001517]  gran_size: 1M   chunk_size: 64M         num_reg: 10     lose cover RAM: 0G
[    0.001518] *BAD*gran_size: 1M       chunk_size: 128M        num_reg: 10     lose cover RAM: -16M
[    0.001519] *BAD*gran_size: 1M       chunk_size: 256M        num_reg: 10     lose cover RAM: -144M
[    0.001521] *BAD*gran_size: 1M       chunk_size: 512M        num_reg: 10     lose cover RAM: -144M
[    0.001522] *BAD*gran_size: 1M       chunk_size: 1G  num_reg: 10     lose cover RAM: -640M
[    0.001524] *BAD*gran_size: 1M       chunk_size: 2G  num_reg: 10     lose cover RAM: -640M

[ Voor 18% gewijzigd door htca op 07-10-2022 10:19 ]


Acties:
  • +1 Henk 'm!

  • _JGC_
  • Registratie: Juli 2000
  • Laatst online: 18:53
Flappie schreef op woensdag 21 september 2022 @ 20:08:
Weet iemand wat het vinkje "VLAN Aware" doet op de bridge interface?
Ik heb een (simpele) proxmox machine met 1 netwerkkaart.
Management en VM's zitten op deze bridge. Op de bridge staat het vinkje VLAN Aware NIET aan.
Echter heb ik gewoon allerlei VM's in VLAN's zitten en dat werkt prima.
Zou ik dat vinkje dan aan moeten zetten?
VLAN Aware betekent dat de bridge zelf VLAN tags kan filteren. Zegmaar wat een managed switch ook doet.

Acties:
  • 0 Henk 'm!

  • Polyphemus
  • Registratie: Maart 2003
  • Laatst online: 18:56
htca schreef op vrijdag 7 oktober 2022 @ 10:16:
[...]

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
root@proxmox:~# dmesg | grep kernel
[    0.034818] Booting paravirtualized kernel on bare hardware
[    0.035137] Unknown kernel command line parameters "BOOT_IMAGE=/boot/vmlinuz-5.15.60-1-pve", will be passed to user space.
[    0.080701] Memory: 16156948K/16659788K available (16393K kernel code, 4338K rwdata, 10208K rodata, 3196K init, 6640K bss, 502580K reserved, 0K cma-reserved)
[    0.142498] MDS CPU bug present and SMT on, data leak possible. See https://www.kernel.org/doc/html/latest/admin-guide/hw-vuln/mds.html for more details.
[    0.937960] Loaded X.509 cert 'Build time autogenerated kernel key: 6128780398bddce194ee8a450d995c4dfb8102ef'
[    0.939585] Freeing unused kernel image (initmem) memory: 3196K
[    0.956309] Write protecting the kernel read-only data: 28672k
[    0.956712] Freeing unused kernel image (text/rodata gap) memory: 2036K
[    0.956761] Freeing unused kernel image (rodata/data gap) memory: 32K
[    4.223689] systemd[1]: Starting Create list of static device nodes for the current kernel...
[    4.248703] systemd[1]: Finished Create list of static device nodes for the current kernel.
[    4.343989] spl: loading out-of-tree module taints kernel.
[    4.345926] znvpair: module license 'CDDL' taints kernel.
[    4.345929] Disabling lock debugging due to kernel taint
[   19.670370] L1TF CPU bug present and SMT on, data leak possible. See CVE-2018-3646 and https://www.kernel.org/doc/html/latest/admin-guide/hw-vuln/l1tf.html for details.
[ 7571.680290] perf: interrupt took too long (2502 > 2500), lowering kernel.perf_event_max_sample_rate to 79750


Ik kan dit niet goed interpreteren (als er een extra parameter met dmesg mee moet, moet je dat even zeggen)

Als ik "dmesg -k" doe krijg ik wel deze melding een aantal keren:
code:
1
2
3
4
5
6
7
8
[    0.001514]  gran_size: 1M   chunk_size: 16M         num_reg: 10     lose cover RAM: 16M
[    0.001516]  gran_size: 1M   chunk_size: 32M         num_reg: 10     lose cover RAM: 0G
[    0.001517]  gran_size: 1M   chunk_size: 64M         num_reg: 10     lose cover RAM: 0G
[    0.001518] *BAD*gran_size: 1M       chunk_size: 128M        num_reg: 10     lose cover RAM: -16M
[    0.001519] *BAD*gran_size: 1M       chunk_size: 256M        num_reg: 10     lose cover RAM: -144M
[    0.001521] *BAD*gran_size: 1M       chunk_size: 512M        num_reg: 10     lose cover RAM: -144M
[    0.001522] *BAD*gran_size: 1M       chunk_size: 1G  num_reg: 10     lose cover RAM: -640M
[    0.001524] *BAD*gran_size: 1M       chunk_size: 2G  num_reg: 10     lose cover RAM: -640M
Ik zie niks speciaals :-( Ik had wel verwacht dat als je server vastloopt, je wel enige vorm van meldingen zou krijgen :/

Acties:
  • +3 Henk 'm!

  • UTMachine
  • Registratie: Juli 2000
  • Laatst online: 18:32
htca schreef op vrijdag 7 oktober 2022 @ 10:16:
[...]

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
root@proxmox:~# dmesg | grep kernel
[    0.034818] Booting paravirtualized kernel on bare hardware
[    0.035137] Unknown kernel command line parameters "BOOT_IMAGE=/boot/vmlinuz-5.15.60-1-pve", will be passed to user space.
[    0.080701] Memory: 16156948K/16659788K available (16393K kernel code, 4338K rwdata, 10208K rodata, 3196K init, 6640K bss, 502580K reserved, 0K cma-reserved)
[    0.142498] MDS CPU bug present and SMT on, data leak possible. See https://www.kernel.org/doc/html/latest/admin-guide/hw-vuln/mds.html for more details.
[    0.937960] Loaded X.509 cert 'Build time autogenerated kernel key: 6128780398bddce194ee8a450d995c4dfb8102ef'
[    0.939585] Freeing unused kernel image (initmem) memory: 3196K
[    0.956309] Write protecting the kernel read-only data: 28672k
[    0.956712] Freeing unused kernel image (text/rodata gap) memory: 2036K
[    0.956761] Freeing unused kernel image (rodata/data gap) memory: 32K
[    4.223689] systemd[1]: Starting Create list of static device nodes for the current kernel...
[    4.248703] systemd[1]: Finished Create list of static device nodes for the current kernel.
[    4.343989] spl: loading out-of-tree module taints kernel.
[    4.345926] znvpair: module license 'CDDL' taints kernel.
[    4.345929] Disabling lock debugging due to kernel taint
[   19.670370] L1TF CPU bug present and SMT on, data leak possible. See CVE-2018-3646 and https://www.kernel.org/doc/html/latest/admin-guide/hw-vuln/l1tf.html for details.
[ 7571.680290] perf: interrupt took too long (2502 > 2500), lowering kernel.perf_event_max_sample_rate to 79750


Ik kan dit niet goed interpreteren (als er een extra parameter met dmesg mee moet, moet je dat even zeggen)

Als ik "dmesg -k" doe krijg ik wel deze melding een aantal keren:
code:
1
2
3
4
5
6
7
8
[    0.001514]  gran_size: 1M   chunk_size: 16M         num_reg: 10     lose cover RAM: 16M
[    0.001516]  gran_size: 1M   chunk_size: 32M         num_reg: 10     lose cover RAM: 0G
[    0.001517]  gran_size: 1M   chunk_size: 64M         num_reg: 10     lose cover RAM: 0G
[    0.001518] *BAD*gran_size: 1M       chunk_size: 128M        num_reg: 10     lose cover RAM: -16M
[    0.001519] *BAD*gran_size: 1M       chunk_size: 256M        num_reg: 10     lose cover RAM: -144M
[    0.001521] *BAD*gran_size: 1M       chunk_size: 512M        num_reg: 10     lose cover RAM: -144M
[    0.001522] *BAD*gran_size: 1M       chunk_size: 1G  num_reg: 10     lose cover RAM: -640M
[    0.001524] *BAD*gran_size: 1M       chunk_size: 2G  num_reg: 10     lose cover RAM: -640M
Als je niets in de logging ziet, zou ik er een monitor aanhangen en kijken wat je ziet als het weer gebeurd. Ook een memtest86 kan geen kwaad.

Acties:
  • +3 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

htca schreef op vrijdag 7 oktober 2022 @ 08:42:
Ik heb al een aantal dagen dat mijn proxmox server vastloopt. Daarbij is steeds de laatste melding in de syslog als hieronder (na de cronjob dus). Ik moet daarna een fysieke reboot doen.
code:
1
Oct 07 06:05:14 proxmox smartd[753]: Device: /dev/sda [SAT], SMART Usage Attribute: 242 Total_LBAs_Read changed from 94 to 100


Iemand een idee waar ik moet beginnen met zoeken, want de WAF begint af te nemen als de DNS uitvalt (LXC) en de home automation er mee ophoudt (VM).
:o /dev/sda waarop je Proxmox OS staat die problemen begint te geven misschien :?

Post eens de volledige output van :
# smartctl -a /dev/sda


Als dat niks oplevert dan inderdaad dit effe doen :
UTMachine schreef op vrijdag 7 oktober 2022 @ 13:53:
Als je niets in de logging ziet, zou ik er een monitor aanhangen en kijken wat je ziet als het weer gebeurd. Ook een memtest86 kan geen kwaad.
d:)b

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 17:31
nero355 schreef op vrijdag 7 oktober 2022 @ 15:50:
[...]

Post eens de volledige output van :
# smartctl -a /dev/sda

d:)b
sda (data schijf):
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
root@proxmox:~# smartctl -a /dev/sda
smartctl 7.2 2020-12-30 r5155 [x86_64-linux-5.15.60-1-pve] (local build)
Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Seagate Samsung SpinPoint M9T
Device Model:     ST2000LM003 HN-M201RAD
Serial Number:    S321J9AG705275
LU WWN Device Id: 5 0004cf 2102d9abe
Firmware Version: 2BC10001
User Capacity:    2,000,398,934,016 bytes [2.00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    5400 rpm
Form Factor:      2.5 inches
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ATA8-ACS T13/1699-D revision 6
SATA Version is:  SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Fri Oct  7 16:24:43 2022 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
                                        was never started.
                                        Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever 
                                        been run.
Total time to complete Offline 
data collection:                (22440) seconds.
Offline data collection
capabilities:                    (0x5b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        No Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine 
recommended polling time:        (   1) minutes.
Extended self-test routine
recommended polling time:        ( 374) minutes.
SCT capabilities:              (0x003f) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   100   100   051    Pre-fail  Always       -       0
  2 Throughput_Performance  0x0026   252   252   000    Old_age   Always       -       0
  3 Spin_Up_Time            0x0023   092   092   025    Pre-fail  Always       -       2634
  4 Start_Stop_Count        0x0032   099   099   000    Old_age   Always       -       1443
  5 Reallocated_Sector_Ct   0x0033   252   252   010    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   252   252   051    Old_age   Always       -       0
  8 Seek_Time_Performance   0x0024   252   252   015    Old_age   Offline      -       0
  9 Power_On_Hours          0x0032   100   100   000    Old_age   Always       -       23826
 10 Spin_Retry_Count        0x0032   252   252   051    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   099   099   000    Old_age   Always       -       1448
191 G-Sense_Error_Rate      0x0022   100   100   000    Old_age   Always       -       4
192 Power-Off_Retract_Count 0x0022   252   252   000    Old_age   Always       -       0
194 Temperature_Celsius     0x0002   064   054   000    Old_age   Always       -       33 (Min/Max 12/47)
195 Hardware_ECC_Recovered  0x003a   100   100   000    Old_age   Always       -       0
196 Reallocated_Event_Count 0x0032   252   252   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   252   252   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   252   252   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0036   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x002a   100   100   000    Old_age   Always       -       108
223 Load_Retry_Count        0x0032   100   100   000    Old_age   Always       -       206
225 Load_Cycle_Count        0x0032   089   089   000    Old_age   Always       -       118198
241 Total_LBAs_Written      0x0032   100   094   000    Old_age   Always       -       879972
242 Total_LBAs_Read         0x0032   097   094   000    Old_age   Always       -       4888880

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 0
Note: revision number not 1 implies that no selective self-test has ever been run
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Completed [00% left] (0-65535)
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.


sdb (Proxmox schijf):
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
smartctl 7.2 2020-12-30 r5155 [x86_64-linux-5.15.60-1-pve] (local build)
Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Samsung based SSDs
Device Model:     SAMSUNG MZHPV256HDGL-00000
Serial Number:    S1X2NYAG509126
LU WWN Device Id: 5 002538 900014ee3
Firmware Version: BXW2500Q
User Capacity:    256,060,514,304 bytes [256 GB]
Sector Size:      512 bytes logical/physical
Rotation Rate:    Solid State Device
TRIM Command:     Available
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2, ATA8-ACS T13/1699-D revision 4c
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Fri Oct  7 16:28:03 2022 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00) Offline data collection activity
                                        was never started.
                                        Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever 
                                        been run.
Total time to complete Offline 
data collection:                (    0) seconds.
Offline data collection
capabilities:                    (0x53) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        No Offline surface scan supported.
                                        Self-test supported.
                                        No Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine 
recommended polling time:        (   2) minutes.
Extended self-test routine
recommended polling time:        (  20) minutes.
SCT capabilities:              (0x003d) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 1
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       0
  9 Power_On_Hours          0x0032   095   095   000    Old_age   Always       -       23601
 12 Power_Cycle_Count       0x0032   098   098   000    Old_age   Always       -       1450
170 Unused_Rsvd_Blk_Ct_Chip 0x0032   100   100   010    Old_age   Always       -       0
171 Program_Fail_Count_Chip 0x0032   100   100   010    Old_age   Always       -       0
172 Erase_Fail_Count_Chip   0x0032   100   100   010    Old_age   Always       -       0
173 Wear_Leveling_Count     0x0033   081   081   005    Pre-fail  Always       -       602
174 Unexpect_Power_Loss_Ct  0x0032   099   099   000    Old_age   Always       -       119
178 Used_Rsvd_Blk_Cnt_Chip  0x0013   100   100   010    Pre-fail  Always       -       0
180 Unused_Rsvd_Blk_Cnt_Tot 0x0013   100   100   010    Pre-fail  Always       -       829
184 End-to-End_Error        0x0033   100   100   097    Pre-fail  Always       -       0
187 Uncorrectable_Error_Cnt 0x0032   100   100   000    Old_age   Always       -       0
194 Temperature_Celsius     0x0032   063   033   000    Old_age   Always       -       37
199 CRC_Error_Count         0x003e   100   100   000    Old_age   Always       -       0
233 Media_Wearout_Indicator 0x0032   099   099   000    Old_age   Always       -       154272
241 Total_LBAs_Written      0x0032   099   099   000    Old_age   Always       -       32886
242 Total_LBAs_Read         0x0032   099   099   000    Old_age   Always       -       23249

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
  255        0    65535  Read_scanning was never started
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Ik zie wel dat sdb "krap" begint te worden, maar 16GB lijkt nog best wat (lees, ik ken distros die kleiner zijn....)
code:
1
2
3
4
root@proxmox:~# pvscan
  PV /dev/sdb3   VG pve             lvm2 [237.97 GiB / 15.99 GiB free]
  PV /dev/sda1   VG HomeServer      lvm2 [<1.82 TiB / 1.32 TiB free]
  Total: 2 [2.05 TiB] / in use: 2 [2.05 TiB] / in no VG: 0 [0   ]

Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

htca schreef op vrijdag 7 oktober 2022 @ 16:34:
sda (data schijf):
code:
1
2
Model Family:     Seagate Samsung SpinPoint M9T
Device Model:     ST2000LM003 HN-M201RAD
Ik weet effe niet meer hoe het precies zat, maar ik dacht dat die hele ST2000LM003 serie niet bepaald een hoogstandje was van Seagate zeg maar... :X
code:
1
2
3
4
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
191 G-Sense_Error_Rate      0x0022   100   100   000    Old_age   Always       -       4
200 Multi_Zone_Error_Rate   0x002a   100   100   000    Old_age   Always       -       108
223 Load_Retry_Count        0x0032   100   100   000    Old_age   Always       -       206
Die waardes vind ik wel wat raar, maar misschien is het ook helemaal niks relevants dus je zou dan echt eventuele documentatie erbij moeten pakken om zeker te weten wat die twee inhouden.

Op de gok zou ik zeggen :
- Dat de HDD op een bepaald moment teveel bewoog terwijl die actief was.
- Ergens op je platters issues waren.
- De kop die de platters uitleest mogelijk mechanische issues heeft.

Maar dat hoeft dus niet meteen de oorzaak te zijn of überhaupt te kloppen... :$
sdb (Proxmox schijf):
code:
1
2
Device Model:     SAMSUNG MZHPV256HDGL-00000
Serial Number:    S1X2NYAG509126
Zo te zien een SM951 PCIe NVMe model dus ?
code:
1
2
3
4
5
6
7
8
9
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
170 Unused_Rsvd_Blk_Ct_Chip 0x0032   100   100   010    Old_age   Always       -       0
173 Wear_Leveling_Count     0x0033   081   081   005    Pre-fail  Always       -       602
174 Unexpect_Power_Loss_Ct  0x0032   099   099   000    Old_age   Always       -       119
178 Used_Rsvd_Blk_Cnt_Chip  0x0013   100   100   010    Pre-fail  Always       -       0
180 Unused_Rsvd_Blk_Cnt_Tot 0x0013   100   100   010    Pre-fail  Always       -       829
233 Media_Wearout_Indicator 0x0032   099   099   000    Old_age   Always       -       154272
241 Total_LBAs_Written      0x0032   099   099   000    Old_age   Always       -       32886
242 Total_LBAs_Read         0x0032   099   099   000    Old_age   Always       -       23249
Ik zou zeggen dat die nog niet dood zou mogen zijn in ieder geval, maar wel een aantal keer onverwacht afgesloten/reboot lijkt te zijn :?

Als je dan een SSD bent die geen Power Loss Protection heeft en alleen een soort Write Back mechanisme die het een en ander naloopt nadat die de volgende keer opstart dan kan ik me voorstellen dat je misschien wat datacorruptie hebt ergens...
Ik zie wel dat sdb "krap" begint te worden, maar 16GB lijkt nog best wat (lees, ik ken distros die kleiner zijn....)
code:
1
2
3
4
root@proxmox:~# pvscan
  PV /dev/sdb3   VG pve             lvm2 [237.97 GiB / 15.99 GiB free]
  PV /dev/sda1   VG HomeServer      lvm2 [<1.82 TiB / 1.32 TiB free]
  Total: 2 [2.05 TiB] / in use: 2 [2.05 TiB] / in no VG: 0 [0   ]
Check effe hoe groot je gereserveerde ruimte is en hoeveel je daar nog vandaan zit : https://joelitechlife.ca/...e-system-reserved-blocks/

Als ik de default 5% aanhoud dan denk ik dat je nog grofweg 4 GB over hebt voordat je daarmee te maken krijgt :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 17:40
Check, maar ik had dan toch wel iets van meldingen in syslog / messages / journalctl verwacht. @htca in geen van de drie zie je meldingen die naar storage wijzen als het issue zich voordoet: je hebt ze allemaal gecheckt rond het timestamp van de reboot?

Acties:
  • 0 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 17:31
nero355 schreef op vrijdag 7 oktober 2022 @ 17:52:


Ik weet effe niet meer hoe het precies zat, maar ik dacht dat die hele ST2000LM003 serie niet bepaald een hoogstandje was van Seagate zeg maar... :X
hmmm, ik heb de nuc overgenomen een jaar of wat geleden. Ik gebruik de ST2000LM003 niet of nauwelijks. Actieve LXC en VM draaiden vanaf de SSD. Ik heb nu wel een aantal verplaatst naar de HDD. Misschien trek ik hem er wel uit en vervang hem.
Die waardes vind ik wel wat raar, maar misschien is het ook helemaal niks relevants dus je zou dan echt eventuele documentatie erbij moeten pakken om zeker te weten wat die twee inhouden.

Op de gok zou ik zeggen :
- Dat de HDD op een bepaald moment teveel bewoog terwijl die actief was.
- Ergens op je platters issues waren.
- De kop die de platters uitleest mogelijk mechanische issues heeft.

Maar dat hoeft dus niet meteen de oorzaak te zijn of überhaupt te kloppen... :$
niet goed, maar ik verwacht niet dat het de oorzaak is of was.
Zo te zien een SM951 PCIe NVMe model dus ?

Ik zou zeggen dat die nog niet dood zou mogen zijn in ieder geval, maar wel een aantal keer onverwacht afgesloten/reboot lijkt te zijn :?

Als je dan een SSD bent die geen Power Loss Protection heeft en alleen een soort Write Back mechanisme die het een en ander naloopt nadat die de volgende keer opstart dan kan ik me voorstellen dat je misschien wat datacorruptie hebt ergens...
Tja die reboots, dat klopt... als hij vastloopt moet ik hem hard uitzetten en weer aanzetten.
Check effe hoe groot je gereserveerde ruimte is en hoeveel je daar nog vandaan zit : https://joelitechlife.ca/...e-system-reserved-blocks/

Als ik de default 5% aanhoud dan denk ik dat je nog grofweg 4 GB over hebt voordat je daarmee te maken krijgt :)
Ik heb wat LXC en VM verplaatst, ik zou daardoor wat ruimte moeten hebben gecreeerd.

Dank voor je informatie en meekijken @nero355, maar ik denk dat ik ga investeren in een nieuwe NVME, misschien maar meteen een 500GB versie of 1TB (al dan niet in combi met een nieuwe HDD voor backups, dan hoef ik mijn NAS niet te gebruiken en kan die uitblijven :)). Is er iets aan te raden voor proxmox? Is het handig een intel 660p of 670p er in te zetten? Of beter iets meer investeren? (NUC is een 5i7RYH met een i7-5557U processor op een NUC5i7RYB bord)
rachez schreef op vrijdag 7 oktober 2022 @ 20:12:
Check, maar ik had dan toch wel iets van meldingen in syslog / messages / journalctl verwacht. @htca in geen van de drie zie je meldingen die naar storage wijzen als het issue zich voordoet: je hebt ze allemaal gecheckt rond het timestamp van de reboot?
Na de reboot vanmorgen ben ik naar de zaak gereden (halfuurtje) en daarna de dmesg en smctrl uitgevoerd.

[ Voor 8% gewijzigd door htca op 07-10-2022 20:38 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

htca schreef op vrijdag 7 oktober 2022 @ 20:36:
hmmm, ik heb de nuc overgenomen een jaar of wat geleden.

Is er iets aan te raden voor proxmox?

Is het handig een intel 660p of 670p er in te zetten? Of beter iets meer investeren? (NUC is een 5i7RYH met een i7-5557U processor op een NUC5i7RYB bord)
Als het een Intel NUC is dan zou je misschien nog effe kunnen kijken naar BIOS/UEFI updates voor de zekerheid! :)

Verder brakke SSD's vermijden zoals de Kingston A2000 die bij velen voor ellende zorgt i.c.m. een non-Windows OS ;)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +3 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 17:31
nero355 schreef op zaterdag 8 oktober 2022 @ 00:10:
[...]

Als het een Intel NUC is dan zou je misschien nog effe kunnen kijken naar BIOS/UEFI updates voor de zekerheid! :)

Verder brakke SSD's vermijden zoals de Kingston A2000 die bij velen voor ellende zorgt i.c.m. een non-Windows OS ;)
Bios geupdate….
Memtest:
Afbeeldingslocatie: https://tweakers.net/i/Hj1-nM5n05elHHQpOzbLSuPHDUU=/800x/filters:strip_icc():strip_exif()/f/image/m1XRe0U6t5bjgfPgljCYZafs.jpg?f=fotoalbum_large

Iets zegt me dat er iets mis is met het geheugen 8)7

Acties:
  • +2 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 17:40
Nice, toch fijn als je zoiets kan verklaren. Goede tip die memtest van @UTMachine .
Kan je er gelijk wat meer memory in doen :P .

Acties:
  • 0 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 17:31
rachez schreef op zaterdag 8 oktober 2022 @ 13:15:
Nice, toch fijn als je zoiets kan verklaren. Goede tip die memtest van @UTMachine .
Kan je er gelijk wat meer memory in doen :P .
De maximale (ondersteunde) hoeveelheid hing er al in. Ik draai nu op de helft.... 8GB op dit moment voldoende voor de taken. Ik denk dat ik desondanks toch de ssd en hhd ga vervangen. Maar ik hoop dat de WAF weer hersteld is :p

Acties:
  • +2 Henk 'm!

  • UTMachine
  • Registratie: Juli 2000
  • Laatst online: 18:32
htca schreef op zaterdag 8 oktober 2022 @ 13:35:
[...]

De maximale (ondersteunde) hoeveelheid hing er al in. Ik draai nu op de helft.... 8GB op dit moment voldoende voor de taken. Ik denk dat ik desondanks toch de ssd en hhd ga vervangen. Maar ik hoop dat de WAF weer hersteld is :p
Ik heb zelf al 2x memory issues gehad met 2 verschillende NUCs. Bij de J3455 had ik problemen met het 2e slot, in het eerste slot geen problemen (oplossing 2x 4GB naar 1x 8GB en gaan met die banaan) met beide DIMMs. Bij de NUC8i5 heb ik een setje kunnen terugsturen, want na 2 jaar kreeg ik errors op 1 van de 2. Deze keer in beide sloten, dus was echt de DIMM, niet het slot :+

Dus ik ben nu redelijk paranoid met memory en ik test het regelmatig (enja, duurt ffies met 64GB :+ ), en natuurlijk de /var/log in de gaten houden.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

htca schreef op zaterdag 8 oktober 2022 @ 11:53:
Memtest:
[Afbeelding]

Iets zegt me dat er iets mis is met het geheugen 8)7
Is dat in Multi Threaded Mode ?!

Die is IMHO niet altijd betrouwbaar dus als je die hebt gebruikt check dan ook effe in Single Threaded Mode wat het resultaat is :)
UTMachine schreef op zaterdag 8 oktober 2022 @ 14:37:
Ik heb zelf al 2x memory issues gehad met 2 verschillende NUCs. Bij de J3455 had ik problemen met het 2e slot, in het eerste slot geen problemen (oplossing 2x 4GB naar 1x 8GB en gaan met die banaan) met beide DIMMs. Bij de NUC8i5 heb ik een setje kunnen terugsturen, want na 2 jaar kreeg ik errors op 1 van de 2. Deze keer in beide sloten, dus was echt de DIMM, niet het slot :+
Sommige modellen zijn nogal kieskeurig qua type/uitvoering van DIMMs dus dat helpt ook niet echt mee... :-(

Desondanks blijf ik het wel gave kastjes vinden! <3
Dus ik ben nu redelijk paranoid met memory en ik test het regelmatig (enja, duurt ffies met 64GB :+ ), en natuurlijk de /var/log in de gaten houden.
Ik heb dus 8 x 8 GB in mijn Workstation/Game PC en moest vorig jaar het een en ander testen : 45 minuten per 8 GB geloof ik ??
En dan ook nog eens alle 8 sloten met elk reepje erin getest voor de zekerheid!

Echt bizar lang mee bezig geweest om uiteindelijk bij de voeding uit te komen... d0h! :$ :X :F

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 17:31
nero355 schreef op zaterdag 8 oktober 2022 @ 18:29:
[...]

Is dat in Multi Threaded Mode ?!

Die is IMHO niet altijd betrouwbaar dus als je die hebt gebruikt check dan ook effe in Single Threaded Mode wat het resultaat is :)
Euhm, ik had een usb boot stickje gemaakt en vervolgens laten lopen. Binnen3 seconden was het raak. Toen een bankje verwijderd en bam weer binnen 3 seconden raak. Daarna de bankjes gewisseld en hetzelfde slot gebruikt. Toen geen errors gemeld. Inmiddels staat hij weer in de meterkast te snorren. Zou het nog meerwaarde hebben dat te doen?
[...]

Sommige modellen zijn nogal kieskeurig qua type/uitvoering van DIMMs dus dat helpt ook niet echt mee... :-(

Desondanks blijf ik het wel gave kastjes vinden! <3
Ik ook! Dit is mijn tweede, mijn eerste staat bij mijn vader en doet dienst als windows pc'tje. Voor browsen, mailen etc prima te doen.
Ik kon deze voor een prikkie overnemen via MP (stond al een paar maanden erop, zonder biedingen. Totale overkill voor wat ik er mee doe...). Hier snort een HA en DSMR reader in een VM. Qua LXC's: 2x adguard, een webcrawler, sonos, nginx en heimdall.
[...]

Ik heb dus 8 x 8 GB in mijn Workstation/Game PC en moest vorig jaar het een en ander testen : 45 minuten per 8 GB geloof ik ??
En dan ook nog eens alle 8 sloten met elk reepje erin getest voor de zekerheid!

Echt bizar lang mee bezig geweest om uiteindelijk bij de voeding uit te komen... d0h! :$ :X :F
Ik herken je gevoel.... Mijn desktop heeft 2x 32GB erin hangen (ik doe multithreaded berekeningen voor mijn PhD). Op een gegeven moment bluescreens all over the place... Memory testen, geen issues gevonden, op aanranden toch het memory vervangen. Nog steeds issues, weer testen, geen issues... Uiteindelijk bleek de ryzen 3600 de boesdoener... (die laatste inmiddels vervangen door een 3900x)

[ Voor 3% gewijzigd door htca op 08-10-2022 20:45 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

htca schreef op zaterdag 8 oktober 2022 @ 20:42:
Euhm, ik had een usb boot stickje gemaakt en vervolgens laten lopen. Binnen3 seconden was het raak. Toen een bankje verwijderd en bam weer binnen 3 seconden raak. Daarna de bankjes gewisseld en hetzelfde slot gebruikt. Toen geen errors gemeld. Inmiddels staat hij weer in de meterkast te snorren. Zou het nog meerwaarde hebben dat te doen?
Kapot DIMM Slot dus :?

Dan zou het inderdaad weleens weinig meerwaarde kunnen hebben...
Ik herken je gevoel.... Mijn desktop heeft 2x 32GB erin hangen (ik doe multithreaded berekeningen voor mijn PhD). Op een gegeven moment bluescreens all over the place... Memory testen, geen issues gevonden, op aanranden toch het memory vervangen. Nog steeds issues, weer testen, geen issues... Uiteindelijk bleek de ryzen 3600 de boesdoener... (die laatste inmiddels vervangen door een 3900x)
:o Een kapotte CPU is inderdaad nog raarder! :| :/

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 17:31
Nee beide modules een keer in het zelfde slot geprobeerd, een gaf errors de andere niet. Mijn conclusie: module kaduuk
Dan zou het inderdaad weleens weinig meerwaarde kunnen hebben...
Maar ik ga komende weken eens kijken naar een nieuwe nmve. Geen haast… misschien bij de Amazon prime days, anders misschien een Black Friday deal
[...]

:o Een kapotte CPU is inderdaad nog raarder! :| :/
Mwoah, ik had een vroege 3600 … en was ook niet de enige

Acties:
  • 0 Henk 'm!

  • Peet3kabo
  • Registratie: Augustus 2018
  • Laatst online: 09-09 18:58
Ok, weer een een vraag naar aanleiding van al een tijdje proberen en niet voor elkaar krijgen.

Ik heb een tijdje een Proxmox server draaien met 2 500GB 3,5" schijven in ZFS pool waar hij ook van boot.
Nu waren dit oude bestaande schijven en heb vorige week 2 externe schijven van Seagate gekocht waar ik de schijven (500GB 2,5") uit heb gehaald om deze te vervangen.
Maar moet je menen dat mij dat lukt. Ik heb al een aantal keer dat ik een schijf toegevoegd heb om een bestaande schijf te vervangen maar dat hij bij resilvering meerdere fouten heeft en dat de schijf dus fauled is in de pool.
Geen idee wat hier nu fout gaat en of dat het uberhaupt niet mogelijk is om op deze manier te doen omdat het verkeerde schijven zijn.
Wie weet een manier om de huidige schijven te vervangen voor nieuwe terwijl de huidige nog gewoon werken..........
Ik hoor graag wat ik kan proberen

Acties:
  • +1 Henk 'm!

  • Starck
  • Registratie: September 2004
  • Niet online
Peet3kabo schreef op woensdag 12 oktober 2022 @ 09:55:
Ok, weer een een vraag naar aanleiding van al een tijdje proberen en niet voor elkaar krijgen.

Ik heb een tijdje een Proxmox server draaien met 2 500GB 3,5" schijven in ZFS pool waar hij ook van boot.
Nu waren dit oude bestaande schijven en heb vorige week 2 externe schijven van Seagate gekocht waar ik de schijven (500GB 2,5") uit heb gehaald om deze te vervangen.
Maar moet je menen dat mij dat lukt. Ik heb al een aantal keer dat ik een schijf toegevoegd heb om een bestaande schijf te vervangen maar dat hij bij resilvering meerdere fouten heeft en dat de schijf dus fauled is in de pool.
Geen idee wat hier nu fout gaat en of dat het uberhaupt niet mogelijk is om op deze manier te doen omdat het verkeerde schijven zijn.
Wie weet een manier om de huidige schijven te vervangen voor nieuwe terwijl de huidige nog gewoon werken..........
Ik hoor graag wat ik kan proberen
De ZFS schijf vervang procedure schijnt wat extra stappen te hebben bij een bootable schijf.
Check deze guide eens vanaf het kopje: Changing a failed bootable device

https://pve.proxmox.com/p....html#_zfs_administration

Acties:
  • 0 Henk 'm!

  • Peet3kabo
  • Registratie: Augustus 2018
  • Laatst online: 09-09 18:58
Starck schreef op woensdag 12 oktober 2022 @ 10:06:
[...]


De ZFS schijf vervang procedure schijnt wat extra stappen te hebben bij een bootable schijf.
Check deze guide eens vanaf het kopje: Changing a failed bootable device

https://pve.proxmox.com/p....html#_zfs_administration
Dat is dus hoe ik het ook probeer............
Nog een keer gedaan en wederom geen succes

Afbeeldingslocatie: https://tweakers.net/i/hjaje48Xm6nE7i2jbZzza6g96l0=/800x/filters:strip_exif()/f/image/4ScAoH0PARDLyhSRwEF3o6hL.png?f=fotoalbum_large

Acties:
  • +1 Henk 'm!

  • Starck
  • Registratie: September 2004
  • Niet online
Peet3kabo schreef op woensdag 12 oktober 2022 @ 18:13:
[...]


Dat is dus hoe ik het ook probeer............
Nog een keer gedaan en wederom geen succes

[Afbeelding]
Zoals ik het lees, lijkt de nieuwe schijf teveel errors te genereren. Het lijkt er dus op dat die niet helemaal fris is...

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Peet3kabo schreef op woensdag 12 oktober 2022 @ 18:13:
Dat is dus hoe ik het ook probeer............
Nog een keer gedaan en wederom geen succes

[Afbeelding]
Kan het zijn dat de daadwerkelijke grootte van de WD HDD's anders is dan de nieuwe Seagate HDD die je gebruikt :?

Het hele verhaal met sectoren aan het begin en eind en zo...?!

Hoe zijn de WD's ooit opgezet als Pool : Partities gemaakt of de hele HDD aangeboden ?


Het kan natuurlijk gewoon een brakke HDD zijn, maar als je merken gaat mixen dan zou ik wel effe aan dat soort dingen denken! :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:50
Hmm, vanmiddag mijn thuisserver / NAS / whatever geupdate. Niet zo veel meer naar gekeken en leek het te doen. Keek nu toevallig in de Proxmox web UI en viel mijn oog op een LXC container die dood was.

Starten van de container werkte niet. Container handmatig gestart met logging, sudo lxc-start -n 106 -F -lDEBUG -o lxc.log. En daar stond even mooi in dat die /dev/zvol/fast-storage/docker/volumes/monitor niet kan mounten, "does not exist". Journalctl erbij gepakt, met meermaals deze regels:
zvol_wait[3405]: Still waiting on 1 zvol links ...
zvol_wait[3405]: No progress since last loop.
zvol_wait[3405]: Checking if any zvols were deleted.
zvol_wait[3405]: Remaining zvols:
zvol_wait[3405]: fast-storage/docker/volumes/monitor


En de laatste afsluit met:
zvol_wait[3405]: Timed out waiting on zvol links


Met wat "Ducken" kom ik dan vervolgens op deze pagina uit van Proxmox:
https://forum.proxmox.com...ages-after-reboot.106322/
Waar ook een oplossing in staat in de vorm van udevadm trigger /dev/zd<nummertje>, die ook voor mij werkt.

Maar wel apart dat een hele reeks aan zvols gewoon goed gaat, en dan net eentje niet. Beetje snel het topic scannende kan de zvol die errort variëren. En daarnaast lijkt het dan al een ouder issue te zijn, sinds maart, dat blijkbaar nu meer de kop opsteekt (2 nieuwe meldingen van afgelopen maandag).

Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

RobertMe schreef op vrijdag 14 oktober 2022 @ 21:32:
Hmm, vanmiddag mijn thuisserver / NAS / whatever geupdate. Niet zo veel meer naar gekeken en leek het te doen. Keek nu toevallig in de Proxmox web UI en viel mijn oog op een LXC container die dood was.

Starten van de container werkte niet. Container handmatig gestart met logging, sudo lxc-start -n 106 -F -lDEBUG -o lxc.log. En daar stond even mooi in dat die /dev/zvol/fast-storage/docker/volumes/monitor niet kan mounten, "does not exist". Journalctl erbij gepakt, met meermaals deze regels:
zvol_wait[3405]: Still waiting on 1 zvol links ...
zvol_wait[3405]: No progress since last loop.
zvol_wait[3405]: Checking if any zvols were deleted.
zvol_wait[3405]: Remaining zvols:
zvol_wait[3405]: fast-storage/docker/volumes/monitor


En de laatste afsluit met:
zvol_wait[3405]: Timed out waiting on zvol links


Met wat "Ducken" kom ik dan vervolgens op deze pagina uit van Proxmox:
https://forum.proxmox.com...ages-after-reboot.106322/
Waar ook een oplossing in staat in de vorm van udevadm trigger /dev/zd<nummertje>, die ook voor mij werkt.

Maar wel apart dat een hele reeks aan zvols gewoon goed gaat, en dan net eentje niet. Beetje snel het topic scannende kan de zvol die errort variëren. En daarnaast lijkt het dan al een ouder issue te zijn, sinds maart, dat blijkbaar nu meer de kop opsteekt (2 nieuwe meldingen van afgelopen maandag).
Zo te zien aan de comments op het forum ben je niet de enige :P Heb je al de tips van die post gevolgd?

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 17:50
orvintax schreef op zaterdag 15 oktober 2022 @ 02:43:
[...]

Zo te zien aan de comments op het forum ben je niet de enige :P Heb je al de tips van die post gevolgd?
Correct me if I'm wrong, maar volgens mij staat er in die thread niet veel meer dan wat ik nu al heb over genomen: udevadm trigger /dev/zd<nummertje> dus. Waarbij er dan ook wat scripts staan die evt als cron bij een (re)boot gedraaid kunnen worden, maar dat gaat mij nu wat ver. Zo vaak reboot ik sowieso niet :p En mogelijk dat ik het issue dus al langer heb / het niet door een buggy upgrade nu komt. Maar het dus een race condition is die lang niet altijd voor komt en het bij die enkele reboot die ik doe nog niet voor is gekozen. Toevallig een week of 2 terug het systeem even met een compressor uit geblazen en dus uit geweest. Vorige reboot zal maanden terug zijn geweest, potentieel met eens een keer updates gedaan zonder reboot. Dus kan best dat dit sinds maart (originele post) pas de tweede of derde (re)boot was en die vorige toevallig goed gingen en nu een keer toevallig niet.

Acties:
  • 0 Henk 'm!

  • Peet3kabo
  • Registratie: Augustus 2018
  • Laatst online: 09-09 18:58
nero355 schreef op woensdag 12 oktober 2022 @ 22:57:
[...]

Kan het zijn dat de daadwerkelijke grootte van de WD HDD's anders is dan de nieuwe Seagate HDD die je gebruikt :?

Het hele verhaal met sectoren aan het begin en eind en zo...?!

Hoe zijn de WD's ooit opgezet als Pool : Partities gemaakt of de hele HDD aangeboden ?


Het kan natuurlijk gewoon een brakke HDD zijn, maar als je merken gaat mixen dan zou ik wel effe aan dat soort dingen denken! :)
Zo een idee heb ik dus ook.........
De WD's zijn ooit opgezet als ZFS rpool met bios waar hij dus ook vanaf boot.
De gehele HDD aangeboden aangezien ik meerdere HDD's had welke ik voor andere doeleinden gebruik.
Is er een andere manier om deze pool te vervangen door de Seagate drives?
Brakke HDD kan ik proberen uit te sluiten door de andere nieuwe schijf eerst proberen te installeren, heb tot nu alleen deze geprobeerd. Wel voordat ik de externe schijven uit elkaar sloopte eerst gekeken of ze werkten zonder fouten maar dat was maar oppervlakkig

Edit...
Wellicht de huidige ZFS rpool resizen zodat de nieuwe iig groot genoeg zijn? Iemand een idee?

[ Voor 4% gewijzigd door Peet3kabo op 15-10-2022 20:43 ]


Acties:
  • 0 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 12-09 16:30

Harmen

⭐⭐⭐⭐⭐⭐

Oei, weer een ervaring rijker. Dacht laat ik proxmox eens updaten via de proxmox app op m'n telefoon. Liep niet zoveel achter kwa updates. Kernel update vereist een reboot, daarna was het stil. Geen Proxmox meer, machine uitgezet en aangesloten op een monitor. Grub rescue..... oeps.
Bootable usb erin gestoken en na wat prutsen de machine weer tot leven gewekt.

https://forum.proxmox.com...ck-in-grub-rescue.115037/
https://help.ubuntu.com/c...ing#via_Terminal_Commands

Stond al op het punt een schone installatie te doen + restore van de backups. :+
Typisch geval: if it ain't broke, don't fix it

Iemand nog tips om proxmox te repareren/checken?

Whatever.


Acties:
  • +3 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Harmen schreef op dinsdag 18 oktober 2022 @ 22:29:
Oei, weer een ervaring rijker. Dacht laat ik proxmox eens updaten via de proxmox app op m'n telefoon.
Dude... seriously... WHY ?!?! :'( :| :F

De hele mensheid denkt alles via een dumbass app te kunnen doen : DOE EENS NIET!!! :( :P
Liep niet zoveel achter kwa updates. Kernel update vereist een reboot, daarna was het stil. Geen Proxmox meer, machine uitgezet en aangesloten op een monitor. Grub rescue..... oeps.
Bootable usb erin gestoken en na wat prutsen de machine weer tot leven gewekt.

https://forum.proxmox.com...ck-in-grub-rescue.115037/
https://help.ubuntu.com/c...ing#via_Terminal_Commands

Stond al op het punt een schone installatie te doen + restore van de backups. :+
Typisch geval: if it ain't broke, don't fix it
Prachtige straf! }) d:)b

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 12-09 16:30

Harmen

⭐⭐⭐⭐⭐⭐

Klopt, weer een ervaring rijker. :) Volgende keer maar minder vaak updaten, en de changelogs doornemen. Alles draait nog steeds, reboots/schutdowns werken ook weer. :7

Whatever.


Acties:
  • +3 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 17:31
@Harmen we zijn allemaal jong geweest en deden ook domme dingen.... (en ja ik ben met mijn halverwege 40 nog steeds jong van geest en doe nog steeds domme dingen). Oh ja en van fouten leer je, sommige mensen leren daardoor juist heel veel .... Ik noem geen namen, maar ik ben zelf zo'n exemplaar :-p

Acties:
  • 0 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 12-09 16:30

Harmen

⭐⭐⭐⭐⭐⭐

htca schreef op woensdag 19 oktober 2022 @ 09:14:
@Harmen we zijn allemaal jong geweest en deden ook domme dingen.... (en ja ik ben met mijn halverwege 40 nog steeds jong van geest en doe nog steeds domme dingen). Oh ja en van fouten leer je, sommige mensen leren daardoor juist heel veel .... Ik noem geen namen, maar ik ben zelf zo'n exemplaar :-p
Tot nu toe waren mijn ervaringen met Proxmox positief, geweldig product! Draai er niet zoveel op gelukkig, enkel Plex, Home Assistant, Smokeping en Unifi. (Dell Micro M3040 i3, 8GB, 500GB ssd) Wellicht eens kijken naar een goede opvolger met wat meer redundantie.

Whatever.


Acties:
  • +3 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

Harmen schreef op woensdag 19 oktober 2022 @ 08:46:
Klopt, weer een ervaring rijker. :) Volgende keer maar minder vaak updaten, en de changelogs doornemen. Alles draait nog steeds, reboots/schutdowns werken ook weer. :7
Toch krijg ik een beetje een nare nasmaak van "dan maar minder vaak updaten" en "if it ain't broke don't fix it". Ik denk dat door een regelmatiger update schema je minder last gaat hebben van issues dan om hem ineens na zoveel tijd te updaten via je telefoon. Daarnaast als iets van CVEs zijn is het wel zeker "broke".

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

orvintax schreef op woensdag 19 oktober 2022 @ 09:58:
Toch krijg ik een beetje een nare nasmaak van "dan maar minder vaak updaten" en "if it ain't broke don't fix it". Ik denk dat door een regelmatiger update schema je minder last gaat hebben van issues dan om hem ineens na zoveel tijd te updaten via je telefoon. Daarnaast als iets van CVEs zijn is het wel zeker "broke".
Hij schrijft ook :
Dus opzich is dat al heel wat! :+

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +2 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Vraag is vooral: wat ging er mis? Ik heb ook een keer een niet-startende server veroorzaakt (kwam ook niet verder dan Grub), en eigenlijk kon ik mezelf daar wel vrij goed de schuld van geven. Tijdens het draaien van de upgrades kwam er vrij duidelijk voorbij dat het genereren van de kernel-image niet lukte, dus ik had eigenlijk gewoon moeten lezen voordat ik op reboot klikte.

Acties:
  • +1 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 12-09 16:30

Harmen

⭐⭐⭐⭐⭐⭐

Grappige is dat je die logs niet goed kan lezen op een mobiele telefoon. (proxmox app)
Na het repareren van grub kon ik de machine weer booten. :+

Whatever.


Acties:
  • +1 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 17:40
nero355 schreef op dinsdag 18 oktober 2022 @ 23:50:
[...]

Dude... seriously... WHY ?!?! :'( :| :F
Tja een commando op de cli invoeren "apt-get dist-upgrade" is nou ook weer geen rocket science, dus...

Tuurlijk, mee eens dat je bij upgrades via een app zaken niet goed kunt inschatten maar verder heb ik weinig (eigenlijk geen) issues gehad bij upgrades en proxmox.

Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

rachez schreef op woensdag 19 oktober 2022 @ 20:19:
Tja een commando op de cli invoeren "apt-get dist-upgrade" is nou ook weer geen rocket science, dus...

Tuurlijk, mee eens dat je bij upgrades via een app zaken niet goed kunt inschatten maar verder heb ik weinig (eigenlijk geen) issues gehad bij upgrades en proxmox.
Ik krijg gewoon jeuk op het moment dat mensen netwerkapparatuur of in dit geval zelfs hun Server gaan zitten beheren via een app... mijn hemel... waar zijn we in vredesnaam mee bezig als mensheid ?!?! :| :F

Maar goed...

Ik kan daar echt urenlang over zeiken dus ik hou het kort deze keer! >:) :P :+

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +4 Henk 'm!

  • _Eend_
  • Registratie: Juni 2006
  • Laatst online: 09:31

_Eend_

🌻🇺🇦

nero355 schreef op donderdag 20 oktober 2022 @ 15:15:
[...]

Ik krijg gewoon jeuk op het moment dat mensen netwerkapparatuur of in dit geval zelfs hun Server gaan zitten beheren via een app... mijn hemel... waar zijn we in vredesnaam mee bezig als mensheid ?!?! :| :F

Maar goed...

Ik kan daar echt urenlang over zeiken dus ik hou het kort deze keer! >:) :P :+
Ik verbaas me soms echt waar mensen zich druk over kunnen maken. :P

Mijn stelregel is dat als ik iets niet kan veranderen dan maak ik me er niet druk om. Dat is zoveel beter voor je bloeddruk.

Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

_Eend_ schreef op donderdag 20 oktober 2022 @ 15:23:
Ik verbaas me soms echt waar mensen zich druk over kunnen maken. :P

Mijn stelregel is dat als ik iets niet kan veranderen dan maak ik me er niet druk om.
Dat is zoveel beter voor je bloeddruk.
Zo zit ik dus niet in elkaar en ik zeg er ook gewoon wat van als het me niet bevalt! :P

Zoals die onnozele vlag onder je avatar bijvoorbeeld die bij elke voetbalwedstrijd zo nodig erbij wordt gehaald : WHY ?!?!

Totale onzin! :F

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 17:31
nero355 schreef op donderdag 20 oktober 2022 @ 15:41:
[...]

Zo zit ik dus niet in elkaar en ik zeg er ook gewoon wat van als het me niet bevalt! :P

Zoals die onnozele vlag onder je avatar bijvoorbeeld die bij elke voetbalwedstrijd zo nodig erbij wordt gehaald : WHY ?!?!

Totale onzin! :F
Af en toe wel een status ophalen via een mobiele browser, maar via die app…. Man wat …. Ding is dat.

Acties:
  • 0 Henk 'm!

  • _Eend_
  • Registratie: Juni 2006
  • Laatst online: 09:31

_Eend_

🌻🇺🇦

nero355 schreef op donderdag 20 oktober 2022 @ 15:41:
[...]

Zo zit ik dus niet in elkaar en ik zeg er ook gewoon wat van als het me niet bevalt! :P

Zoals die onnozele vlag onder je avatar bijvoorbeeld die bij elke voetbalwedstrijd zo nodig erbij wordt gehaald : WHY ?!?!

Totale onzin! :F
Dat is precies wat ik bedoel. Kun je dat veranderen? Nee?

Niet druk om maken. It's that simple :)

Maar we gaan een béétje off-topic denk ik :P

Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

nero355 schreef op donderdag 20 oktober 2022 @ 15:15:
[...]

Ik krijg gewoon jeuk op het moment dat mensen netwerkapparatuur of in dit geval zelfs hun Server gaan zitten beheren via een app... mijn hemel... waar zijn we in vredesnaam mee bezig als mensheid ?!?! :| :F

Maar goed...

Ik kan daar echt urenlang over zeiken dus ik hou het kort deze keer! >:) :P :+
Maar volgensmij zijn ze daar ook echt niet voor gemaakt. Ik gebruik dat soort apps voor als ik onderweg ben en toch nog iets kleins moet bekijken/aanpassen.

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • Theone098
  • Registratie: Februari 2015
  • Laatst online: 17:39
Harmen schreef op dinsdag 18 oktober 2022 @ 22:29:

Typisch geval: if it ain't broke, don't fix it
If it ain’t broken, make it better 😎

Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

orvintax schreef op donderdag 20 oktober 2022 @ 20:36:
Maar volgensmij zijn ze daar ook echt niet voor gemaakt.
Ik gebruik dat soort apps voor als ik onderweg ben en toch nog iets kleins moet bekijken/aanpassen.
Ik weet niet wie de doelgroep was toen ze bij Proxmox daaraan begonnen, maar ik heb in de webhosting wereld gewerkt met allerlei soorten klanten en ik zie de klanten die een hele flinke Proxmox/VMWare/Xen/enz. Cluster hadden staan echt niet effe zo'n app erbij pakken om iets te doen of alleen te checken... 7(8)7 _O-

Het is dan ook IMHO ronduit belachelijk dat zoiets überhaupt bestaat! :F

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +2 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 12-09 16:29

orvintax

www.fab1an.dev

nero355 schreef op vrijdag 21 oktober 2022 @ 15:02:
[...]

Ik weet niet wie de doelgroep was toen ze bij Proxmox daaraan begonnen, maar ik heb in de webhosting wereld gewerkt met allerlei soorten klanten en ik zie de klanten die een hele flinke Proxmox/VMWare/Xen/enz. Cluster hadden staan echt niet effe zo'n app erbij pakken om iets te doen of alleen te checken... 7(8)7 _O-

Het is dan ook IMHO ronduit belachelijk dat zoiets überhaupt bestaat! :F
Er zijn ook andere usecases dan degene die jij kent :P Proxmox is ook ontzettend populair in de homelab wereld en een app zoals deze kan vast een nuttige toevoeging zijn. Misschien ook niet, maar dan weten ze het in ieder geval. :)

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 12:42

zeroday

There is no alternative!

Harmen schreef op dinsdag 18 oktober 2022 @ 22:29:
Oei, weer een ervaring rijker. Dacht laat ik proxmox eens updaten via de proxmox app op m'n telefoon. Liep niet zoveel achter kwa updates. Kernel update vereist een reboot, daarna was het stil. Geen Proxmox meer, machine uitgezet en aangesloten op een monitor. Grub rescue..... oeps.
Bootable usb erin gestoken en na wat prutsen de machine weer tot leven gewekt.

https://forum.proxmox.com...ck-in-grub-rescue.115037/
https://help.ubuntu.com/c...ing#via_Terminal_Commands

Stond al op het punt een schone installatie te doen + restore van de backups. :+
Typisch geval: if it ain't broke, don't fix it

Iemand nog tips om proxmox te repareren/checken?
Zou nog handiger zijn als je aangeeft wat je nu zelf exact hebt gedaan om het weer werkend te krijgen ;)
linkjes helpen wel wat maar maar geven niet het idee wat er nu exact mis was anders dan dat grub kapot was.

[ Voor 5% gewijzigd door zeroday op 21-10-2022 16:45 ]

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 12-09 16:30

Harmen

⭐⭐⭐⭐⭐⭐

zeroday schreef op vrijdag 21 oktober 2022 @ 16:45:
[...]
Zou nog handiger zijn als je aangeeft wat je nu zelf exact hebt gedaan om het weer werkend te krijgen ;)
linkjes helpen wel wat maar maar geven niet het idee wat er nu exact mis was anders dan dat grub kapot was.
Usb gemaakt, geboot naar recovery en daar schijf gecheckt/grub hersteld. :7 (om 22u in de avond)
Updates hierna gaan goed.

Whatever.


Acties:
  • +2 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

zeroday schreef op vrijdag 21 oktober 2022 @ 16:45:
Zou nog handiger zijn als je aangeeft wat je nu zelf exact hebt gedaan om het weer werkend te krijgen ;)
linkjes helpen wel wat maar maar geven niet het idee wat er nu exact mis was anders dan dat grub kapot was.
Als je GRUB stuk is dan heb je twee opties :
- Je klopt wat commands in om de server door te laten booten door de root partitie en zo op te geven en fixt daarna je GRUB als je OS eenmaal is geladen.
- Of je negeert het hele ding, pakt een Live ISO erbij, boot daarmee, mount het systeem offline, fixt GRUB.

En na een reboot is alles weer up and running! :*)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +2 Henk 'm!

  • smesjz
  • Registratie: Juli 2002
  • Niet online
Dit blijft weer gedoe:

code:
1
2
3
4
5
root@nuc:~# pct start 104
run_buffer: 321 Script exited with status 255
lxc_init: 847 Failed to run lxc.hook.pre-start for container "104"
__lxc_start: 2008 Failed to initialize container "104"
startup for container '104' failed


code:
1
2
3
4
5
6
root@nuc:~# /usr/bin/lxc-start -F -n 104 --logfile=/tmp/blabla -lDEBUG
lxc-start: 104: ../src/lxc/conf.c: run_buffer: 321 Script exited with status 255
lxc-start: 104: ../src/lxc/start.c: lxc_init: 847 Failed to run lxc.hook.pre-start for container "104"
lxc-start: 104: ../src/lxc/start.c: __lxc_start: 2008 Failed to initialize container "104"
lxc-start: 104: ../src/lxc/tools/lxc_start.c: main: 306 The container failed to start
lxc-start: 104: ../src/lxc/tools/lxc_start.c: main: 311 Additional information can be obtained by setting the --logfile and --logpriority options


code:
1
2
3
lxc-start 104 20221022071804.199 INFO     lsm - ../src/lxc/lsm/lsm.c:lsm_init_static:38 - Initialized LSM security driver AppArmor
lxc-start 104 20221022071804.199 INFO     conf - ../src/lxc/conf.c:run_script_argv:337 - Executing script "/usr/share/lxc/hooks/lxc-pve-prestart-hook" for container "104", config section "lxc"
lxc-start 104 20221022071804.591 DEBUG    conf - ../src/lxc/conf.c:run_buffer:310 - Script exec /usr/share/lxc/hooks/lxc-pve-prestart-hook 104 lxc pre-start produced output: unsupported Ubuntu version '22.10'


Dit is het echte probleem: unsupported Ubuntu version '22.10' maar dat is zonder wat debuggen nergens fatsoenlijk te vinden..

Gelukkig makkelijk te fixen (want ik had dit al eerder): 22.10 toevoegen aan usr/share/perl5/PVE/LXC/Setup/Ubuntu.pm was (weer) genoeg...

Laatste PVE update van die file via apt heeft nu al 23.04 toegevoegd dus hopelijk minder gedoe voor de volgende keer.

Note to self: eerst proxmox update doen voor dist upgrade van LXCs...

Acties:
  • 0 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

Met hulp van dit topic een heel eind gekomen om naar tevredenheid proxmox te draaien.

Echter 1 van de 3 servers moet ik nog in de backup meenemen maar dat kan niet omdat die veel en veel te groot is.

De promox node heeft 1 SSD (hier staan de VMs op) en 1 HDD (voor camerabeelden opslag)

Ik heb 3 VM servers namelijk PRTG, Plex en Networkoptix (camera systeem). Alle 3 draaien ze op prima op Windows 11 (ja ik weet Ubuntu/Linux gebruikt minder resource maar ben geen linux held en PRTG en Camera systeem hebben Windows nodig)

Nu backup ik PRTG en Plex VM. Totaal 57 GB groot is daarmee 12 minuten mee bezig. Allemaal prima.

Met Plex in Windows 11 maak verbinding naar een netwerkshare. Networkshares tellen niet mee in de grote van de VM dus is de Plex VM prima te backuppen.

Het camera systeem heb ik een ander probleem. Omdat die HDD als echte schijf is toegevoegd in de Camera VM word mijn backup ernorm. Kortom ik heb 4 TB nodig voor de camera backup. Dat vind ik zonde van de NAS opslag. Ik wil alleen backup maken van de VM zonder de camerabeelden. Dus ik wil graag de lokale HDD toevoegen als netwerkshare zoals ik met mijn Plex server doe. Plex data staat op een NAS, daar heb ik geen TB's meer vrij dus ik moet wel de interne HDD van de node gebruiken voor de camerabeelden.

Waar het kort op neer komt. Hoe maak ik van de HDD die in de node zit een samba schijf? De enige manier die ik kan bedenken is een soort eigen 2de nas maken op de node. Ik zet nog een VM op en voeg die interne HDD toe als lokale storage, maak dan daar een samba share van en voeg die share toe in mijn camera vm zoals ik eigenlijk bij Plex vm ook heb gedaan.

Nu komt de vraag. Welke OS heb nodig om een samba server te maken? Xpenology lijkt mij nogal tricky. Debian is naar mijn weten klein? Of is er nog iets kleiner / die nog minder nodig heeft dan debian?

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • +3 Henk 'm!

  • Feni
  • Registratie: Juli 2005
  • Laatst online: 12-09 15:17
RobbyTown schreef op zondag 30 oktober 2022 @ 07:10:
Ik wil alleen backup maken van de VM zonder de camerabeelden.
Het kan zoveel simpeler lijkt me, je kan een disk van een vm excluden van backups in de instellingen van die disk. Dan wordt netjes een backup gemaakt, zónder al je camerabeelden.

Acties:
  • +2 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

Feni schreef op zondag 30 oktober 2022 @ 10:17:
[...]


Het kan zoveel simpeler lijkt me, je kan een disk van een vm excluden van backups in de instellingen van die disk. Dan wordt netjes een backup gemaakt, zónder al je camerabeelden.
Dank voor de tip! Dat excluden moet dus vanuit de VM worden gekozen ipv bij het backup deel (daar had ik al gezocht). Met aanmaken van de disk dat hele backup vinkje niet op gelet. Backup overview word die nu geexclude. Zo wil ik het inderdaad.

Afbeeldingslocatie: https://tweakers.net/i/LHb3PKJBHET_SsXQOpOPePDOHdE=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/roES1JbqCvARReXoZDpYk3VO.png?f=user_large

Gelukkig kan het zonder extra VM op te zetten _/-\o_ .

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • +2 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

RobbyTown schreef op zondag 30 oktober 2022 @ 07:10:
Nu komt de vraag. Welke OS heb nodig om een samba server te maken?

Xpenology lijkt mij nogal tricky. Debian is naar mijn weten klein? Of is er nog iets kleiner / die nog minder nodig heeft dan Debian?
In principe elke willekeurige Linux distro met alleen Samba geïnstalleerd en effe snel geconfigureerd en gaan met die banaan! ;)

/Mocht je het ooit toch nog een keer nodig hebben...


Maar ehh...

Wat gebruik je eigenlijk voor de Backups :?

Een beetje Backup Software zou toch aardig wat opties moeten hebben voor dingen includen/excluden en zo :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

nero355 schreef op zondag 30 oktober 2022 @ 14:53:
[...]

In principe elke willekeurige Linux distro met alleen Samba geïnstalleerd en effe snel geconfigureerd en gaan met die banaan! ;)

/Mocht je het ooit toch nog een keer nodig hebben...


Maar ehh...

Wat gebruik je eigenlijk voor de Backups :?

Een beetje Backup Software zou toch aardig wat opties moeten hebben voor dingen includen/excluden en zo :)
Via Proxmox backup, backup de hele VM (dus geen extra backup software programma). De belangrijkste is eigenlijk de camera vm. Daar maak ik een complete kopie van (op de beelden na dus ;) ). Als de node kapot gaat dan zet een andere Proxmox op spoel de backup in en alles draait weer. Die licenties zijn lifetime zolang het hardware id niet veranderd. Dat werkt prima heb zo al een test doorlopen zonder hw is veranderde.

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe

Pagina: 1 ... 29 ... 61 Laatste