Acties:
  • +7 Henk 'm!

  • FREAKJAM
  • Registratie: Mei 2007
  • Laatst online: 19:46
Proxmox VE is de afgelopen periode dusdanig populair geworden dat het naar mijn mening toe is aan een eigen topic op GoT. Het wordt nu al met regelmaat besproken in zowel het Zuinige ESXi Server als Het grote ZFS topic
"Proxmox VE is a complete open-source platform for all-inclusive enterprise virtualization that tightly integrates KVM hypervisor and LXC containers, software-defined storage and networking functionality on a single platform, and easily manages high availability clusters and disaster recovery tools with the built-in web management interface."
Afbeeldingslocatie: https://www.proxmox.com/images/proxmox/screenshots/Proxmox-VE-8-1-VMware-ESXi-Guestimport-add-storage.png

KVM, Containers & HA
By combining two virtualization technologies under one platform, Proxmox VE is giving maximum flexibility to your professional virtual environment. Use KVM full virtualization for Windows and Linux images, and lightweight containers to run conflict-free Linux applications.
Proxmox Wiki
Proxmox Howto
Proxmox Troubleshooting
Proxmox Downloads
Proxmox Support Forum

[ Voor 29% gewijzigd door FREAKJAM op 22-08-2024 13:48 ]

is everything cool?


Acties:
  • 0 Henk 'm!

  • DrFlash
  • Registratie: Juli 2009
  • Laatst online: 05-03 12:59
Het is mogelijk de virtuele machines met de zelfde settings aan te maken op proxmox, en dan vervolgens met dd if=/ergens/disk.qcow of=/dev/mapper/hoejediskookmagheten. blabla veel (en lastig) werk.

echter veel handiger is om buiten de local-lvm, gewoon een "dir" type bestandssysteem aan te maken met voldoende ruimte om je harddisk files (tijdelijk) op te slaan. Vervolgens kan je vanuit proxmox de disk verhuizen naar je lvm opslag.

Nog een andere optie is om je huidige opslag met NFS te exporteren, deze kan je vervolgens aan proxmox als opslag toevoegen, vanuit daar importeren en de 'move' uitvoeren. dat scheelt het maken van een 'dir' bestandssysteem en het overkopieren van de images.

de screenshot hieronder is van de oude 3.x versie, maar dit werkt ook nog in 4.3 (laatste)

Afbeeldingslocatie: https://pve.proxmox.com/mediawiki/images/9/93/Screen-move-disk.png

[ Voor 28% gewijzigd door DrFlash op 18-10-2016 23:56 ]

Wowhead profiel


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 12-10 10:36

MvL

Afbeeldingslocatie: https://tweakers.net/ext/f/K9ZxNO2oXNyBZvEoz6dOwARt/thumb.png

Hier doe je het in de LXC container zelf. Wat jij handmatig in <container>.conf plaatst als ik je goed begrijp.

Acties:
  • 0 Henk 'm!

  • wilmardo
  • Registratie: Februari 2011
  • Laatst online: 17-10 12:25
unezra schreef op vrijdag 30 december 2016 @ 14:47:
Realtek zou gewoon moeten werken. Misschien net dat type niet, maar dan zou ik d'r eerder een RTL NIC in zetten op een PCI kaart dan je hele board swappen voor iets met Intel NIC's. Intel of HP is in de regel niet nodig.
Eens dat het gewoon zou moeten werken maar een upgradetje is nooit weg. Onder Centos werkte het allemaal prima na de gecompilde driver. Het vage is ook dat de Supported en Advertised link modes beide netjes Gigabit aangeven alleen de speed doodleuk op 100Mb/s staat :/


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
Supported ports: [ TP ]
        Supported link modes:   10baseT/Half 10baseT/Full
                                100baseT/Half 100baseT/Full
                                1000baseT/Full
        Supported pause frame use: No
        Supports auto-negotiation: Yes
        Advertised link modes:  10baseT/Half 10baseT/Full
                                100baseT/Half 100baseT/Full
                                1000baseT/Full
        Advertised pause frame use: Symmetric Receive-only
        Advertised auto-negotiation: Yes
        Speed: 100Mb/s
        Duplex: Full
        Port: Twisted Pair
        PHYAD: 0
        Transceiver: internal
        Auto-negotiation: on
        MDI-X: Unknown
        Supports Wake-on: pumbg
        Wake-on: d
        Current message level: 0x00000033 (51)
                               drv probe ifdown ifup
        Link detected: yes
unezra schreef op vrijdag 30 december 2016 @ 14:47:
LXC heeft voor mij 3 nadelen:

[...]
Thanks, goede informatie! Maar waarom de backups via BackupPC? Je kan ook via Proxmox snapshots maken, naar bijvoorbeeld je NAS.
unezra schreef op vrijdag 30 december 2016 @ 14:47:
Oh! Grafana hoorde ik deze week van. Staat al op mijn TODO van 2017, dit klinkt wel leuk. Thuis de URL eens goed gaan bekijken. (En dit topic sowieso in de gaten houden...)
Als je van statistieken houdt is het ook leuk, alleen is Grafana voor mij helemaal nieuw dus het instellen vergt wat studie. Maar overzichten zoals dit zijn in een paar tellen te maken (en nee geen idee wat die piek eens per 15 minuten is op mijn webserver :)):
Grafana

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Nu online
Ik wil VLAN's gaan gebruiken met Proxmox 4.2 (ja ja ik moet nog upgraden :+ )
en heb de volgende tutorial gebruikt echter zie ik bij device type "Unknown"

Hebben jullie dat ook ?

https://pve.proxmox.com/wiki/Vlans

Afbeeldingslocatie: https://nextcloud.bitfinity.nl/index.php/s/UymwoFGLWRMNpZu/download

Acties:
  • 0 Henk 'm!

  • wilmardo
  • Registratie: Februari 2011
  • Laatst online: 17-10 12:25
unezra schreef op dinsdag 3 januari 2017 @ 08:31:
Is je storage decentraal of centraal?
Ofwel, staan je vm's lokaal of op een NAS?
Storage van de VM's is lokaal.
unezra schreef op dinsdag 3 januari 2017 @ 08:31:
Handmatige migratie zou volgens mij wel moeten lukken, als je niet je vm's koud migreert maar ook meteen naar een lokaal aanwezige storage. Ik dacht dat dat tijdens migratie kon, mits je het dus aan geeft.

Maakt 'ie die storage echt aan, of gaat 'ie er gewoon vanuit dat die storage van je 1e node overal in het cluster aanwezig is? As in, als 'ie 'm aan maakt, dan zou het dus juist WEL moeten lukken maar volgens mij doet 'ie dat niet.
Afbeeldingslocatie: https://api.monosnap.com/rpc/file/download?id=v9Ve4F55t5L8xUzzRVkkCruL9ZI6VO
Dit is de situatie direct na het toevoegen aan het cluster, Proxmox heeft de volumes van de eerste node overgenomen terwijl op de node router alleen het volume local fysiek aanwezig is. Hij gaat er dus vanuit dat een volume op node1 ook aanwezig moet zijn op node2.

Wat bedoel je met handmatige migratie? Als ik op de GUI kijk kan ik alleen een node selecteren, geen volume:
Afbeeldingslocatie: https://api.monosnap.com/rpc/file/download?id=0g2KcB11DsigBR0NYJOOFCnivCuq1d

En wanneer ik dat probeer faalt het omdat het volume stale is op de router node
Afbeeldingslocatie: https://api.monosnap.com/rpc/file/download?id=wCug1jZejqb9u2U8xOTpKnm4LySFgO

Als er bij de migratie nu een disk op de target node kan worden aangegeven zou ik er al zijn. Ik dacht ook nog aan move disk maar deze kan alleen moven binnen de node.
unezra schreef op dinsdag 3 januari 2017 @ 08:31:
[...]
Cluster moet sowieso wel kunnen, maar wil je automatische failover moet je met centrale storage werken of met GlusterFS. (Dat laatste is theorie, ik heb het nog niet in de praktijk gebracht. Wil ik dit jaar op kantoor en thuis in test wel doen.)
Automatische failover hoeft niet, het is puur dat ik even mijn VM's naar een andere machine kan verplaatsen als ik de server even uit moet zetten.

Is wat ik wil alleen mogelijk met decentrale storage?

Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 17-10 16:27
Kan iemand me dit uitleggen:

2 Uploaded iso's ~5GB
1 Container met een 1GB file
1 VM met 7GB aan files

Filesystem van de proxmox host:
Afbeeldingslocatie: https://upload.mattie-systems.nl/uploads/51320-capture.png

Storage config (default via de installer zfs RAID1)
Afbeeldingslocatie: https://upload.mattie-systems.nl/uploads/97941-capture.png

Nou ben ik toch wel benieuwd waar mijn 7GB+ grote VM is gebleven?

Afbeeldingslocatie: https://upload.mattie-systems.nl/uploads/34111-capture.png

Voordat ik over ga stappen wil ik toch wel voor een groot gedeelte weten hoe eea in elkaar zit :)

(note bij het creëren van de VM/container alles op default laten staan)

edit:
whoops was de bedoeling mijn vorige post te editten

[ Voor 4% gewijzigd door Mattie112 op 16-12-2017 16:06 ]

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

  • Mattie112
  • Registratie: Januari 2007
  • Laatst online: 17-10 16:27
Hm klopt dan zie ik ze wel

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
root@proxmox:~# zfs list rpool -r
NAME                           USED  AVAIL  REFER  MOUNTPOINT
rpool                         54.9G  52.6G   104K  /rpool
rpool/ROOT                    6.74G  52.6G    96K  /rpool/ROOT
rpool/ROOT/pve-1              6.74G  52.6G  6.74G  /
rpool/data                    39.7G  52.6G    96K  /rpool/data
rpool/data/subvol-100-disk-1  1.36G  6.64G  1.36G  /rpool/data/subvol-100-disk-1
rpool/data/subvol-103-disk-1   368M  7.64G   368M  /rpool/data/subvol-103-disk-1
rpool/data/vm-101-disk-1      25.6G  52.6G  25.6G  -
rpool/data/vm-102-disk-1      12.3G  52.6G  12.3G  -
rpool/swap                    8.50G  61.1G    56K  -
root@proxmox:~# cd /rpool/data/
root@proxmox:/rpool/data# ls -al
total 18
drwxr-xr-x  4 root root  4 Dec 17 12:00 .
drwxr-xr-x  4 root root  4 Dec 16 14:30 ..
drwxr-xr-x 21 root root 21 Dec 16 20:05 subvol-100-disk-1
drwxr-xr-x 21 root root 22 Dec 17 12:06 subvol-103-disk-1


Dus hij is dan als block device gemount ofzo?

Maar daar zie ik dat /rpool 54.9GB gebruikt heeft. Maar in de UI zie ik:
Afbeeldingslocatie: https://upload.mattie-systems.nl/uploads/36080-capture.png

Sorry als ik wat 'zeur' hoor maar ik snap graag precies wáár mn data staat zodat ik als het nodig is het ook via een ander systeem out zou kunnen lezen.

Kwam net ook tegen dat je ook voor een disk image kon gaan (als je een bepaald storage type had) dus dat kan ik vanavond ook wel even proberen.

3780wP (18x 210wP EC Solar) | 2x Marstek Venus E (5.12kWh)


Acties:
  • 0 Henk 'm!

Verwijderd

Mattie112 schreef op dinsdag 26 december 2017 @ 11:21:
Hey guys bedankt voor de replies hoor!


[...]


Daar ben ik me van bewust, ik vergelijk het met VMware ESXi bijvoorbeeld. En een VM/Container met samba daar heb ik helemaal geen problemen mee, alleen ik mis vooral een 'centraal' server info punt. Aan de ene kant is het out-of-the box compatible met ZFS maar aan de andere kant kan je het in de UI niet eens zien als er een disk dood is. Tja heb die email notificaties wel aan de gang maar het klinkt gewoon wat vreemd.
Er zijn toch zat tooltjes die je appart kan installeren die dat voor je doen? Bijv een container er bij zetten die speciaal is voor monitoring van je samba shares?
Of je gebruikt gewoon NethServer. Daar zit Samba filesharing bij en voor de monitoring kan je installeer je bijvoorbeeld Samba Audit. In het Dashboard van NethServer is er een widget die weergeeft hoeveel ruimte je nog hebt op je disk:
Afbeeldingslocatie: https://tweakers.net/ext/f/F5vrHy6Wge3FLhi5mtCpu5T0/thumb.png?nohitcount=1

Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 20:38

Mars Warrior

Earth, the final frontier


Docker / LXC intermezzo
Compizfox schreef op vrijdag 29 december 2017 @ 14:27:
Je begrijpt het verkeerd. Docker en LXC zijn niet gebouwd op dezelfde fundamenten. Docker is gebouwd op LXC, m.a.w., LXC is het fundament van Docker.
Je hebt gelijk, en ook weer niet O-)
Beiden zijn gebaseerd op Linux kernel elementen. Verder was Docker tot aan v0.9 gebouwd op LXC, maar is inmiddels toch compleet anders dan LXC.

Afbeeldingslocatie: https://robinsystems.com/wp-content/uploads/2017/03/linux-vs-docker-comparison-architecture-docker-lxc.png

Je ziet hier de overstap naar libcontainer en later naar containerd:

Afbeeldingslocatie: https://robinsystems.com/wp-content/uploads/2017/01/linux-vs-docker-image-registry-aggregate-docker-pulls-6-billion.png

En hier nog een keer de grote verschillen tussen LXC en Docker. LXC lijkt meer op een VM, waar Docker echt weggooi spul is: container weg, opgeslagen data in de container ook weg :'(
Maar dat biedt juist prachtige mogelijkheden als het gaat om schaalbaarheid en redundantie icm shared storage: bij uitval van een server start je de container simpelweg op een andere server, die connect aan de shared storage en alles loopt lekker verder!

Afbeeldingslocatie: https://robinsystems.com/wp-content/uploads/2017/01/linux-vs-docker-comparison-application-support.png


Weer terug naar PVE :X
Meh, third-party proprietaire software (en nog betaald ook). Geef mij maar ZFS :Y)
Even los van het feit dat ZFS de flexibiliteit en functionaliteit die ik met Stablebit gebruik niet heeft, stap je ook over de (verborgen) kosten van ZFS heen. Paritydrives in een RAIDZx setup zijn toch ook niet gratis, laat staan als je alle schijven moet vervangen om je pool te vergroten. Er zijn manieren om dat 'live' te doen, maar je moet wel alle schijven vervangen.
5 jaar geleden ben ik gestart met 2 schijven van 1.5TB en 2TB. Inmiddels zijn er 2 van 2.5TB en 2 van 3TB bijgekomen. Geen idee hoe ik dat met ZFS had moeten doen. Dan had ik waarschijnlijk andere keuzes moeten maken.

Voor Stablebit DrivePool/CloudDrive kan ik tot nu toe ook GEEN vergelijkbare functionaliteit onder Linux vinden. En ik ben niet de enige als ik Reddit of andere fora lees.

Een alternatief voor CloudDrive zoals CryFS is nog steeds niet stabiel, heeft beperkte functionaliteit tov CloudDrive en de ontwikkeling gaat tergend traag.

Maar goed.
Ik zoek dus naar een pragmatische toepassing van PVE icm met de spullen die ik nu al heb, ken of gewend ben. Of dat nu het meest optimale is als je helemaal van scratch af aan zou starten weet ik niet, maar daar kijk ik zeker naar zolang ik dezelfde functionaliteit terug krijg.
Op dit moment betekent dat dus een combi van PVE, Windows VM en Docker Swarm zodat ik de Docker containers/applicaties draaiend op de PVE server, mijn domotica NUCje en mijn Raspberry Pi's vanuit één Portainer omgeving kan beheren.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +1 Henk 'm!

  • Kaspers
  • Registratie: Juni 2004
  • Nu online
Ik was altijd in de veronderstelling dat in het geval van docker het de 'best practice' is om docker in een VM te draaien. Ook de proxmox wiki geeft hier duiding aan:
If you want to run micro-containers (with docker, rkt, …), it is best to run them inside a VM.
In de releasenotes van versie 5.3 valt mijn oog echter op het volgende:
Nesting for Containers (privileged & unprivileged containers): Allows running lxc, lxd or docker inside containers, also supports using AppArmor inside containers
Zorgt deze laatste ontwikkeling ervoor dat het juist een stuk veiliger wordt docker in een unprivileged container te draaien?

Ik heb het overigens getest op een fedora-29 template. Werkte prima, zonder verdere aanpassingen aan de lxc conf. Dit volstond:

Afbeeldingslocatie: https://i.imgur.com/EqoFezO.png

+ het laden van de kernel modules binnen pve:
code:
1
2
modprobe aufs
modprobe overlay

Anders valt docker terug op de vfs storage driver. En dat werkt niet bepaald snel.

Edit:
Helaas ervaar ik nog wel wat problemen met de overlay2 storage driver, die toch wel geadviseerd wordt te gebruiken.
Bij het pullen van een image krijg ik de volgende melding:
code:
1
ERROR: failed to register layer: Error processing tar file(exit status 1): operation not permitted

Hier vind ik wat meer details:
This will be fixed by any release after December 18, 2017 of Moby via this merge. Will update again when fully incorporated into Docker.

If your container is unprivileged, this appears to be an issue with the overlay2 storage driver for Docker. This does not appear to be an issue with overlay (GitHub issue). So either utilize the overlay storage driver instead of overlay2, or make your container privileged.
Dat laatste is nou net niet de bedoeling, dan gaan we weer een stap terug. En de overlay (ipv overlay2) driver is tegenwoordig helaas depricated:
code:
1
WARNING: the overlay storage-driver is deprecated, and will be removed in a future release.

[ Voor 41% gewijzigd door Kaspers op 19-03-2019 22:49 ]


Acties:
  • +1 Henk 'm!

  • Kaspers
  • Registratie: Juni 2004
  • Nu online
Beste geinig, dat zabbix. Je kunt leuke metrics uit proxmox en guests (lxc's in mijn geval) mee halen. Met grafana ziet t er ook wel netjes uit:

Afbeeldingslocatie: https://imgur.com/vkWkwTll.png

Afbeeldingslocatie: https://imgur.com/Ekaanpfl.png

Afbeeldingslocatie: https://imgur.com/aofOaFQl.png

Acties:
  • 0 Henk 'm!

  • Kaspers
  • Registratie: Juni 2004
  • Nu online
FireDrunk schreef op woensdag 1 mei 2019 @ 10:29:
Dat kan je toch ook allemaal zien met netdata? Dan kan je met Prometheus het netdata endpoint weer uitlezen.
Geen ervaring met netdata, dus ik kan 't niet voor je bevestigen. Zelf tevreden gebruiker?
Kun je van de docker containers en lxc's de individuele (netwerk) loads ermee uitlezen, door de tool louter op de proxmox host te draaien?

Edit: ik het 't even geprobeerd. Leuke tools idd. Integratie met prometheus werkt idd soepel icm Grafana.
Als ik netdata op de pve host draai worden idd de LXC's gevonden:

Afbeeldingslocatie: https://imgur.com/dvZxfwA.png

Maar de invididuele docker containers helaas niet.
Ik heb vervolgens tevens een netdata service als docker container gedraaid binnen de docker LXC. De individuele netwerken van de docker containers kan ik nu ook monitoren. Individuele cpu load (nog) niet.


Jep, dit werkt idd ook prachtig. Dank @FireDrunk, heb alle rommel overgezet naar netdata en prometheus en de zabbix-agents opgeschoond.

Afbeeldingslocatie: https://imgur.com/ZPrZE2fl.png

[ Voor 86% gewijzigd door Kaspers op 03-05-2019 16:40 ]


Acties:
  • 0 Henk 'm!

  • OsiriS.nl
  • Registratie: April 2005
  • Laatst online: 09:18
Beste,

Ik heb een nieuwe server opgezet met proxmox 6.0. Sinds gisteren heb ik de volgende errors.
Iemand een idee hoe ik dit kan debuggen?

Afbeeldingslocatie: https://tweakers.net/ext/f/GePZf8t01xmV8WO0Gd5TLSR3/thumb.png

Ik heb dit probleem sinds ik een Ubuntu 19.04 VM heb aangemaakt maar tegelijkertijd heb ik ook een ZFS mirror op de host aangemaakt. Ik ben bang dat dit nu iets te maken heeft met deze ZFS mirror, maar ik lees op internet diverse berichten dat soortgelijke errors door een VM kunnen komen.
Hoe kan ik dit uitzoeken?

[ Voor 62% gewijzigd door OsiriS.nl op 30-07-2019 08:33 ]


Acties:
  • 0 Henk 'm!

  • Munchie
  • Registratie: Februari 2010
  • Niet online

Munchie

FP ProMod
Heeft hier iemand ervaring met het gebruik van encryptie i.c.m Proxmox?
Ik ben niet op zoek naar full disk encyrption, maar zou graag een plek hebben om privé bestanden veilig te kunnen opslaan.

Ik zat zelf te denken om twee partities aan te maken, één gewoon, en één LUKS encrypted, die ik bijvoorbeeld op een Next Cloud VM aansluit. Weet niet of dit de handigste manier is, en of het gaat werken.

De illustratie hieronder is hoe ik de Proxmox server will opzetten.
Afbeeldingslocatie: https://i.imgur.com/ptdPVby.png

  • 3raser
  • Registratie: Mei 2008
  • Laatst online: 17-10 12:02

3raser

⚜️ Premium member

Ik heb sinds gisteren mijn nieuwe proxmox server in gebruik genomen. Dit gaat helaas niet zonder slag of stoot. Het lijkt erop dat mijn (te nieuwe?) hardware problemen geeft. Zo heb ik een foutmelding op de console gezien en valt regelmatig de netwerkverbinding weg.

Het systeem heeft de volgende specs.

#CategoryProduct
1ProcessorsAMD Ryzen 5 3600 Boxed
1MoederbordenASRock B450M Pro4
1ProcessorkoelingCooler Master Hyper 212 Black Edition
1Geheugen internCorsair Vengeance LPX CMK32GX4M2D3000C16
1VoedingenCorsair VS450 (2018)
1Solid state drive (M2 SATA)Crucial MX500 m.2 500GB
1Solid state drive (NVMe)Samsung 970 EVO 1TB


Ik was gelukkig ingelogd op de host toen het probleem zich opnieuw voor deed. Bovenin beeld zie je nog dat ik een ping heb gedaan die succesvol was. Daarna komt er een foutmelding in beeld over de PCIe Bus. De volgende ping faalt direct. Ik moet vervolgens het netwerk herstarten met ifdown en ifup. Soms komt deze ook vanzelf weer in de lucht.

Afbeeldingslocatie: https://tweakers.net/ext/f/zKQXkvnDIBF6OaXqnnukIi3l/full.jpg

Foutmelding:
code:
1
2
3
[2397.331074] nvme 0000:01:00.0 PCIe Bus Error: severity=Uncorrected (Non-Fatal), type=Transaction Layer, (Roquester ID)
[2397.331387] nvme 0000:01:00.0 device (144d: a808) error status/mask=00004000/00400000
[2397.331691] nvme 0000101:00.01 [14] Cmpit TO               (First)


Stukje syslog wat volgens mij de fout weergeeft: (sorry voor de lange tekst. Is er een tag die dit kan invouwen ofzo?)
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
Sep 18 07:55:00 pve systemd[1]: Starting Proxmox VE replication runner...
Sep 18 07:55:00 pve systemd[1]: pvesr.service: Succeeded.
Sep 18 07:55:00 pve systemd[1]: Started Proxmox VE replication runner.
Sep 18 07:56:00 pve systemd[1]: Starting Proxmox VE replication runner...
Sep 18 07:56:00 pve systemd[1]: pvesr.service: Succeeded.
Sep 18 07:56:00 pve systemd[1]: Started Proxmox VE replication runner.
Sep 18 07:57:00 pve systemd[1]: Starting Proxmox VE replication runner...
Sep 18 07:57:00 pve systemd[1]: pvesr.service: Succeeded.
Sep 18 07:57:00 pve systemd[1]: Started Proxmox VE replication runner.
Sep 18 07:57:02 pve systemd-timesyncd[773]: Timed out waiting for reply from 213.154.236.182:123 (2.debian.pool.ntp.org).
Sep 18 07:57:12 pve systemd-timesyncd[773]: Timed out waiting for reply from 195.242.98.57:123 (2.debian.pool.ntp.org).
Sep 18 07:57:23 pve systemd-timesyncd[773]: Timed out waiting for reply from 51.15.44.1:123 (2.debian.pool.ntp.org).
Sep 18 07:57:33 pve systemd-timesyncd[773]: Timed out waiting for reply from 82.161.139.11:123 (2.debian.pool.ntp.org).
Sep 18 07:57:38 pve kernel: ------------[ cut here ]------------
Sep 18 07:57:38 pve kernel: NETDEV WATCHDOG: enp5s0 (r8169): transmit queue 0 timed out
Sep 18 07:57:38 pve kernel: WARNING: CPU: 5 PID: 0 at net/sched/sch_generic.c:461 dev_watchdog+0x221/0x230
Sep 18 07:57:38 pve kernel: Modules linked in: ebtable_filter ebtables ip_set ip6table_filter ip6_tables iptable_filter bpfilter softdog nfnetlink_log nfnetlink edac_mce_amd kvm_amd ccp kvm irqbypass snd_hda_codec_hdmi zfs(PO) zunicode(PO) zlua(PO) crct10dif_pclmul nouveau crc32_pclmul ghash_clmulni_intel mxm_wmi video ttm snd_hda_codec_realtek snd_hda_codec_generic drm_kms_helper ledtrig_audio aesni_intel snd_hda_intel aes_x86_64 wmi_bmof crypto_simd snd_hda_codec cryptd glue_helper snd_hda_core drm snd_hwdep i2c_algo_bit snd_pcm fb_sys_fops syscopyarea sysfillrect snd_timer sysimgblt pcspkr snd soundcore mac_hid zcommon(PO) znvpair(PO) zavl(PO) icp(PO) spl(O) vhost_net vhost tap ib_iser rdma_cm iw_cm ib_cm ib_core iscsi_tcp libiscsi_tcp libiscsi scsi_transport_iscsi sunrpc ip_tables x_tables autofs4 btrfs xor zstd_compress raid6_pq dm_thin_pool dm_persistent_data dm_bio_prison dm_bufio libcrc32c i2c_piix4 r8169 realtek ahci libahci wmi gpio_amdpt gpio_generic
Sep 18 07:57:38 pve kernel: CPU: 5 PID: 0 Comm: swapper/5 Tainted: P           O      5.0.15-1-pve #1
Sep 18 07:57:38 pve kernel: Hardware name: To Be Filled By O.E.M. To Be Filled By O.E.M./B450M Pro4, BIOS P3.30 05/10/2019
Sep 18 07:57:38 pve kernel: RIP: 0010:dev_watchdog+0x221/0x230
Sep 18 07:57:38 pve kernel: Code: 00 49 63 4e e0 eb 92 4c 89 ef c6 05 5a a2 ef 00 01 e8 03 2b fc ff 89 d9 4c 89 ee 48 c7 c7 90 03 bb 8a 48 89 c2 e8 91 d5 78 ff <0f> 0b eb c0 66 66 2e 0f 1f 84 00 00 00 00 00 0f 1f 44 00 00 55 48
Sep 18 07:57:38 pve kernel: RSP: 0018:ffff9ff93e743e68 EFLAGS: 00010286
Sep 18 07:57:38 pve kernel: RAX: 0000000000000000 RBX: 0000000000000000 RCX: 0000000000000000
Sep 18 07:57:38 pve kernel: RDX: 0000000000040400 RSI: 00000000000000f6 RDI: 0000000000000300
Sep 18 07:57:38 pve kernel: RBP: ffff9ff93e743e98 R08: 0000000000000001 R09: 00000000000003c3
Sep 18 07:57:38 pve kernel: R10: 0000000000000004 R11: 0000000000000000 R12: 0000000000000001
Sep 18 07:57:38 pve kernel: R13: ffff9ff92e048000 R14: ffff9ff92e0484c0 R15: ffff9ff92c142e80
Sep 18 07:57:38 pve kernel: FS:  0000000000000000(0000) GS:ffff9ff93e740000(0000) knlGS:0000000000000000
Sep 18 07:57:38 pve kernel: CS:  0010 DS: 0000 ES: 0000 CR0: 0000000080050033
Sep 18 07:57:38 pve kernel: CR2: 0000565559c880c0 CR3: 00000007dc48a000 CR4: 0000000000340ee0
Sep 18 07:57:38 pve kernel: Call Trace:
Sep 18 07:57:38 pve kernel:  <IRQ>
Sep 18 07:57:38 pve kernel:  ? pfifo_fast_enqueue+0x120/0x120
Sep 18 07:57:38 pve kernel:  call_timer_fn+0x30/0x130
Sep 18 07:57:38 pve kernel:  run_timer_softirq+0x3e4/0x420
Sep 18 07:57:38 pve kernel:  ? ktime_get+0x3c/0xa0
Sep 18 07:57:38 pve kernel:  ? lapic_next_event+0x20/0x30
Sep 18 07:57:38 pve kernel:  ? clockevents_program_event+0x93/0xf0
Sep 18 07:57:38 pve kernel:  __do_softirq+0xdc/0x2f3
Sep 18 07:57:38 pve kernel:  irq_exit+0xc0/0xd0
Sep 18 07:57:38 pve kernel:  smp_apic_timer_interrupt+0x79/0x140
Sep 18 07:57:38 pve kernel:  apic_timer_interrupt+0xf/0x20
Sep 18 07:57:38 pve kernel:  </IRQ>
Sep 18 07:57:38 pve kernel: RIP: 0010:cpuidle_enter_state+0xbd/0x450
Sep 18 07:57:38 pve kernel: Code: ff e8 b7 30 86 ff 80 7d c7 00 74 17 9c 58 0f 1f 44 00 00 f6 c4 02 0f 85 63 03 00 00 31 ff e8 5a 60 8c ff fb 66 0f 1f 44 00 00 <45> 85 ed 0f 88 8d 02 00 00 49 63 cd 48 8b 75 d0 48 2b 75 c8 48 8d
Sep 18 07:57:38 pve kernel: RSP: 0018:ffffbcfa4326be60 EFLAGS: 00000246 ORIG_RAX: ffffffffffffff13
Sep 18 07:57:38 pve kernel: RAX: ffff9ff93e762d80 RBX: ffffffff8af628a0 RCX: 000000000000001f
Sep 18 07:57:38 pve kernel: RDX: 000001ff7b2703d8 RSI: 00000000239f5376 RDI: 0000000000000000
Sep 18 07:57:38 pve kernel: RBP: ffffbcfa4326bea0 R08: 0000000000000002 R09: 0000000000022640
Sep 18 07:57:38 pve kernel: R10: 000007477f6d86f8 R11: ffff9ff93e761c04 R12: ffff9ff92ee70000
Sep 18 07:57:38 pve kernel: R13: 0000000000000002 R14: ffffffff8af62978 R15: ffffffff8af62960
Sep 18 07:57:38 pve kernel:  cpuidle_enter+0x17/0x20
Sep 18 07:57:38 pve kernel:  call_cpuidle+0x23/0x40
Sep 18 07:57:38 pve kernel:  do_idle+0x23a/0x280
Sep 18 07:57:38 pve kernel:  cpu_startup_entry+0x1d/0x20
Sep 18 07:57:38 pve kernel:  start_secondary+0x1ab/0x200
Sep 18 07:57:38 pve kernel:  secondary_startup_64+0xa4/0xb0
Sep 18 07:57:38 pve kernel: ---[ end trace 3d4701b204e64b11 ]---
Sep 18 07:57:38 pve systemd-timesyncd[773]: Synchronized to time server for the first time 62.212.76.57:123 (3.debian.pool.ntp.org).
Sep 18 07:58:00 pve systemd[1]: Starting Proxmox VE replication runner...
Sep 18 07:58:00 pve systemd[1]: pvesr.service: Succeeded.
Sep 18 07:58:00 pve systemd[1]: Started Proxmox VE replication runner.
Sep 18 07:59:00 pve systemd[1]: Starting Proxmox VE replication runner...
Sep 18 07:59:00 pve systemd[1]: pvesr.service: Succeeded.
Sep 18 07:59:00 pve systemd[1]: Started Proxmox VE replication runner.

Kan ik iemand mij in de goede richting wijzen? De foutmelding heeft het over mijn NVMe drive maar de fout heeft overduidelijk effect op de onboard netwerk interface. Ik heb wat gelezen over ACPI instellingen van de kernel maar ik ben redelijk blauw op dat gebied. Ik wil ook niet zomaar van alles proberen omdat dit mogelijk weer andere zaken van het systeem negatief beïnvloed.

Acties:
  • +1 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 15-10 10:08

unezra

Ceci n'est pas un sous-titre.

A1AD schreef op maandag 30 september 2019 @ 21:07:
[...]
En, ik ben maar luidop aan het nadenken, kan je niet bind mounten naar je "omv fileserver" en daar NFS op draaien en de openmediavault-remotemount wijzen naar localhost (127.0.0.1)? Op deze manier heb je rechtstreeks toegang tot je data via de bind mounts en in theorie snellere IO.
Heh. Het is vies, maar het klinkt qua theorie best logisch.

Ik heb geen idee of het in de praktijk ook veel sneller gaat zijn dan mijn huidige setup, dat hangt er vooral heel erg vanaf of die PVE machine daadwerkelijk gelimiteerd word tot 1GBit wanneer ik de NFS share benader, of dat die snelheid onbeperkt is.

Nu weet ik dat het wel mogelijk is 'm te limiten.
https://pve.proxmox.com/p...qm.html#qm_network_device
(Zoek op "Rate limit in mbps (megabytes per second) as floating point number.")

Ik vermoed, dat hij géén beperking heeft in zijn snelheid. Ofwel, dat 'ie ook met mijn setup volle bak via de vmbr naar mijn NFS server kan en ik eigenlijk alleen beperkt ben door de snelheid van de netwerkstack aan beide kanten en mijn NFS server en client.
root@hetty:~# ethtool ens18
Settings for ens18:
Supported ports: [ ]
Supported link modes: Not reported
Supported pause frame use: No
Supports auto-negotiation: No
Advertised link modes: Not reported
Advertised pause frame use: No
Advertised auto-negotiation: No
Speed: Unknown!
Duplex: Unknown! (255)
Port: Other
PHYAD: 0
Transceiver: internal
Auto-negotiation: off
Link detected: yes
root@hetty:~#
Oh, voordat mensen het zich afvragen, deze vm heet niet naar een vrouw, maar naar dit:
Afbeeldingslocatie: https://www.capitalequipment.net.au/wp-content/uploads/2016/09/HET200P.jpg
(Ik gebruik al vrij lang stofzuigerbrands en types als hostnames.)

[ Voor 6% gewijzigd door unezra op 30-09-2019 22:45 ]

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • rayplum
  • Registratie: Januari 2009
  • Niet online
Ik probeer Proxmox installeren vanaf USB. Er is een menu "Welcome to Proxmox Virtual Environment" waar ik selecteer "Install Proxmox VE". Daarna komt wat text maar dan plotseling een reboot. Wat kan ik doen om de installatie verder zetten?
Afbeeldingslocatie: https://tweakers.net/ext/f/bSBQdKA16HefZ10VKpCve5d7/full.jpg

Acties:
  • +2 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Nu online
zx9r_mario schreef op dinsdag 12 mei 2020 @ 16:56:
[...]


Ik gebruik Proxmox professioneel al sinds 2009. _/-\o_
Ik ben met versie 1.x gaan stoeien toen ze nog deze lelijke interface hadden :+ (LEEEELIJK)!
Werkte destijds bij een bedrijf met weinig tot geen geld :'( en waar we elke euro moesten omdraaien.

Afbeeldingslocatie: https://upload.wikimedia.org/wikipedia/commons/thumb/0/05/Proxmox_ve_main_screen.png/800px-Proxmox_ve_main_screen.png

[ Voor 3% gewijzigd door powerboat op 12-05-2020 17:45 . Reden: Aanpassing plaatje ]


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 16-10 22:22

zeroday

There is no alternative!

Afbeeldingslocatie: https://tweakers.net/i/TbgEDCTpjecTyaqMXobBzksP-Gk=/800x/filters:strip_icc():strip_exif()/f/image/KOcJ26IXKcUg1IxbcazHE5eH.jpg?f=fotoalbum_large

Wanneer ik op _console druk binnen proxmox waarbij ik een LXC container wil benaderen dan krijg ik in de GUI van het beheerconsole binnen proxmox een ' connection ' failed. Dubbelklik ik dan opent een nieuw window en wordt er wel een geldige connectie opgezet. Ook als ik naar NOVNC ga dan krijg ik een terminal, alleen ik vind het vaag waarom het systeem zonder die 'popup' een connectie failed aangeeft, terwijl bij andere LXC containers het wel goed werkt. Ben dus even zoekende wat er fout is gegaan of wat ik wellicht fout doe.

Ik heb tevens de qemu agent geinstalleerd maar in het beheer van proxmox zie ik bij de LXC containers niet wat het IP adres is van de machine terwijl als ik een Windows VM heb dit wel getoond wordt.
is er een mogelijkheid om de IP automatisch in de GUI van proxmox te zien ? zonder dat ik dat bijv. zelf handmatig in de notes zet?

mm bij de LXC containers zie ik dat de agent niet start
A dependency job for qemu-guest-agent.service failed
uhh..

[ Voor 4% gewijzigd door zeroday op 27-07-2020 08:34 ]

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 11-10 20:42
CurlyMo schreef op zaterdag 1 augustus 2020 @ 13:17:
[...]

Ok, dus proxmox zelf een fixed IP, en je containers en VM's DHCP. Ik las dat je alle vaste IP adressen vanuit OpenWRT liet komen:
Proxmox heeft bij mij inderdaad altijd een fixed IP, de netwerk interfaces in de OpenWRT LXC staan op DHCP gezien vanuit de Proxmox GUI maar ik maak er wel static interfaces van in de config van OpenWRT.
De andere VM's en LXC"s kies je zelf, ik heb meestal een kleine DHCP range (100-150 oid) voor clients en een fixed "range" voor vaste spullen zoals AP's en LXC's.
vb: 1-10 routers, 11 - 20 AP's, 20-50 LXC's, ... 100-150 DHCP.
CurlyMo schreef op zaterdag 1 augustus 2020 @ 13:17:
[...]
Kan je je Proxmox hoofd netwerk config plaatsen?
PVE netwerk:
Afbeeldingslocatie: https://tweakers.net/i/hQvb3xGbsboAoZgJyccA9kJWcxg=/800x/filters:strip_icc():strip_exif()/f/image/LdI9IR4jF0MIiKZFFDypRN0B.jpg?f=fotoalbum_large

oWRT-Gasten:
Afbeeldingslocatie: https://tweakers.net/i/4ohvTw78t4ClBXNzGFpGsr_AZ7I=/800x/filters:strip_icc():strip_exif()/f/image/tKVn4qIYDiIdQap6A4FN3zsZ.jpg?f=fotoalbum_large

oWRT-Main:
Afbeeldingslocatie: https://tweakers.net/i/2RzA640MI6iKmqKs-HH__uZKMOA=/800x/filters:strip_icc():strip_exif()/f/image/ZhK8grAg22vMTn9ic5LYElSo.jpg?f=fotoalbum_large

Op mijn hoofd server staan beide oWRT's klaar om gestart te worden indien de andere server faalt:
Afbeeldingslocatie: https://tweakers.net/i/GIrl_io-4PY3N6YhAxB4xSp6QHA=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/lEqnis037ZroOVPCtFN2g4Kw.jpg?f=user_large

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +1 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 11-10 20:42
CurlyMo schreef op zaterdag 1 augustus 2020 @ 13:35:
En die overige LXC containers staan ook allemaal op DHCP?
De meeste op fixed. Ik heb het niet zo voor DHCP als het over servers gaat. Ik vind het ook veel overzichtelijker om het IP van de LXC te zien in de Proxmox GUI en dat kan voorlopig enkel als je hem fixed instelt.

Fixed: duidelijk zichtbaar, DHCP niet:
Afbeeldingslocatie: https://tweakers.net/i/vsTOENsDak5nF0FsLzfJE2KIt5I=/800x/filters:strip_icc():strip_exif()/f/image/goCiN4s6QQMC1zIpT2Ppb8fk.jpg?f=fotoalbum_large

Ik gebruik PHPIPAM (lxc) als IP beheer tool.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 16-10 22:22

zeroday

There is no alternative!

Afbeeldingslocatie: https://tweakers.net/i/nH6U1dLU-BYzejfYUTv04FTLp5w=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/iw3lGdzPuFYzYuy0uqtNzNyW.png?f=user_large

toch wel handig als PBS, het beta backup systeem van Proxmox het geweldig doet.

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 16-10 22:22

zeroday

There is no alternative!

iemand idee waarom
pvestatd
stopt met werken maar er geen signaal over geeft?

Afbeeldingslocatie: https://tweakers.net/i/2PqLGf9QMwHy1Rd04sOUGwiibjM=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/LDZ4usM9bWVQm1WGDDGCSWxy.png?f=user_large

pvestad herstart en ik krijg weer output in mijn omgeving. Gold trouwens voor 2 nodes in mijn clustertje..
alle statistieken van de summary 'leeg' voor die uren

There are no secrets, only information you do not yet have


Acties:
  • +2 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 16-10 22:22

zeroday

There is no alternative!

CurlyMo schreef op maandag 5 oktober 2020 @ 09:31:
[...]

Maar dan let je als gebruikers ook niet goed op. In je zpool status is toch duidelijk te zien dat er een partitie wordt gebruikt of niet. Zo ja, dan is het logisch eerst een partitietabel clone te doen naar je nieuwe schijf.
nou dat ben ik niet (helemaal) met je eens
Afbeeldingslocatie: https://tweakers.net/i/woxpQQ_qdNPcQkp1eQY3eEEptJg=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/YLu2VFqfOoQygjqNwUMDcJnQ.png?f=user_large

je ziet hier inderdaad een part3 .. maar uh hoe wat ? en nu?
Het kan allemaal wel logisch zijn, maar proxmox heeft de indeling gedaan, het simpele klonen van de andere partities? Dat wordt nergens beschreven.

Kijk als dat nu 1 keer ergens vermeld wordt dan kan dat als howto gebruikt worden .. maar ik zal nog steeds geen enkele idee hebben hoe ik dat moet gaan aanvliegen

Afbeeldingslocatie: https://tweakers.net/i/0JlWL4wGLGbzlz8AxzO__Hvo3jo=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/HUb2R7qK50j97LWW8mQrqhL2.png?f=user_large

En ja ik zie echt nu wel, nu ik er op wordt gewezen dat er nog 2 partities zijn, maar die zitten dus inderdaad niet in de rpool

dus dat is het missende stukje, en ik verwacht niet dat ik de enige ben.

Update:
wellicht dat hier de info staat wat ik zocht maar toen niet zag toen ik het nodig had ;-)

https://edmondscommerce.g...-in-zfs-zpool-on-proxmox/

[ Voor 6% gewijzigd door zeroday op 06-10-2020 07:39 ]

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • scorpion303
  • Registratie: Juni 2002
  • Niet online
Na ongeveer een half jaar stabiel te hebben gelopen, begint mijn Proxmox server kuren te vertonen. Het lijkt erop dat iedere nacht (nadat de vijf VMs zijn gebackupped naar de 'local' storage) de IO delay iedere keer wat toeneemt. Dit herhaalt zich voor enkele dagen/weken, waarna het systeem uiteindelijk compleet vastloopt. Hieronder de IO grafieken op respectievelijk dag-, week- en maandbasis.

Afbeeldingslocatie: https://tweakers.net/i/rnhvg2k3uTdT4lrEi10pIKuZXL0=/800x/filters:strip_exif()/f/image/JFnfm4YierWu49cLUYC8LY1w.png?f=fotoalbum_large


Afbeeldingslocatie: https://tweakers.net/i/l5JU5P_GdWbenxpvc8Rn0M7Z9z4=/800x/filters:strip_exif()/f/image/rzOM5BydrKnMnM9jkCSUby8O.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/W5km6ME2qfUbpScK6stYkyt7E7Q=/800x/filters:strip_exif()/f/image/H5C0RftJnh6JRYWnJ1JXsmun.png?f=fotoalbum_large


Weet iemand wat hier aan de hand kan zijn of hoe ik dit verder zou kunnen onderzoeken/verhelpen? Mijn setup is vrij basic: Intel NUC (D54250WYK), 16GB RAM, 256GB SSD, 4 VMs (1x Home Assistant / HassOS, 3x Debian voor docker-host, pi-hole, unifi-controller & dsmr-reader).

Ik heb op VM niveau zitten zoeken (en deze stuk voor stuk uit- en aangezet) maar kan hier niets relevants vinden.

Ik zie wel fouten mbt een 'degraded' ZFS, maar op SMART gebied zijn er geen issues.

[ Voor 17% gewijzigd door scorpion303 op 04-12-2020 17:07 ]


Acties:
  • 0 Henk 'm!

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 14:16
Ik ben zelf vrij nieuw in Proxmox en Linux. En nu heb ik wat disk storage issues.

Ik heb Proxmox draaien met 2 VMs. Home Assistant en een losse Debian image voor DSMR-reader. Beide hebben 32GB per stuk aan opslag tot hun beschikking. (LocalLVM)

Maar nu zit dat dus vol... En dan werkt Home Assistant niet meer. Ik heb een snapshot image weggegooid om ruimte te maken, maar dat lukt straks niet meer. Ik zag ook dat Home Assistant opeen 3GB wegschreef.
Afbeeldingslocatie: https://tweakers.net/i/R7kD_caD9Ifdw_dRdVh9ZGnHrHY=/800x/filters:strip_exif()/f/image/lb5eq341gt74wHnVcMXw0Eod.png?f=fotoalbum_large

Hoe kan ik ruimte vrij maken?
En hoe kan ik uberhaupt zien wat nu zoveel ruimte in neem in Proxmox? Al wat google-dingetjes geprobeert maar ik krijg de local-lvm's niet te zien in proxmox met df -h

Afbeeldingslocatie: https://tweakers.net/i/mU1GMsiwqKqsDEsjA-u8QG4IYjE=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/77gWuDtOxnhuFZkI4i4JM7D2.png?f=user_large

Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 21:06
@Waah Even los van het probleem, maar dan is je HA wel érg vol hoor. Ik gebruik de QCOW2 image van HA, heb 5 addons en met wat gefilterde logging zit ik op een daadwerklijke schijfgebruik van 9GB
Afbeeldingslocatie: https://i.imgur.com/rsQhd44.png

Ruimte vrijmaken zul je op de VM zelf moeten doen. Staan er oude docker images die niet gebruikt worden? Heb je addons die ontzettend grote images gebruiken? En anders de disk vergroten, dat kan natuurlijk ook gewoon. Maar ik vind 32GB toch wel flink. De piek met data zou kunnen komen doordat je HA ging updaten op dat moment? Dan wordt gewoon de Docker image gedownload en die zijn best groot als ze eenmaal zijn uitgepakt op je machine.

Acties:
  • 0 Henk 'm!

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 14:16
lolgast schreef op woensdag 27 januari 2021 @ 13:37:
@Waah (Ik heb niet héél veel verstand van Proxmox)
Volgens mij kun je met het command lvdisplay zien welke disk images je hebt en hoe vol ze zitten.

Maar volgens HA zat je image nog helemaal niet vol, dus het lijkt me sterk dat daar een probleem door is ontstaan. Of is je local-LVM storage kleiner dan 64GB? Als daar 2 images op staan die elk 32GB groot kunnen worden moet hij die ruimte wel hebben natuurlijk. Als dat maar 20GB is en samen komen ze op 21GB uit, heb je een probleem :)
Heb beide VM's even df -h gedaan. dat geeft:
Hassio:
Afbeeldingslocatie: https://tweakers.net/i/_OQk_PhNOdKATx5DBXzC8PR3whU=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/Hws1IEPumzDtwj3oKeSxih5H.png?f=user_large

Debian:
Afbeeldingslocatie: https://tweakers.net/i/R0PUzUBViVy23oR5s3RiiCYuKac=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/M7djmTatFAQADLVgPIT8Dq44.png?f=user_large

Als ik dat optel, kom ik op zo'n 21 GB aan gebruikte opslag.
De local-lvm heeft 64GB beschikbaar
Afbeeldingslocatie: https://tweakers.net/i/l2Dhb2xQ9EoOM4w3G9GJtFxa75I=/800x/filters:strip_exif()/f/image/Q4TsCGtqXY0461BlP8JnXccS.png?f=fotoalbum_large

Wat mis ik 8)7

Acties:
  • 0 Henk 'm!

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 14:16
_JGC_ schreef op woensdag 27 januari 2021 @ 14:17:
@Waah Je gebruikt thin provisioned LVM voor opslag van VMs. Kijk eens naar vgdisplay ;)
Met vgdisplay kwam ik niet veel verder eigenlijk
Afbeeldingslocatie: https://tweakers.net/i/Q_nBzqkjDiGCOZwazSlK4BwQhf8=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/OxleC8GgH1yD14saOnH08dzD.png?f=user_large

Maar kwam zo ook op lvdisplay en de afgeleide lvs

Dan zie ik toch dat mijn Hassio Image "vol" zit.
Afbeeldingslocatie: https://tweakers.net/i/YGP7Mm7uwuuIkC6MG4xVMxD5hRY=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/2fyujiKbrkL3uygHrj6RnZIw.png?f=user_large

Ik heb een snapshot verwijderd, dus heb nu weer iets meer ruimte. Maar snap niet waarom die hassio-image zo groot is... Maar zal wel informeren in het home assistant topic.

Maar als ik het goed begrijp, je kunt niet even door zo'n volume grasduinen om te zien wat zoveel ruimte in neemt?

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 16-10 22:22

zeroday

There is no alternative!

powerboat schreef op woensdag 10 maart 2021 @ 07:13:
[...]


Normaliter werkt dat wel prima met die stappen zal dadelijk eens kijken wat ik er heb staan.

Overigens ... weet niet of je performance issues hebt. Maar ik de powersettings van mijn server in de bios op max moeten zetten.
zou daar best mee te maken kunnen hebben

Afbeeldingslocatie: https://tweakers.net/i/RK-yiQBgWPPBBTvFbGovT2QKQJ4=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/lEhjCOvD6JwOUwOOpreZcMZR.png?f=user_large

Ik heb 2x Windows moeten installeren. Mijn eerste config werkte ook voor geen meter. Elke keer ging de VM uit ..

Daarna een andere windows versie gepakt en de link die hier al eerder is voorgekomen gevolgd. de stapjes goed uitvoeren en de drivers goed laden. Of dat uiteindelijk je CPU helpt weet ik niet ..
die van mij staat ook op KVM64 met Default (i440fx)

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 10-10 10:31

icecreamfarmer

en het is

maxxie85 schreef op vrijdag 19 maart 2021 @ 19:07:
[...]


Dat je de VM hebt geïnstalleerd op een schijf met 256GB wil nog niet zeggen je ook zoveel gealloceerd hebt voor de VM. Aangezien de VM een eigen "virtuele" schijf krijgt die leeft op die 256GB schijf.
Jij hebt vermoedelijk maar 7GB gealloceerd voor de "virtuele" schijf.

Als je nog niet te veel hebt geïnstalleerd en geconfigureerd in die VM raad ik je aan om opnieuw te beginnen.
Anders moet moet je eerst in Proxmox de hardeschijf vergroten, en dan met grub de partitie expanderen. Afhankelijk of je een SWAP partitie hebt en waar die zit is dat nog niet zo gedaan.

Je kan de grootte van de "virutele" schijf controleren in de hardware tab van je VM.
Dat dacht ik ook maar daar heb ik dus rekening mee gehouden.

Die staat op 56gb voor die vm.
Ruim genoeg voor home assistant.

Echter lijkt hij qua grootte gekoppeld te zitten aan de kleine local schijf van proxmox.

Plus als ik hem herinstalleer wat moet ik dan doen om dit probleem te voorkomen?

Zover ik weet heb ik het volgens het boekje gedaan.

Edit in plaatjes:
Afbeeldingslocatie: https://tweakers.net/i/1HjbpTssP5jq86tfXfZO_qFm4dI=/800x/filters:strip_exif()/f/image/rE2Xlk0DlVk2DOZtmU6uc04Q.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/Xh7VantQD1cjlCyMv8uot_byqiw=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/K15EG7VXBJWkurSCCKfrwBoS.png?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/hcJiwqIjVg628X8X1T9xh_tTgVQ=/800x/filters:strip_exif()/f/image/x4xGTyEXwrdBXbMPePlyDa4q.png?f=fotoalbum_large

Er is dus genoeg toegewezen. De schijf wordt ook volledig gezien echter lijkt hij vervolgens maar 7gb ipv 256gb te hebben?

Opgelost. Ik snap geen reet van al dat mounten. Daar ging het fout.
Nu dit gebruikt:
https://nubcakes.net/inde...o-add-storage-to-proxmox/

[ Voor 33% gewijzigd door icecreamfarmer op 19-03-2021 22:14 ]

ik zie ik zie wat jij niet ziet


Acties:
  • 0 Henk 'm!

  • barrymossel
  • Registratie: Juni 2003
  • Laatst online: 17-10 10:54
Ah, foutmeldingen:

Afbeeldingslocatie: https://tweakers.net/i/tZVhsItFPI0ZX_u2urVY1PEup5o=/800x/filters:strip_icc():strip_exif()/f/image/GHLHGK7dqYe72jGQlMnyTnuP.jpg?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • 3raser
  • Registratie: Mei 2008
  • Laatst online: 17-10 12:02

3raser

⚜️ Premium member

Momenteel heb ik een VM (met Windows OS) welke Domoticz draait en gebruik maakt van een USB apparaat (een Zwave stick) die op de host is aangesloten. Dit USB apparaat is via de hardware tab in de web GUI gekoppeld aan de VM (zie screenshot) en bij iedere herstart wordt dit device dan ook automatisch aan de VM gekoppeld. Geen problemen daar.

Afbeeldingslocatie: https://tweakers.net/i/88HHV-6PnxjHPfOL8zuyi3wAYrE=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/7FwDQTwFdfAz3cEQ00KcjjI6.png?f=user_large

Nu wil ik dit USB apparaat niet meer op deze VM gebruiken maar koppelen aan een nieuwe LXC met Ubuntu OS. Echter, LXC containers hebben in de web GUI helemaal geen hardware tab. Na de installatie van Ubuntu kan ik het apparaat wel zien via het commando 'lsusb'. Maar in Domoticz zie ik de hardware niet dus ik ga er vanuit dat hij niet werkt of in ieder geval niet beschikbaar is. Mijn vraag is dus, hoe gebruik ik het USB apparaat in deze container?
Ik heb uiteraard al even gegoogled en dan kom ik een heleboel commando's tegen die ik op de host zelf uit zou moeten voeren terwijl ik het idee heb dat dat veel te veel werk is als je het vergelijkt met een VM. Is het gebruik van een USB apparaat in een container echt zo omslachtig? Enige uitleg is zeer welkom.

Acties:
  • 0 Henk 'm!

  • Tim Schuhmacher
  • Registratie: Januari 2000
  • Laatst online: 14:27

Tim Schuhmacher

abasios

Ik ben een nuc aan het inrichten, de directe aanleiding was om mijn Home Assistant installatie te verhuizen van docker naar hun eigen OS. Ik heb er voor gekozen die via Proxmox te laten draaien. Nu ben ik Proxmox aan het verkennen.

In de nuc zit een ssd van 120GB en een hd van 1TB. Ik was in de veronderstelling dat ik Proxmox op de ssd heb geinstalleerd en dat de HD ongemoeid zou blijven, en dat ik de data die er op staat weer zou kunnen benaderen (LXC met samba was mijn idee). Maar nu bekruipt me het gevoel dat proxmox ook de HD heeft toegeeigend. Dat die data nu weg is, is niet een heel groot probleem, het is online gebackuped. Maar ik wil hier even mijn vermoeden bevestigd hebben, en hoe ik verder kan gaan.

Proxmox > Disks laat zien dat beide disks gevonden zijn:
Afbeeldingslocatie: https://tweakers.net/i/Ul-flkcr48DzqRvDQzK0uC_ABu4=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/4f1klcqILJY0ARFoqEoLrbzo.png?f=user_large

Proxmox > Disks > LVM laat het volgende zien:
Afbeeldingslocatie: https://tweakers.net/i/dOjAJ70IgnuvUFELff5uNsK6ZWY=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/O3BGJVkyyMGLQWASh8pTOzD2.png?f=user_large

Zo zag het direct na de installatie uit, dit is niet wat ik zelf ingesteld heb. Klopt het hiermee dat de SSD voor proxmox zelf is gebruikt, en dat de iso / templates daarop komen, en de containers die ik aanmaakt op de HD komen?

Er is nog 17gb vrij, maar ik nog maar 1 vm en 3 lxc draaien, dat lijkt me niet alle data te verbruiken. Of is dat geclaimed maar nog niet gebruikt? Kan ik alsnog wel zeggen dat de data weg is?

Er van uitgaande dat de data wel weg is, maar ik toch nog een LXC met samba wil. Maak ik dan die LXC zo groot (300gb) dat het alle data kan downloaden en herbergen? of is er een andere proxmox-way om dit te bereiken?

root@proxmox:~# lvdisplay | grep -iFe "size" -e "Path" -iFe "Name" -e "Logical volume" -e "Status"
  --- Logical volume ---
  LV Path                /dev/server-vg/root
  LV Name                root
  VG Name                server-vg
  LV Status              available
  LV Size                103.66 GiB
  --- Logical volume ---
  LV Path                /dev/server-vg/swap_1
  LV Name                swap_1
  VG Name                server-vg
  LV Status              available
  LV Size                7.88 GiB
  --- Logical volume ---
  LV Path                /dev/pve/swap
  LV Name                swap
  VG Name                pve
  LV Status              available
  LV Size                7.00 GiB
  --- Logical volume ---
  LV Path                /dev/pve/root
  LV Name                root
  VG Name                pve
  LV Status              available
  LV Size                96.00 GiB
  --- Logical volume ---
  LV Name                data
  VG Name                pve
  LV Status              available
  LV Size                <795.77 GiB
  --- Logical volume ---
  LV Path                /dev/pve/vm-100-disk-0
  LV Name                vm-100-disk-0
  VG Name                pve
  LV Pool name           data
  LV Status              available
  LV Size                4.00 MiB
  Mapped size            0.00%
  --- Logical volume ---
  LV Path                /dev/pve/vm-100-disk-1
  LV Name                vm-100-disk-1
  VG Name                pve
  LV Pool name           data
  LV Status              available
  LV Size                32.00 GiB
  Mapped size            25.95%
  --- Logical volume ---
  LV Path                /dev/pve/vm-101-disk-0
  LV Name                vm-101-disk-0
  VG Name                pve
  LV Pool name           data
  LV Status              available
  LV Size                2.00 GiB
  Mapped size            90.67%
  --- Logical volume ---
  LV Path                /dev/pve/vm-102-disk-0
  LV Name                vm-102-disk-0
  VG Name                pve
  LV Pool name           data
  LV Status              available
  LV Size                2.00 GiB
  Mapped size            40.55%
  --- Logical volume ---
  LV Path                /dev/pve/vm-103-disk-0
  LV Name                vm-103-disk-0
  VG Name                pve
  LV Pool name           data
  LV Status              available
  LV Size                2.00 GiB
  Mapped size            36.35%

Acties:
  • 0 Henk 'm!

  • smeerbartje
  • Registratie: September 2006
  • Laatst online: 16-10 16:07
eymey schreef op donderdag 27 mei 2021 @ 09:28:
Theoretisch zit je zonder een subscription potentieel ook op een gegeven moment met een stukke Proxmox VE installatie, omdat je op een minder stabiele repository zit dan wanneer je een subscription hebt. Dus als je echt iets gaat opzetten waarbij stabiliteit van cruciaal belang is (bedrijfsmatig), dan loont het wellicht om een subscription te nemen.

In praktijk heb ik dit op mijn (enige) Proxmox VE bak thuis nog nooit mee gemaakt.
Thanks; ik zie nu wel dit voorbij komen in de logs:

Afbeeldingslocatie: https://tweakers.net/i/OPdc1go_486q7j7zYyxTvvQzxTI=/800x/filters:strip_exif()/f/image/iO37zppihY4C1xCfYlrlP0sz.png?f=fotoalbum_large

Heeft dit te maken met het ontbreken van een subscription? Ook geeft het update scherm dit weer:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
Proxmox
Virtual Environment 6.4-4
Search
Node 'pve'
Show details
Server View
Logs
starting apt-get update
Hit:1 http://ftp.nl.debian.org/debian buster InRelease
Hit:2 http://security.debian.org buster/updates InRelease
Get:3 http://ftp.nl.debian.org/debian buster-updates InRelease [51.9 kB]
Err:4 https://enterprise.proxmox.com/debian/pve buster InRelease
  401  Unauthorized [IP: 2a01:7e0:0:424::249 443]
Reading package lists...
E: Failed to fetch https://enterprise.proxmox.com/debian/pve/dists/buster/InRelease  401  Unauthorized [IP: 2a01:7e0:0:424::249 443]
E: The repository 'https://enterprise.proxmox.com/debian/pve buster InRelease' is not signed.
TASK ERROR: command 'apt-get update' failed: exit code 100

[ Voor 28% gewijzigd door smeerbartje op 28-05-2021 11:08 ]


Acties:
  • 0 Henk 'm!

  • cville
  • Registratie: Juni 2012
  • Laatst online: 17-10 19:54
Ik redirect op dit moment alle log files naar een aparte pool: lpool. Het valt me op dat zodra ik op het Proxmox dashboard inlog, de write rate van 2.4 naar 10.4 GB/dag toeneemt; een toename van 8GB/dag. Heeft iemand hier een verklaring voor?
Afbeeldingslocatie: https://tweakers.net/i/heaqmAjpq1g133mO4UH3bOdlPKA=/800x/filters:strip_exif()/f/image/dQnrGDxLPKoOXeNtkQ1Dgcwd.png?f=fotoalbum_large

12.090kWp → 40 panelen → oost/zuid/west | Tibber | EV


Acties:
  • 0 Henk 'm!

  • Possible
  • Registratie: Mei 2002
  • Laatst online: 17-10 14:33
krijn1985 schreef op vrijdag 2 juli 2021 @ 07:41:
[...]


Ik gebruik zelf de "Use USB Vendor/Device ID" optie. Heb je je VM al een keer herstart na het doorgeven? Of kijk hier even hoe je hem doorgeeft aan een draaiende VM.

Met lsusb op je proxmoxhost kun je ID (zoiets als AxBCDE:0x1234) ophalen dan via qm monitor <VMID> kom je in QEMU monitor van VM en dan met device_add usb-host,vendorid=AxBCDE,productid=0x1234 kun je hem toevoegen aan je VM.

Check ook voral even met lsusb in je VM of je hem daar ziet.
Ik zal eens kijken of dat gaat lukken inderdaad. Omdat ik ook een P1 kabel heb, geven deze dezelfde Id's weer:

Afbeeldingslocatie: https://tweakers.net/i/CKF0A41CkseuXv0NlMe_Z2wNnjM=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/01g1cH8rGpVvW6b9rIMB5Jf5.png?f=user_large

Dus dat is ook vaag.

Gasloos sinds 2020 - 3240wp-Z Live 5100wp-W Live 8340wp-Merged Live Altantic Explorer 200 Live


Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 10-10 10:31

icecreamfarmer

en het is

nero355 schreef op woensdag 11 augustus 2021 @ 18:57:
[...]

Bij het begin beginnen : Wat zegt smartctl -a /dev/sda :?
Smart zegt geen errors logged, alles is completed without errors.

Net dit gedaan:
mv /etc/zfs/zpool.cache /etc/zfs/zpool.cache.backup
reboot.
root@pve:~# systemctl status zfs-import-scan.service
● zfs-import-scan.service - Import ZFS pools by device scanning
Loaded: loaded (/lib/systemd/system/zfs-import-scan.service; disabled; vendor
Active: inactive (dead)
Docs: man:zpool(8)
root@pve:~# systemctl status zfs-import-cache.service
● zfs-import-cache.service - Import ZFS pools by cache file
Loaded: loaded (/lib/systemd/system/zfs-import-cache.service; enabled; vendor
Active: inactive (dead)
Condition: start condition failed at Wed 2021-08-11 19:05:22 CEST; 6min 8s ago
└─ ConditionPathExists=/etc/zfs/zpool.cache was not met
Docs: man:zpool(8)

Nog steeds boot in emergency.
Zie nu ook Failed to start File System Check on /dev/disk/by-label/storageproxmox staan.

Kijk ik voor meer details dan volgt dit:

Afbeeldingslocatie: https://tweakers.net/i/ng6vdIVMziyrvPf-ffnvD6sQf4Y=/800x/filters:strip_icc():strip_exif()/f/image/x3c5wIIJQnszSRHJbtW5KSRA.jpg?f=fotoalbum_large

[ Voor 86% gewijzigd door icecreamfarmer op 11-08-2021 19:22 ]

ik zie ik zie wat jij niet ziet


Acties:
  • 0 Henk 'm!

  • icecreamfarmer
  • Registratie: Januari 2003
  • Laatst online: 10-10 10:31

icecreamfarmer

en het is

nero355 schreef op woensdag 11 augustus 2021 @ 19:46:
[...]

Dat boeit niet : Post eens de output ervan! :)

Tussen cmd tags en quote tags eromheen a.u.b. om het scrollen door het topic heen aangenamer te houden!


[...]

Je bent te ver gegaan IMHO en ik hoop dat het je nog terug kan draaien...

Eerst de hardware checken en dan pas met ZFS knoeien ;)
Het leek mij geen kwaad kunnen omdat ik geen zfs gebruik en die error nu weg is.

Hierbij de output van de smart
Afbeeldingslocatie: https://tweakers.net/i/KfeZrj-aSACVF5KhWNjnXMtfnKQ=/x800/filters:strip_icc():strip_exif()/f/image/lqBMF91ZnXT3xDJLFcXF3Ya3.jpg?f=fotoalbum_large

Het is een Intel m2 ssd.

ik zie ik zie wat jij niet ziet


Acties:
  • +1 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 15:53
Backup naar synology kan op meerdere manieren, maar ik gebruiken een nfs share op de synology, met de volgende entry in mijn fstab op de proxmox host:
code:
1
servernaam.lan:/volume1/files1/share_linux /mnt/mymount/share_linux   nfs      rw,sync,hard,intr  0     0


en onder datacenter > storage > add kan je hem dan toevoegen:
Afbeeldingslocatie: https://tweakers.net/i/GMOMcesLTNm-ZRcVlWAXvo2PH_A=/800x/filters:strip_exif()/f/image/UKAYqGNSuKdDIz9L80Xvt3VE.png?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 17:49

Damic

Tijd voor Jasmijn thee

Mmmh was dit topic aan't zoeken tussen Server software maar wat doet dit in HW :o

Anyway ik probeer een promox server optezetten maar ik krijg windows 10 / Windows 2019 server niet geïnstalleerd. Bij beide krijg ik dezelfde error bij installatie: System Thread Exception not handled

Nu heb ik wel wat instellingen anders moeten zetten dan wat ik tot heden heb tegengekomen
Instellingen Processors:
Sockets: 2
Cores: 4 (total cores: 8)
Type: host
Numa = Enabled

Afbeeldingslocatie: https://tweakers.net/i/1P1afBrVWHtVyfc6XMkqmqgAqhI=/234x176/filters:strip_exif()/f/image/iCoutwTBkQGYBupOiJ3RmjlK.png?f=fotoalbum_medium

Als ik naar Processor Type: KVM64 (default) gaan dan geeft QEMU code 1 fout.

Iemand een idee wat ik hieraan kan doen?

Edit:
Hardware:
AMD 1950X
64GB DDR4 3200MTs
2x 1TB NVME (RAID 1) voor Proxmox/iso's/VM's

[ Voor 6% gewijzigd door Damic op 31-08-2021 17:56 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +2 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 17:49

Damic

Tijd voor Jasmijn thee

@Zenix nope dan krijg ik dit: start failed: QEMU exited with code 1

Eeey als je dubbelklikt krijg je de volledige foutmelding *O*
kvm: warning: host doesn't support requested feature: CPUID.01H:EDX.ss [bit 27]
kvm: warning: host doesn't support requested feature: CPUID.80000008H:EBX.amd-ssbd [bit 24]
kvm: warning: host doesn't support requested feature: CPUID.80000008H:EBX.amd-no-ssb [bit 26]
kvm: Host doesn't support requested features
TASK ERROR: start failed: QEMU exited with code 1
ha alle advanced cpu opties op default zetten dan boot ie wel :)
Afbeeldingslocatie: https://tweakers.net/i/SZcEdLlTGdvYpv75RXyzYhmOJCo=/234x176/filters:strip_exif()/f/image/4Bv3Fpr2B1vkYZk3ZzsQqzzh.png?f=fotoalbum_medium
*O* *O* *O* *O* *O* *O* *O*

Ow Threadripper start op als EPYC :D

[ Voor 54% gewijzigd door Damic op 03-09-2021 06:52 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +1 Henk 'm!

  • oltk
  • Registratie: Augustus 2007
  • Laatst online: 16-10 19:15
ocaj schreef op dinsdag 14 september 2021 @ 21:21:

.... Enterprise subscription ...
Ik zou niet precies weten hoe dit moet. Maar in proxmox 7 zit het toevoegen en wijzigen van repositories als onderdeel van een subscription in de GUI.

Afbeeldingslocatie: https://tweakers.net/i/COOdqbL6j8T5gNVjpYvOct-vzN4=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/Qk0PWEJ5EoywIUVmNFUpxSeM.png?f=user_large

Acties:
  • +1 Henk 'm!

  • oltk
  • Registratie: Augustus 2007
  • Laatst online: 16-10 19:15
ocaj schreef op dinsdag 14 september 2021 @ 22:48:
[...]

Ik las inderdaad dat dat een nieuwe feature is van proxmox 7. Maar ik wil graag over naar de enterprise-repositories vóórdat ik migreer naar proxmox 7.

De configuratie staat normaal gesproken in een bestand in /etc/apt/sources.lists.d
(daar heb ik ook anderhalf jaar geleden de aanpassing gedaan van enterprise -> no-subscription , maar verzuimd een backup te maken van de oorspronkelijke configuratie)
Ik had dit staan (ik had het weg gecomment)
/etc/apt/sources.list.d/pve.enterprise.proxmox.com

Afbeeldingslocatie: https://tweakers.net/i/abWUM6ogmPktQ5KWtm62_4m4TqQ=/800x/filters:strip_exif()/f/image/T4xuLQ208jO9qQkSJhNfJh47.png?f=fotoalbum_large

[ Voor 21% gewijzigd door oltk op 14-09-2021 23:47 ]


Acties:
  • 0 Henk 'm!

  • Babirusa
  • Registratie: Oktober 2017
  • Laatst online: 10-10 16:53
Graag jullie hulp! Ik wil een proxmox (32GB ECC RAM Ryzen 5) server gaan inrichten voor kleinzakelijk gebruik, vooral voor videobewaking, NAS en een paar Win10/Linux desktop/kantoorapplicatie VM’s. Idee is:
• Het Proxmox OS en de VM’s op een SSD
• Alle (gebruikers)data op NAS-opslag (3 NAS HDD’s in ZFS RaidZ-1)
• De videobeelden (24/7 streams) komen op een speciale surveillance HDD (WD purple), backup niet nodig.
• Snapshots van de VM’s opslaan op de NAS; crasht de SSD dan herinstalleer ik Proxmox + snapshots.
• Cloud backup voor alle gebruikersdata op de NAS (VM snapshots niet, zijn te groot).

De SSD biedt zo snelheid voor de VM’s en het ZFS Raid1 NAS biedt veiligheid (zelfcorrigerend ZFS, zeker icm het ECC geheugen) aan de data en snapshots. In een plaatje:
Afbeeldingslocatie: https://tweakers.net/i/N4gtdVuQYb5WJkdokE0TGQOM79Q=/800x/filters:strip_exif()/f/image/JEMuqwXMXN4GXma0QWV8SvHP.png?f=fotoalbum_large

Mijn vragen:
1. Is dit een goede inrichting of kan/moet er iets anders?
2. Zijn de filesystems goed gekozen (EXT4 voor SSD en surveillance disk, ZFS RAID-Z1 voor 3 NAS schijven)

Acties:
  • +1 Henk 'm!

  • oltk
  • Registratie: Augustus 2007
  • Laatst online: 16-10 19:15
netvista schreef op zondag 3 oktober 2021 @ 19:18:
Ik heb zojuist proxmox geinstalleeerd om te kijken ik er mijn huidige truenas server mee kan virtualizeren.

De systeem hardware opzet is als volgt:

AMD 5600x
32 GB mem
2 x 4 TB HGST drives ( deze zijn momenteel geconfigureerd ( ZFS ) in truenas.)
2 x 256 GB nvme samsung SSD drives. 1 van de ze drives gebruikt ik voor het truenas OS. Op de andere heb ik nu proxmox geinstalleeerd.

Tijdens de proxmox installatie heb ik een partitie laten maken van 50 GB voor het proxmos OS> De overige disk space heb ik opgedeeld in een partitie voor ISO’s en een partitie voor VM’s.\\

Het probleem:

In disk -> LVM’s zie ik de partities, maar ik kan ze niet gebruiken om storage te added. Wsl mis ik wat, Kan iemand me uitleggen hoe ik de vrije partities beschikbaar kan maken in proxmox en kan gebruiken voor data ?
Ik weet niet precies wat je wil. Maar het werkt allemaal net anders dan je zou denken (even een schijf gebruiken). Je moet het (zover ik weet) echt expliciet assignen.
Zo kan je een lokale schijf mounten via
datacenter > storage > add
je Id is de naam van de mount
Als je directory kiest: de locatie van de disk of map
je kan zo ook allerlei netwerkschijven mounten etc

Zie screenshot van een SMB map die op een andere server wordt aangeboden
Kies wel voor waarvoor je het wil gebruiken! Als je het niet aanvinkt, kan je het niet gebruiken voor het doel dat je wil (dropdown menu, je kan meerdere doelen kiezen).
Afbeeldingslocatie: https://tweakers.net/i/PXnPFuhF0zHA2oJ_vkJGf4017nI=/800x/filters:strip_exif()/f/image/TtV8YjGuyusFRwXgvgyG82w7.png?f=fotoalbum_large

Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 18:19

orvintax

www.fab1an.dev

haborym schreef op vrijdag 31 december 2021 @ 07:07:
[...]

Volgens mij niet automatisch. Moet er nog even induiken maar volgens mij kan ik beide disken in sync brengen wat betreft de efi boot.
Hierover gesproken, bij mijn node zie ik dit staan onder de disks. Het lijkt er dan toch op dat ik hier wel van beide kan booten of niet? Ik heb zelf nooit hier iets manueel mee gedaan. :)

Afbeeldingslocatie: https://tweakers.net/i/gDJf5vRAvaWG1PoC2YWcRTHao_c=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/t2Z1nSKc8qN8m848khkQfmFp.png?f=user_large

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • haborym
  • Registratie: September 2008
  • Laatst online: 13-10 13:36
orvintax schreef op vrijdag 31 december 2021 @ 20:28:
Hij geeft de twee disks aan dus ik neem aan dat het in orde is. Dan vind ik het raar dat het bij @haborym niet automatisch zo is.
Dat vindt ik ook, maar ik heb 1 van die 2 SK hynix latjes als eens vervangen. Ik heb toen niet de stappen gevolgd die ik nu heb gevolgd. toen heb ik alleen een zpool replace uitgevoerd zonder SGDisk uit te voeren.
Denk dat ik van de week nog even de SK hynix SC311 tijdelijk terug zet in de mirror om daarna de juiste partities aan te maken bij de intel zonder boot. Dan klopt alles weer.


Heb nu 2 INTEL enterprise ssd's erin gezet. 1 van de 2 is zelfs helemaal ongebruikt, de andere heeft 3 jaar gedraaid.


Afbeeldingslocatie: https://tweakers.net/i/N_2KidHMIq1fXpNLD0A18xocglY=/800x/filters:strip_exif()/f/image/2GtIUyK9kvMWml6t3Fp6YLVY.png?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • Ankh
  • Registratie: Mei 2001
  • Laatst online: 18:05

Ankh

|true

orvintax schreef op dinsdag 25 januari 2022 @ 09:56:
[...]

Er zijn grofweg twee manieren en je noemt ze beide.
- Mount de NFS share in Proxmox en maak een mount point aan voor je (unprivileged) LXC container.
- Mount de NFS share direct in je privileged LXC container.

Ik raad altijd optie 1 aan. Unprivileged containers runnen als root. Dus mocht het iemand lukken om uit je container te ontstnappen (wat erg lastig is maar niet onmogelijk) dan zijn ze root op je node. Gebeurt dat in een unprivileged container dan zijn ze gewoon een "normale" user. Daarnaast zegt het LXC team dit over privileged containers:

[...]

Ik raad het dus af waar mogelijk :P

[...]

Dit ligt aan welke "doeleinde" je een storage configuratie geeft binnenin Proxmox. Met een andere keuze maakt ie een andere folder aan. Dit maakt eigenlijk niet uit en kun je negeren. Als je dit hebt gedaan kun je een mountpoint aanmaken tussen je NFS share en je container en dan kun je aan de bestanden in die share (mits je de juiste rechten hebt).
Even als voorbeeld, ik heb een share waar ik een NZB neerzet. Deze wordt dan via de docker opgepakt en download alle bestanden, pakt ze uit en verplaatst dit weer naar de correcte directory (of share). Dit wordt dus nu zo toegepast op mijn NAS, nu ben ik dit nabootsen op m'n proxmox host met wat LXC containers. Uit eindelijk zal deze methode verdwijnen, maar wil eerst even alles overzetten. Nu heb ik gekeken naar (je) optie 1, maar mijn gedachte gang zal denk ik net verkeerd zijn: Afbeeldingslocatie: https://tweakers.net/i/9LzULw-3f235Pcb-Qp7sy-ykfRY=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/zDbFFJid4aTZTNx1fBcQBAWP.png?f=user_large
Afbeeldingslocatie: https://tweakers.net/i/mPy5S4AGTONE2SNmvUrxfsnYhYU=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/xjEpmQCIRgMaJIO4gmXkxGn4.png?f=user_large

-Ankh- Camera Gear: Nikon D7000 | Nikon AF-S DX 16-85mm f3.5-5.6 AF-S DX VR & Tokina AT-X 116 Pro DX AF 11-16mm f2,8


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Komt iemand dit soort gedrag bekend voor?

Ubuntu Server (mijn docker host), RAM gebruikt neemt flink af (van +-2GB naar +-700MB) en het CPU gebruik stijgt simultaan. Ik zie via htop niet echt iets bijzonders wat kan duiden op dit vreemde gedrag. Iemand al eens gehad toevallig?

Afbeeldingslocatie: https://tweakers.net/i/0uM0gTLx0dN-KRzkQn6wf1qsS7E=/800x/filters:strip_exif()/f/image/MNkovp3JfvEogyRNskmdsWbA.png?f=fotoalbum_large

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +1 Henk 'm!

  • sypie
  • Registratie: Oktober 2000
  • Niet online
@Goof2000 Dank, dat verklaart een heleboel.

@nero355 Waar ik me door in de war liet brengen was onderstaand venster, bij het aanmaken van een CT (of een LXC zoals je wilt). Uiteindelijk maakt het kennelijk weinig uit en kun je een statisch IP-adres opgeven gevolgd door /8. Dit heeft, voor zover ik tot nu toe heb gemerkt, geen enkele invloed op de werking van de CT of voor het netwerk.
Afbeeldingslocatie: https://tweakers.net/i/owYbRLL_znXKrK5iPJIcpiJRrcE=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/ymts2fjJ4Q2L27LIdyURIhGC.png?f=user_large

Inmiddels thuis op mijn Synology ook aan het klooien met Proxmox als een VM. Zo kan ik er net even wat meer in thuis worden zonder dat het mij dure productie-uren kost op school. Uitzoeken doe ik het liefst in de vrije tijd zodat ik het op school zo snel mogelijk voor elkaar kan hebben.

Inmiddels ook Heimdall thuis aan de praat, dat is ook iets wat ik op school ga gebruiken, scheelt een boel IP-adressen onthouden en mijn studenten kunnen sneller naar hun website doorklikken.

EDIT: inmiddels weer 3 stappen verder op mijn thuisnetwerk. Pihole met lokale DNS draait. Dit maakt het ook nog eens makkelijker om met domeinnamen te gaan werken voor mijn studenten.

[ Voor 8% gewijzigd door sypie op 10-04-2022 16:59 ]


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 16-10 22:22

zeroday

There is no alternative!

HellStorm666 schreef op dinsdag 19 april 2022 @ 11:35:
[...]


Die ZFS store vanuit Proxmox gemaakt.
Deze in PBS toegevoegd (als XFS, is dat ok?)

Hoe/waar kan ik die Sync instellen?
Ik vind alleen de optie om dit te doen naar een andere PBS kast.
hier wat plaatjes

Afbeeldingslocatie: https://tweakers.net/i/RLhkbu0PvaBfGpC7dseZ-ulAHXY=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/uwqtZEAVE2xzMKYIuImEuTmb.png?f=user_large

Config van de VM, gemaakt van een van de eerste ISO's

Afbeeldingslocatie: https://tweakers.net/i/YIxUQoHaJKsswl-FKPUw4Lp8I7M=/800x/filters:strip_exif()/f/image/CVnRftG2tUTycufQVGV4sX5J.png?f=fotoalbum_large

de Disk in PBS als Store1

Afbeeldingslocatie: https://tweakers.net/i/MgGaLErpazpTvlJhTFTZvwb3tH0=/800x/filters:strip_exif()/f/image/1EWWfdJ6oOPlUKBtbgGLxGQb.png?f=fotoalbum_large

de toegevoegde SMB share als storeSMB via een entry in /etc/fstab in PBS

//10.x.x.xx/Backups/Proxmox /mnt/backup cifs uid=34,gid=34,credentials=/root/smb,iocharset=utf8,vers=3

altijd een beetje pielen of dit juist werkt kan per SMB NAS verschillen

Afbeeldingslocatie: https://tweakers.net/i/dXM3XWBckLom3_JgRuCm9e0E-eg=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/ThpuwEDvPsARESvdzoOPTPCy.png?f=user_large

En dan de sync en hier is de sync gewoon naar zijn eigen local host .. ;) naar de Store1
hier heb ik pas lopen te knoeien omdat ik van een OpenMediaVault NAS naar een TrueNAS over ging
en dat duurde en duurde, en ik was toen vergeten dat de .chunks folder weer aangemaakt werd

Afbeeldingslocatie: https://tweakers.net/i/h8krq6QdsYx_jKokS1F4jP8PGJs=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/AiTMJkFfh0uVOstaKvBRcr0D.png?f=user_large

uiteindelijk synced tie dan store1 met storeSMB (whatever naam je het dan ook maar geeft)
en wordt de storeSMB een kopie van Store1
en als je dan de pruning ook goed instelt dan gaat het allemaal automatiek ..

[ Voor 19% gewijzigd door zeroday op 19-04-2022 12:04 . Reden: verkeerd plaatje ]

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • n0ss
  • Registratie: Mei 2013
  • Laatst online: 30-09 12:33

n0ss

⭐⭐⭐

dcm360 schreef op maandag 9 mei 2022 @ 09:44:
@n0ss Is de schijf in Windows dus wel te zien en te gebruiken? Als dat niet het geval is, zou ik proberen de nvme-schijf opnieuw te plaatsen. Uit mijn ervaring is gebleken dat het mogelijk is om een SSD dusdanig in een M.2-slot te krijgen dat deze wel wordt opgepakt via smbus, maar dat de pcie-lanes zelf onvoldoende contact maken.
Voordat ik Proxmox had geinstalleerd heb ik de windows installer gedraait om de hardware even te controleren, zowel in de bios als in de windows setup zag ik beide disken.

Vervolgens heb ik Proxmox geinstalleerd op de Sata SSD, en zowel tijdens de setup als later zie ik de nvme disk nergens terugkomen.


Meen me wel te herinneren dat wanneer ik Windows wou installeren op de 2e disk (NVME) dat ik een error krijg. De NVME disk zit er wel goed in en heb ik ook al eens losgehaald en weer vastgemaakt.
Uit mijn hoofd was dat deze error: https://linustechtips.com...llation-problems-on-nvme/ Echter was het enige wat was aangesloten de twee drives, USB muis en toetsenbord en HDMI.

BIOS:
Afbeeldingslocatie: https://tweakers.net/i/zYZsgmTDe3C54aC_581Euae4Wzk=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/WMyRgm7NxOnEbBscdMQ5mjRe.png?f=user_large

[ Voor 19% gewijzigd door n0ss op 09-05-2022 14:09 ]


Acties:
  • +1 Henk 'm!

  • Polyphemus
  • Registratie: Maart 2003
  • Laatst online: 18:43
haborym schreef op donderdag 12 mei 2022 @ 15:28:
Is hier iemand die Windows 10 zonder issues heeft draaien op ProxMox op een AMD platform?
Ik heb Win10 op mijn proxmox draaien maar die draait niet stabiel. Minimaal 1x per week veelal vaker loopt die VM vast.
Ik kan ook niet achterhalen wat het is.
Bij mij draait deze config al maanden prima op een Ryzen 5600G:

Afbeeldingslocatie: https://tweakers.net/i/SWQq00lvRH1Jct46NcizdMtl6pI=/800x/filters:strip_exif()/f/image/uJhKvxROF0qh5jJIvdLc4pRi.png?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • haborym
  • Registratie: September 2008
  • Laatst online: 13-10 13:36
Ik heb het probleem gevonden, nu alleen nog de oorzaak.
In het eerste plaatje een screenshot die genomen is om 09:56 en die daaronder om 10:01. In 5 minuten het geheugen gebruik gestegen van 5.5 tot 8.3 en het blijft maar groeien.
Na een reboot staat het geheugen gebruik op 4.6 en begint vanaf daar te stijgen. Ik heb de ballooning service geïnstalleerd en geactiveerd in Proxmox.

Iemand een idee wat het probleem kan zijn? Zit zelf te denken om een nieuwe VM op te bouwen.

Afbeeldingslocatie: https://tweakers.net/i/iANT4tF0qpvFl2A5mKcurJQfU-k=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/nLMKkelaGlqYTQFbcTJ62BSM.png?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/Ct6GiUhfwnANA9lymSf64l8IYjY=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/PsZfp7YTlCPPOGXCBDuuHuNL.png?f=user_large

Acties:
  • +1 Henk 'm!

  • Woodski
  • Registratie: Maart 2006
  • Laatst online: 17-10 21:31
Laat ik mijn eigen vraag beantwoorden
De CPU load is 2x zo groot als ik het via de turnkey LXC laat lopen

Eerste piek is een 10GB file naar local storage
De tweede piek is naar dezelfde storage maar dan via Turnkey

Afbeeldingslocatie: https://tweakers.net/i/kccKGquMVcpDYQFx8SV2IRz2-yY=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/LICfv9HW8T3tw35lxBf2kKSU.png?f=user_large

Acties:
  • +3 Henk 'm!

  • htca
  • Registratie: November 2001
  • Laatst online: 17-10 08:23
nero355 schreef op zaterdag 8 oktober 2022 @ 00:10:
[...]

Als het een Intel NUC is dan zou je misschien nog effe kunnen kijken naar BIOS/UEFI updates voor de zekerheid! :)

Verder brakke SSD's vermijden zoals de Kingston A2000 die bij velen voor ellende zorgt i.c.m. een non-Windows OS ;)
Bios geupdate….
Memtest:
Afbeeldingslocatie: https://tweakers.net/i/Hj1-nM5n05elHHQpOzbLSuPHDUU=/800x/filters:strip_icc():strip_exif()/f/image/m1XRe0U6t5bjgfPgljCYZafs.jpg?f=fotoalbum_large

Iets zegt me dat er iets mis is met het geheugen 8)7

Acties:
  • 0 Henk 'm!

  • Peet3kabo
  • Registratie: Augustus 2018
  • Laatst online: 28-09 21:29
Starck schreef op woensdag 12 oktober 2022 @ 10:06:
[...]


De ZFS schijf vervang procedure schijnt wat extra stappen te hebben bij een bootable schijf.
Check deze guide eens vanaf het kopje: Changing a failed bootable device

https://pve.proxmox.com/p....html#_zfs_administration
Dat is dus hoe ik het ook probeer............
Nog een keer gedaan en wederom geen succes

Afbeeldingslocatie: https://tweakers.net/i/hjaje48Xm6nE7i2jbZzza6g96l0=/800x/filters:strip_exif()/f/image/4ScAoH0PARDLyhSRwEF3o6hL.png?f=fotoalbum_large

Acties:
  • +2 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

Feni schreef op zondag 30 oktober 2022 @ 10:17:
[...]


Het kan zoveel simpeler lijkt me, je kan een disk van een vm excluden van backups in de instellingen van die disk. Dan wordt netjes een backup gemaakt, zónder al je camerabeelden.
Dank voor de tip! Dat excluden moet dus vanuit de VM worden gekozen ipv bij het backup deel (daar had ik al gezocht). Met aanmaken van de disk dat hele backup vinkje niet op gelet. Backup overview word die nu geexclude. Zo wil ik het inderdaad.

Afbeeldingslocatie: https://tweakers.net/i/LHb3PKJBHET_SsXQOpOPePDOHdE=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/roES1JbqCvARReXoZDpYk3VO.png?f=user_large

Gelukkig kan het zonder extra VM op te zetten _/-\o_ .

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • +2 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
RobertMe schreef op zaterdag 10 december 2022 @ 12:42:
Even gesprekje / onderzoekje ontstaan uit / in Het grote zuinige server topic - deel 3 dat ik had met @stormfly & @TheByteBoy hierheen verplaatsen.

In het aangehaalde topic heb ik geschreven dat ik met een Chinese MiniPC met Proxmox een zeer onregelmatig verbruik had dat continu tussen de 2,x & 6,x Watt schommeld. @TheByteBoy gaf daarop aan hetzelfde probleem te hebben (sterk schommelend verbruik bij idle) maar dat zijn installatie afkomstig was van een plain Debian install, en Debian wel hartstikke stabiel was in verbruik.

Daarop heb ik eerder deze week een kale Debian installatie op gezet (met experimental 6.1 kernel omdat de 5.10 kernel een veel hoger verbruik had) op basis waarvan ik kan bevestigen dat het verbruik daarvan stabiel is, met 2,x Watt. Vervolgens de Proxmox kernel geïnstalleerd (zoals in de handleiding staat, dus apt repo toevoegen en apt install pve-kernel-5.19, wetende dat die wat nieuwer is en de stock 5.15 kernel issues geeft met de Intel N5105), en het was meteen raak. Gisteren in eerste instantie zelf de PVE kernel gecompileerd zodat ik daarmee verder kon testen (enerzijds baseert Proxmox de kernel dan sowieso op Ubuntu, anderzijds doen ze ook nog eens de compile flags aanpassen voor wat optimalisaties). Deze kernel gaf vervolgens uiteraard ook hetzelfde resultaat. Echter... toen ik weer op de Debian 6.1 kernel zat zag ik exact hetzelfde gedrag. Het verbruik is totaal niet stabiel en blijft op en neer gaan.

Daarom heb ik vervolgens gekeken wat ik precies gedaan / geïnstalleerd had. En dan blijkt dat ee installatie van pve-kernel- ook meteen pve-firmware installeert en de Debian firmware-* packages verwijderd (in mijn geval firmware-linux-free, firmware-iwlwifi & firmware-realtek). Dus pve-firmware verwijderd en de Debian firmware packages opnieuw geïnstalleerd. Et voila, het verbruik is nu wel weer super stabiel op de Debian kernel.

Heeft iemand hier dus ervaring mee? En waarom Proxmox überhaupt hun eigen firmware package heeft? Lijkt mij immers dat de firmware kernel onafhankelijk is (ook gezien de Debian packages niet gekoppeld zijn aan een kernel versie, de Debian 6.1 kernel net zo goed / slecht werkt met de pve-firmware, etc).

* RobertMe gaat als volgende stapje in deze puzzel maar eens kijken of die niet de pve kernel met Debian firmware packages kan draaien.
Here we go:
Afbeeldingslocatie: https://tweakers.net/i/Bhm-m3Bu47VAO9XoLzJLCabCn20=/800x/filters:strip_exif()/f/image/74i8vYDUFjWXCVsLzzsVYRcE.png?f=fotoalbum_large
Clean Proxmox 7.3 installatie (vanaf ISO image), met de 5.19 kernel, vs exact dezelfde installatie na het installeren van een dummy pve-firmware (/leeg package met een Provides: pve-firmware) en het installeren van firmware-linux-free, firmware-iwlwifi & firmware-realtek (laatste twee komen overigens uit de non-free repo). Dus in ieder geval in mijn geval gaat het om een brakke firmware.
Nu nog eens gaan puzzelen met een voor een de (in gebruik zijnde) firmware files vervangen door die uit het pve-firmware package (dus package uitpakken, en dan de files uit de Debian packages overschrijven).

Die 2 korte "blokjes" in de rechte lijn waren toen ik was ingelogd, en in ieder geval een apt show gedaan heb, dus mogelijk dat dat wat activiteit gaf waardoor die voor wat performance ging. Die langere "verhoging" op het eind heb ik geen idee van, maar waarschijnlijk een "meetfout". Meet met een Fibaro WallPlug, en toen ik die, over Z-Wave, een refresh gaf was die meteen terug van 3,x naar 2,x

Acties:
  • +2 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Zeer waarschijnlijk gevonden. Dit is nu Proxmox met pve-firmware in gebruik, met...
Afbeeldingslocatie: https://tweakers.net/i/id-W_lr_KOb7MkL3fUxWsuL50YQ=/800x/filters:strip_exif()/f/image/dlU2rSXW7oPErzS8nudWM63x.png?f=fotoalbum_large
Vergelijking gedaan tussen dmesg gerelateerd aan "firmware" met en zonder pve-firmware. En dan blijkt dat met firmware-linux-free firmware-iwlwifi firmware-realtek er geen "i915" firmware wordt ingeladen, voor de GPU (iGPU dan). Bij Debian zit die in firmware-misc-nonfree. Dat package geinstalleerd => reboot. En leek op "same shit" (grillig verbruik dus). Vervolgens pve-firmware geinstalleerd, de specifieke firmware file met het handje verwijderd, reboot. En bovenstaande screenshot is daarvan het resultaat.

Nu nog puzzelen of dit niet op een andere manier te bereiken valt (module uitschakelen? Inladen van firmware voorkomen?). Want even een file uit package verwijderen is niet echt onderhoudsvriendelijk (elke update van dit package opnieuw verwijderen? :X)

Die kleine verhoging die zo lang duurt was weg nadat ik de plug de waardes heb laten verversen. Dus zal eerder aan de plug gelegen hebben dan continu dat hogere verbruik. Die andere 2, 3 piekjes durf ik niet te verklaren. Maarja, er draait natuurlijk genoeg aan achtergrond.

Acties:
  • 0 Henk 'm!

  • Oesie
  • Registratie: December 2000
  • Laatst online: 21:23
Van de week werkte één naar van mijn VM's niet meer. Met hulp van Google ben ik erachter gekomen dat de data folder vol was gelopen. Echter is me niet helemaal duidelijk waardoor. Ik heb één van mijn ongebruikte VM's verwijderd waardoor de andere weer kon booten. Echter is de gebruikte space bijna 100%. Dus ben bang dat ik straks weer tegen het probleem aan loop. Echter heb ik dan niet meer de mogelijkheid om een VM te verwijderen.

Hebben jullie een tip waar naar te kijken?.

Afbeeldingslocatie: https://tweakers.net/i/hoUK53WPXJyLuG5tk1MFzoeCpjo=/800x/filters:strip_exif()/f/image/vXoEzcaVxlkh12JhC13pfAKk.png?f=fotoalbum_large

code:
1
2
3
4
:~# pvesm status
Name             Type     Status           Total            Used       Available        %
local             dir     active        15117272         3267104        11060460   21.61%
local-lvm     lvmthin     active        29360128        28059474         1300653   95.57%


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
~# lsblk
NAME                         MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                            8:0    0 59.6G  0 disk 
├─sda1                         8:1    0 1007K  0 part 
├─sda2                         8:2    0  512M  0 part /boot/efi
└─sda3                         8:3    0 59.1G  0 part 
  ├─pve-swap                 253:0    0    7G  0 lvm  [SWAP]
  ├─pve-root                 253:1    0 14.8G  0 lvm  /
  ├─pve-data_tmeta           253:2    0    1G  0 lvm  
  │ └─pve-data-tpool         253:4    0   28G  0 lvm  
  │   ├─pve-data             253:5    0   28G  1 lvm  
  │   ├─pve-vm--100--disk--0 253:6    0    4M  0 lvm  
  │   ├─pve-vm--100--disk--1 253:7    0   36G  0 lvm  
  │   └─pve-vm--101--disk--0 253:8    0    1G  0 lvm  
  └─pve-data_tdata           253:3    0   28G  0 lvm  
    └─pve-data-tpool         253:4    0   28G  0 lvm  
      ├─pve-data             253:5    0   28G  1 lvm  
      ├─pve-vm--100--disk--0 253:6    0    4M  0 lvm  
      ├─pve-vm--100--disk--1 253:7    0   36G  0 lvm  
      └─pve-vm--101--disk--0 253:8    0    1G  0 lvm

[ Voor 7% gewijzigd door Oesie op 07-01-2023 13:25 ]


Acties:
  • 0 Henk 'm!

  • MakhouT
  • Registratie: September 2016
  • Laatst online: 13-10 10:22
Ik heb net terug een nieuwe installatie gedaan van proxmox omdat ik het de laatste keer heb gedaan zonder ethernet.

Maar ik zit met het volgende:

Ik ben een course aan het volgen op youtube en op 17:12 heeft die persoon een bepaalde ip adres dat precies beschikbaar is van buitenaf? Terwijl ik enkel een lokaal ip adres toegewezen krijg dat begint met 192.168...

Ik heb een foto getrokken van mijn settings.
Doe ik hier nog iets verkeerd dan?

Afbeeldingslocatie: https://tweakers.net/i/xXnC4JxlWN1KQQAhLVgNLoTYmjw=/800x/filters:strip_icc():strip_exif()/f/image/sQEBM97xwDvsJzxvAPijAuP7.jpg?f=fotoalbum_large

En bovendien bij management interface, ik veronderstel dat ik eno1 moet kiezen voor ethernet ipv wlp0s20f3

Acties:
  • +3 Henk 'm!

  • smeerbartje
  • Registratie: September 2006
  • Laatst online: 16-10 16:07
orvintax schreef op woensdag 1 februari 2023 @ 22:22:
[...]


Ik heb de forumpost ook nagelezen, maar wat voor DNS servers heb je ingesteld? Want ik zie daar niks van terug in jouw pct output:
code:
1
2
3
4
5
6
7
8
9
10
11
root@pve:~# pct config 113
arch: amd64
cores: 1
features: nesting=1
hostname: unifi
memory: 512
net0: name=eth0,bridge=vmbr0,firewall=1,gw=192.168.1.1,hwaddr=0E:34:6B:07:FF:90,ip=192.168.1.13/24,type=veth
ostype: ubuntu
rootfs: local-lvm:vm-113-disk-0,size=8G
swap: 512
unprivileged: 1
@orvintax and @ronjon , ik ben een sukkel. :9~
Niet goed gekeken, ik heb dus het ip adres van m'n DNS server ingevuld op de locatie waar ze de hostname eigenlijk verwachten. haha... man man man.. dank voor het meedenken!

Afbeeldingslocatie: https://tweakers.net/i/jz-3-li2l8A30LkhQak_1u44jyg=/800x/filters:strip_exif()/f/image/vhIQeGBZP7LS6vN8soUQvMPC.png?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Nu online
Ik heb de laatste tijd vaak dit in een HomeAssistant VM staan.
Meestal heb ik dan net een update van HA gedaan, duurt meestal wel lang maar hij voltooid hem wel.
Verder draait hij prima proxmox geeft geen smart errors op de disk.
Moet ik me zorgen maken of is dit gewoon vals alarm?

Afbeeldingslocatie: https://tweakers.net/i/g5KqOopd4p6EABG8Lgk0oh1He_A=/800x/filters:strip_icc():strip_exif()/f/image/79Ata2ITMKhNkjgXuMu3dbZo.jpg?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • ronjon
  • Registratie: Oktober 2001
  • Laatst online: 16-10 12:47
omdat mijn proxmox local-lvm ruimte te kort kreeg, heb ik er een disk bijgevoegd in de PVE.
op de lvm-thin draaiden voorheen alleen containers, en nu wil ik hierop ook VM kunnen draaien.

wanneer ik de lvm-thin wil uitbreiden met disk images, krijg ik een foutmelding "Parameter verification failed. (400)

thinpool: property is not defined in schema and the schema does not allow additional properties"

Afbeeldingslocatie: https://tweakers.net/i/Mjsbncx-ml8zvwigzbJUsIuXOVI=/800x/filters:strip_exif()/f/image/5ZhjyseJE8idisWUi1BfYZlJ.png?f=fotoalbum_large

is het toevoegen van VM niet mogelijk achteraf of dient dit op een andere manier te gebeuren ?

[ Voor 6% gewijzigd door ronjon op 26-02-2023 11:22 ]


Acties:
  • 0 Henk 'm!

  • marcel19
  • Registratie: September 2012
  • Laatst online: 17-10 21:56
Ik ben bezig met mijn Proxmox server aan het herbouwen (Eerst een kleine test gemaakt en dat beviel goed)

Nu wil ik een VM maken met Openmediavault en heb daar voor nu 1x een 4TB schijf inzitten. (later zal ik deze vervangen voor 3x HDD als deze setup gaat bevallen) Maar deze wil ik 100%gebruiken voor Openmediavault zodat ik daar voor het thuisnetwerk het een en ander kan delen met de systemen.

Nou heb ik een aantal opties, maar wat is het nu het beste?
Afbeeldingslocatie: https://tweakers.net/i/19v2vZavtH6zEJeTdgkbx6MTEdM=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/nkCvXqUw6q89QtrEgLz6bawz.png?f=user_large

Acties:
  • 0 Henk 'm!

  • marcel19
  • Registratie: September 2012
  • Laatst online: 17-10 21:56
Ik heb gisteren een "HP NC364T PCI Express Quad Port Gigabit Server Adapter" opgehaald. Deze in mijn Proxmox server gezet en deze verschijnt nu ook netjes in de server:
Afbeeldingslocatie: https://tweakers.net/i/uQeeWXuS7ppNqJyCDncM70KGVVs=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/YHZ90Yf39ZgV1vjYdUjH0nM3.png?f=user_large

Ik heb daarna een VM gemaakt met pfSense en daar 2x een PCI toegevoegd van de 2 poorten van de kaart.
Afbeeldingslocatie: https://tweakers.net/i/7IatxLgomVKk_KVYSVfrn_SoecU=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/2eiJzChE2Az8VFhWJcCbK4D7.png?f=user_large

Nu werkt dat allemaal super, en pfSense draait zoals het moet draaien.
Nou zou ik alleen willen dat ik bijvoorbeeld een VM kan hangen aan de Network NIC van de pfSense LAN.
Want nu heb ik 3 kabels in mijn server zitten:
  • 1x onboard voor Proxmox en de VM's
  • 1x WAN voor pfSense
  • 1X LAN voor pfSense
Ik kom er alleen niet helemaal uit hoe ik er dus voor kan zorgen dat ik die LAN kan delen met mijn andere VM's.

Acties:
  • 0 Henk 'm!

  • marcel19
  • Registratie: September 2012
  • Laatst online: 17-10 21:56
dcm360 schreef op dinsdag 21 maart 2023 @ 12:27:
Op deze manier kan dat niet, want de LAN-poort bestaat niet meer op de Proxmox-host. Met deze oplossing heb je een switch nodig naast de Proxmox-machine. Het verkeer tussen pfSense en een VM loopt dan altijd door 2 LAN-poorten en een switch.

Wat waarschijnlijk beter werkt, is een bridge aanmaken op de host met daarin deze LAN-poort (wel de passthrough naar de VM eerst even weghalen), en de pfSense VM een virtuele adapter aan deze bridge te geven. Dan kan je ook andere VM's en containers aan de bridge toevoegen, en heb je daarmee een virtuele switch.

Als alternatief kan je ook een bridge aanmaken op de host (of een bestaande gebruiken) en die koppelen aan een nieuwe virtuele adapter op de pfSense VM, en in pfSense regelen dat dat netjes aan elkaar verbonden wordt.
Ik probeer een bridge aan te maken op de host (heb de passtrough weggehaald bij de pfSense VM)
Maar krijg dan de volgende error:

Afbeeldingslocatie: https://tweakers.net/i/Z_Gzero9CWgfuxjIhQ0Fn7ZL-KM=/800x/filters:strip_exif()/f/image/cUNM2gOzbKmid8HzIGYsrnny.png?f=fotoalbum_large

Zo zien me instellingen eruit:

Afbeeldingslocatie: https://tweakers.net/i/Fp7ya3LUEphyaojLgvPgB20Ntfs=/800x/filters:strip_exif()/f/image/odwKOAbGqMVhUP89ZlyT4nbG.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/Vz0rGQCB_X8bNqrDwb_D-wsoX8w=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/UapYCa1NFyrBlvJgl2ikGxXs.png?f=user_large

Wat wel raar is, is dat de vmr10 wel aangemaakt wordt en ik deze ook kan selecteren als network adapter.
Afbeeldingslocatie: https://tweakers.net/i/yNJCykUb1W27gRqnb3QntOWfSVY=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/h9GEkAEgEORnvquH5W6fDbml.png?f=user_large

[ Voor 7% gewijzigd door marcel19 op 21-03-2023 15:39 ]


Acties:
  • +2 Henk 'm!

  • marcel19
  • Registratie: September 2012
  • Laatst online: 17-10 21:56
orvintax schreef op dinsdag 21 maart 2023 @ 15:53:
[...]

Aahja, inderdaad. Probeer eens
code:
1
ifreload -a -d
uit te voeren. Misschien krijgen we dan wat meer informatie waarom hij faalt. Anders ook eens je
code:
1
/etc/network/interfaces
doorsturen. Misschien dat daar iets geks in zit.
EDIT:

Ik heb het gefixt. Er stond iets in mijn grub fout.
code:
1
2
GRUB_CMDLINE_LINUX_DEFAULT="quiet"
GRUB_CMDLINE_LINUX="quiet intel_iommu=on"


Dat heb ik nu veranderd naar:
code:
1
2
GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on"
GRUB_CMDLINE_LINUX=""


En nu werkt het:
Afbeeldingslocatie: https://tweakers.net/i/uqxpzjjK3ec8xYjfjEDFa93Z3PY=/800x/filters:strip_exif()/f/image/zqsaCW0RxgBXmb9rQ336Btto.png?f=fotoalbum_large

[ Voor 101% gewijzigd door marcel19 op 21-03-2023 16:16 ]


Acties:
  • +1 Henk 'm!

  • MakhouT
  • Registratie: September 2016
  • Laatst online: 13-10 10:22
Ik heb een tijdje niet meer kunnen kijken naar mijn NUC en proxmox. Deze week heb ik terug wat meer tijd.

Kan ik in proxmox van 2 fysieke schijven 1 grote schijf maken? Zodat ik dan 2.2TB heb? Of raden jullie mij dit gewoon af om te doen?

Dit is wat ik momenteel heb staan

Afbeeldingslocatie: https://tweakers.net/i/hypXUHoNiv0CsiIb4CUcCtwDiko=/800x/filters:strip_exif()/f/image/Fj8vldzy8TbWOe7FR834QzYb.png?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • Koepert
  • Registratie: Augustus 2013
  • Laatst online: 10:30
powerboat schreef op maandag 17 april 2023 @ 18:31:
[...]


Als je een cluster hebt kun je via een ander hypervisor je defecte hypervisor ook bedienen. Anders is er meer mis.

Via cli kan dat met "qm migrate" moet je maar even googlen of in de handleiding kijken ;)
Ik kan er momenteel nog geen monitor op aansluiten (ben dus ook proberen alles veilig te stellen tussen werk en leven door :P) maar dit zie ik vanaf de GUI van een ANDERE host in t cluster (de webGUI van de host time-out)

Afbeeldingslocatie: https://tweakers.net/i/3-wxRQYhkiW-mQjituGaeysd3Sg=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/r2fbCZj2zMIDR1hpNKv04mzi.jpg?f=user_large

Acties:
  • 0 Henk 'm!

  • MakhouT
  • Registratie: September 2016
  • Laatst online: 13-10 10:22
Vraagje.
Ik heb nu op Proxmox verschillende LXC draaien en die exposen dan apps en services die dan een eigen ip hebben. Bv.

http://192.168.1.250:9000 => portainer
http://192.168.1.250:7878 => radarr
http://192.168.1.253/admin => pihole
etc.. etc

Nu wil ik graag ipv naar een ip te surfen, surfen naar een 'human readable' url ofzo. Zodat ik bv web interface van proxmox kan bereiken met bv 'proxmox.homelab'
Ik zat een beetje te zoeken en ben dan uitgekomen bij nginx proxy manager.
Die heb ik dan ook op een aparte LXC staan draaien en die kan ik nu dus bereiken op http://192.168.1.240:81.
So far so good.

Maar nu heb ik bv een proxy host aangemaakt zoals deze
Afbeeldingslocatie: https://tweakers.net/i/qW4ks3sjM03-xYZUDBo3ZYubr4M=/x800/filters:strip_exif()/f/image/LySxh7G0SIqQFVGnWa6v4Pav.png?f=fotoalbum_large

Maar als ik dan surf naar http://radarr.homelab/ krijg ik gewoon te zien dat de site niet bereikt kan worden.
Is dit omdat die nginx proxy manager in een andere LXC draait? Moet ik die per LXC in dezelfde container ook installeren en draaien ofzo?

Acties:
  • +1 Henk 'm!

  • Deshmir
  • Registratie: Februari 2012
  • Laatst online: 19:20
MakhouT schreef op zondag 7 mei 2023 @ 20:55:
Vraagje.
Ik heb nu op Proxmox verschillende LXC draaien en die exposen dan apps en services die dan een eigen ip hebben. Bv.

http://192.168.1.250:9000 => portainer
http://192.168.1.250:7878 => radarr
http://192.168.1.253/admin => pihole
etc.. etc

Nu wil ik graag ipv naar een ip te surfen, surfen naar een 'human readable' url ofzo. Zodat ik bv web interface van proxmox kan bereiken met bv 'proxmox.homelab'
Ik zat een beetje te zoeken en ben dan uitgekomen bij nginx proxy manager.
Die heb ik dan ook op een aparte LXC staan draaien en die kan ik nu dus bereiken op http://192.168.1.240:81.
So far so good.

Maar nu heb ik bv een proxy host aangemaakt zoals deze
[Afbeelding]

Maar als ik dan surf naar http://radarr.homelab/ krijg ik gewoon te zien dat de site niet bereikt kan worden.
Is dit omdat die nginx proxy manager in een andere LXC draait? Moet ik die per LXC in dezelfde container ook installeren en draaien ofzo?
Je kan ook de lazy-man optie pakken:
https://github.com/sissbruecker/linkding

Ik heb een pagina met alle bookmarks naar mijn servicesAfbeeldingslocatie: https://tweakers.net/i/qJFUfN-OKs6Dbd2WHHjpClCCceI=/x800/filters:strip_icc():strip_exif()/f/image/SeCO8GeyFxFDRUSZv5btCWHq.jpg?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Nu online
Ik heb een 1 Tb SSD in mijn proxmox host vervangen door een grotere.
Heb de disk gecloned alleen nu blijft er natuurlijk ongepartitioneerde ruimte over.
Hoe kan ik die het beste / makkelijkst benutten?
Kan ik die ruimte benutten door partitie sda3 te vergroten of gaat proxmox / ZFS dan moeilijk doen.
Of kan ik beter een nieuwe partitie maken en hier een nieuwe ZFS pool van maken?


Afbeeldingslocatie: https://tweakers.net/i/PKSwvBxOUS_E96IFR6uTn0LgtLk=/800x/filters:strip_exif()/f/image/e5h1g0y97aJNpsx0bBCWS50k.png?f=fotoalbum_large

Acties:
  • +1 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20:36
op de proxmox host

Afbeeldingslocatie: https://tweakers.net/i/j2aKQFPZmmLTmJ7nzpnkScqRhFI=/800x/filters:strip_exif()/f/image/rmjOwBtrdFJQqDYyv9vADhMo.png?f=fotoalbum_large

hoe lang is het geleden dat je het issue had? wellicht is de log al overschreven

[ Voor 10% gewijzigd door Zwelgje op 04-06-2023 10:48 ]

A wise man's life is based around fuck you


Acties:
  • +2 Henk 'm!

  • Zwelgje
  • Registratie: November 2000
  • Laatst online: 20:36
zo net een reinstall van het hele cluster thuis gedaan. mooi momentje om het lab opnieuw op te bouwen :9

Afbeeldingslocatie: https://tweakers.net/i/RdyVKtYfdIoQgnAw5CI0woF3Sx0=/800x/filters:strip_exif()/f/image/yqk2qFWBdGXUh6y4rTSGSbxt.png?f=fotoalbum_large

A wise man's life is based around fuck you


Acties:
  • 0 Henk 'm!

  • lithoijen
  • Registratie: Februari 2000
  • Laatst online: 17-10 23:11
@Airw0lf
Ik heb de network adapters (op 1 na, die voor proxmox is bedoeld) doorgezet naar Opnsense (daar staat hardware offloading trouwens uit). Daarin heb ik een ergens een tutoral gevolgd, leek me logisch, op deze manier hangt mijn proxmox computer ook niet direct aan het internet, maar zit Opnsense ertussen als een firewall. DPI heb ik voor nu niet aanstaan, dat is eventueel een optie voor in de toekomst.

De missende interface heb ik zojuist even nagekeken, ook dat is een kopie past foutje, ik pas bovenstaande post even aan.

Ik wil ip a best even draaien zonder passtrough, maar dan moet ik eerst even uitzoeken hoe ik dat uitzet in de cli. Daar kom ik op terug zodra ik dat heb uitgevogeld.
Afbeeldingslocatie: https://tweakers.net/i/XtE291lysrCuIUmQ3ZbevgmZZQY=/800x/filters:strip_icc():strip_exif()/f/image/2f4LF44zqEuvSqcA9YOiNUQb.jpg?f=fotoalbum_large

Ik kom wat geks tegen in de configuratiefile in de qemu-server directory: Lijkt me toch logisch te zijn.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
agent: 1
boot: order=scsi0
cores: 2
cpu: host
hostpci0: 0000:02:00.0
hostpci1: 0000:03:00.0
hostpci2: 0000:04:00.0
hostpci3: 0000:05:00.0
hostpci4: 0000:06:00.0
memory: 8048
meta: creation-qemu=7.2.0,ctime=1684268202
name: opnsense2
numa: 0
onboot: 1
ostype: l26
scsi0: backup:103/vm-103-disk-0.qcow2,iothread=1,size=40G
scsihw: virtio-scsi-single
smbios1: uuid=2632349e-dd08-48de-8770-a89f88b3c929
sockets: 1
startup: order=1
vmgenid: 8f4ee5c2-3f6e-4865-b72d-56f56bb48b7b

Kloppen die hostpci benamingen van mijn Opensense VM, daar werkt wel alles zoals vanouds.

Debian live cd heb ik nog niet geprobeerd.

Wat betreft /var/log/syslog dat is een heel boek maar ik vind onder andere:

code:
1
2
3
4
5
6
7
8
9
10
2023-07-01T17:12:59.849864+02:00 pve kernel: [  101.910255] igc 0000:07:00.0 2023-07-01T17:12:59.849864+02:00 pve kernel: [  101.910255] igc 0000:07:00.0 en>
2023-07-01T17:12:59.849901+02:00 pve kernel: [  101.910487] IPv6: ADDRCONF(NETDEV_CHANGE): enp7s0: link becomes ready
enp7s0: NIC Link is Up 1000 Mbps Full Duplex, Flow Control: RX/TX
2023-07-01T17:12:59.849901+02:00 pve kernel: [  101.910487] IPv6: ADDRCONF(NETDEV_CHANGE): enp7s0: link becomes ready

2023-07-01T17:11:23.917309+02:00 pve kernel: [    1.360844] igc 0000:05:00.0 enp5s0: renamed from eth3
2023-07-01T17:11:23.917309+02:00 pve kernel: [    1.404794] igc 0000:04:00.0 enp4s0: renamed from eth2
2023-07-01T17:11:23.917310+02:00 pve kernel: [    1.436741] igc 0000:03:00.0 enp3s0: renamed from eth1
2023-07-01T17:11:23.917313+02:00 pve kernel: [    1.452683] igc 0000:06:00.0 enp6s0: renamed from eth4
2023-07-01T17:11:23.917317+02:00 pve kernel: [    1.468852] igc 0000:07:00.0 enp7s0: renamed from eth5

@nero355 Heb jij misschien nog tips?

[ Voor 65% gewijzigd door lithoijen op 01-07-2023 17:34 ]


Acties:
  • 0 Henk 'm!

  • cville
  • Registratie: Juni 2012
  • Laatst online: 17-10 19:54
Airw0lf schreef op zaterdag 1 juli 2023 @ 20:57:
[...]


Inderdaad - die ja. :Y

Waarbij bij eth0 alle velden leegblijven en autostart uit staat.
De IP gegevens van eth0 moet je dan invullen bij vmbr0.
Waarbij je bij vmbr0 autostart aan zet en via bridge ports weer wijst naar eth0.

Dat zou de zaak in beweging moeten brengen. oOo
Je brengt me aan het twijfelen. Hierbij een screenshot. Wat moet ik nog toevoegen?

Afbeeldingslocatie: https://tweakers.net/i/h8iJqaCmRaWqv3U3Xak-6rXdVKg=/800x/filters:strip_exif()/f/image/wEyTwjO1AewnDW61jqRiG9nA.png?f=fotoalbum_large

12.090kWp → 40 panelen → oost/zuid/west | Tibber | EV


Acties:
  • 0 Henk 'm!

  • Kriss1981
  • Registratie: Februari 2008
  • Laatst online: 18:41
Proxmox 8 met 6.2 kernel en hardware:
  • Intel Core i3-9100
  • Fuijtsu D3644 met C246 Chipset
  • Kingston 2x 16GB ECC UDIMM
  • Proxmox rpool 2xSSD Mirror, een NVMe voor LXC, een 2x HDD Mirror voor data
TrueNAS draait al jaren feilloos op deze hardware, maar Proxmox helaas niet. Ik had PCI-e passthrough ingeschakeld in Proxmox om een NIC aan de firewall door te geven. Dit heb ik inmiddels uitgeschakeld, maar brengt geen verbetering.


EDIT: syslog is ook niet echt behulpzaam. hier deed ik in Plex een library toevoegen:
Afbeeldingslocatie: https://tweakers.net/i/Zb8GqysuyQM_jCUk_zbCSQ7VFp0=/800x/filters:strip_exif()/f/image/YwqR81ewAOCwdv9zNj4gkvBm.png?f=fotoalbum_large

[ Voor 35% gewijzigd door Kriss1981 op 05-07-2023 11:29 ]


Acties:
  • 0 Henk 'm!

  • gastje01
  • Registratie: Oktober 2005
  • Laatst online: 16-10 12:56
Airw0lf schreef op maandag 31 juli 2023 @ 23:14:
[...]


Doorgaans geen probleem - hang een beetje af van de inrichting.
Daarom vier vragen:
(1) - wat is je boot disk?
(2) - die 'Local' storage is dat ook LVM? Of iets anders (en wat)?
(3) - in welk format zijn die partities aangemaakt?
(4) - indien mogelijk: wat laat /etc/pve/storage.cfg zien?
De inrichting is in de installatie letterlijk volgende volgende voltooien geweest, dat leek me voor toen het best. Nu ik iets meer het potentieel zie heb ik daar een beetje spijt van |:(

1. Diezelfde 1 TB SSD
2. Dat is Directory geeft hij bij type aan
3. Zie afbeelding, de NVME0n is mijn 1 TB SSD, tevens boot disk. SDA is een 14 TB schijf met media, deze gebruik ik niet voor proxmox, is alleen gemount in 3 countainers voor mijn media. mag na 15 minuten spinnen weer in slaap vallen en weinig energie verbruiken. SBA is een tijdelijke USB schijf. Die mag zo snel mogelijk weer weg.
Afbeeldingslocatie: https://tweakers.net/i/gcephDGHs8OjxKbGbqSAbAR8g9Q=/800x/filters:strip_exif()/f/image/vHTBKw9bwGZttfJK3TYRbpjY.png?f=fotoalbum_large
4.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
dir: local
        path /var/lib/vz
        content iso,vztmpl
        shared 0

lvmthin: local-lvm
        thinpool data
        vgname pve
        content images,rootdir

cifs: DS214
        path /mnt/pve/DS214
        server 10.0.10.10
        share NetBackup
        content backup,snippets,vztmpl,iso,images,rootdir
        nodes proxmox
        prune-backups keep-all=1
        username twan

dir: USB
        path /mnt/pve/USB
        content rootdir,images,iso,vztmpl,backup,snippets
        is_mountpoint 1
        nodes proxmox

Acties:
  • +3 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
CurlyMo schreef op maandag 5 juni 2023 @ 20:56:
[...]

Je kan ook prima een router maken met één NIC zolang het maar VLANs ondersteund. Zo heb ik dat ook gedaan.

Oftewel:
- eno1: Netwerk adapter van mijn NAS
- eno1.2, 1.3, 1.6: VLANs die binnenkomen op mijn NAS.
- vmbr0: bridge interface voor eno1
- vmbr1: bridge interface voor interne netwerk tussen LXC containers
- vmbr2: bridge interface voor vlan6
- vmbr3: bridge interface voor vlan2
- vmbr4: bridge interface voor vlan3

(Ja het had logischer gekund in de vlan naar bridge vertaling :p)
Voor wie zich net als ik afvroeg of dat dat dan wel presteert hier de resultaten na deze week te zijn overgegaan op een 1gbit/s glasvezel.

De glasvezel lijn komt binnen op mijn MikroTik RB260GSP die zet de boel om naar standaard ethernet, met de VLANs ongemoeid. Daarna gaat het naar mijn ZyXEL GS1900-24HP. Mijn internet en netwerk VLANs worden allemaal samengebracht op één poort richting mijn NAS. Ook mijn NAS heeft maar één poort. Een testje vanaf mijn desktop

Afbeeldingslocatie: https://tweakers.net/i/hxx5aPuTmFhQ6DfuCFcaGQcmtpE=/800x/filters:strip_exif()/f/image/MUTP5wcdjtrAjG2VeMi4oHKW.png?f=fotoalbum_large

Oftewel, dat de WAN / LAN allemaal over één poort moet in zowel mijn switch als mijn NAS geeft geen enkele performance penalty. Het simuleren van een WAN en LAN poort via VLANs ook niet. Dat bestrijd dus het idee wat ik zelf ook had. Dat je voor het succesvol performant implementeren van een router twee netwerkpoorten nodig hebt.

[ Voor 4% gewijzigd door CurlyMo op 05-08-2023 12:25 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +2 Henk 'm!

  • GoBieN-Be
  • Registratie: Juni 2002
  • Laatst online: 21:31
Ik heb gewoon voor iedere NIC een bridge.
Eén van die bridges is mijn LAN en zit het management IP van Proxmox op gedefinieerd.

Proxmox Network
Afbeeldingslocatie: https://tweakers.net/i/LNO5-fcIkIgqnRqhKgf8lsWgYRg=/800x/filters:strip_exif()/f/image/piVg2g5XU6F9ULCA52dw7xUT.png?f=fotoalbum_large

OPNsense Virtual Machine Hardware
Afbeeldingslocatie: https://tweakers.net/i/WeQ0A5C2EdkcJsq8ruqeJ9TWGYw=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/MwAppvJeMZl30SZpy3INYgjq.png?f=user_large

OPNsense NIC assignments
Afbeeldingslocatie: https://tweakers.net/i/CDayDR4VP1bZCfLG5Ps3iBatZ4o=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/e9lNoq0cz616my1CGoBSwuf8.png?f=user_large

OPNsense firewall rules zijn in mijn geval geen probleem, want management zit gewoon in mijn LAN, geen aparte VLAN daarvoor hier thuis.

Acties:
  • +2 Henk 'm!

  • Airw0lf
  • Registratie: Mei 2005
  • Laatst online: 17:15
marcel19 schreef op woensdag 30 augustus 2023 @ 10:55:
[...]


Goeie vraag, maar nee. In dit geval is Openmediavault mijn NAS welke de disks dus volledig moet beheren.
Andere VM's in mijn server maken gebruik van andere HDD/SSD schijven :)

Dus die gehele array is voor OMV bedoeld :)
Ah - ok - dank je voor de toelichting.

Ik gebruik voor de VM's nog wat performance tweaks:
- Memory ballooning uitschakelen => kan alleen als je genoeg geheugen hebt
- Processors van het type host (versus default)
- Wat testen doen met de diskinstellingen van de VM (zie afbeelding met de mogelijkheden)
Afbeeldingslocatie: https://tweakers.net/i/BGUzwFPQjDO7mhpJogltQrcmThU=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/gsHu0dodKglLWae5OreYSRyN.png?f=user_large

makes it run like clockwork


  • marcel19
  • Registratie: September 2012
  • Laatst online: 17-10 21:56
zweefjr schreef op donderdag 31 augustus 2023 @ 13:52:
Je kunt beter de hele controller waar de schijven op aan gesloten zitten doorgeven aan OMV.

Ik heb hiervoor in het verleden een LSI raid controller die naar IT modus is geflashed voor gebruikt.
Heb ik zojuist geprobeerd, maar als dan de VM opstart loopt alles vast en krijgt mijn Proxmox de melding Lockup on cpu2.

Deze zet ik dan door naar de VM als PCI Device.

Afbeeldingslocatie: https://tweakers.net/i/fsxb12Al56Vj2GPaX9U1oemvsLQ=/800x/filters:strip_exif()/f/image/3WAM5Elm0LrXMTQ3d5RQdO2W.png?f=fotoalbum_large

  • marcel19
  • Registratie: September 2012
  • Laatst online: 17-10 21:56
nero355 schreef op donderdag 31 augustus 2023 @ 15:24:
[...]

Ik kan me herinneren dat je ergens een overzicht kon vinden, maar ik kan ook in de war zijn met VMWare ESXi :$ O-)


[...]

Ik zou eens goed de Manual van je moederbord lezen en kijken wat je allemaal met elkaar mag combineren zonder gedoe waarbij je Apparaat X opeens Apparaat Y uitschakelt of qua bandbreedte limiteert als ze tegelijk aanwezig zijn!

Let ook goed op het aantal PCIe Lanes die er beschikbaar zijn i.c.m. een bepaald model CPU/APU :)

* nero355 koopt daarom ook het liefst nooit kreupele A/B/H/X/Z moederborden en gaat meteen voor HEDT modellen die je alle vrijheid geven qua PCIe Lanes :Y) 8) :*) d:)b O+
Zo te zien bijt het elkaar niet:
Afbeeldingslocatie: https://tweakers.net/i/643MoR_ogqZnFWJLBlUjyM27ZXc=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/Q1qSzoLr3VaEe9kYzE7AASgV.png?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/vZMqB_3BoT-ZTS7ZYqTYByLNXnI=/800x/filters:strip_exif()/f/image/f9rABEsT4yjXpyFo1ZGtQC9U.png?f=fotoalbum_large

  • marcel19
  • Registratie: September 2012
  • Laatst online: 17-10 21:56
dcm360 schreef op donderdag 31 augustus 2023 @ 15:56:
[...]

Mijn eerste inschatting zou zijn dat er dan iets mis gaat met IOMMU-groups, maar bij jou staan er uberhaupt geen IOMMU-groups in het lijstje. Volgens de wiki zou dat tegenwoordig wat meer standaard moeten werken, maar misschien dat het er meer zin in heeft met een aangepaste kernel commandline?
Blijkbaar stond er nog niet iets goed in mijn grub. Deze heb ik aangepast en nu zie ik dit:
Afbeeldingslocatie: https://tweakers.net/i/0VXl1Kj0-Vsp_s2ZKHd6_YoRp8U=/800x/filters:strip_exif()/f/image/HjRqdbsd2VAO966Bx1Q8Smey.png?f=fotoalbum_large

Maar alsnog, als ik hem doorzet naar mijn OMV, dan crasht het hele systeem. :(

  • marcel19
  • Registratie: September 2012
  • Laatst online: 17-10 21:56
Even dubbel gecheckt.

Group 11 is echt alleen van die kaart:
Dit is met de sata controller aangesloten in het systeem:

Afbeeldingslocatie: https://tweakers.net/i/qq_WnD0djdwoEA0DnigMYPDOXKw=/800x/filters:strip_exif()/f/image/b1zpVMqeK0EgP9VrBfwdkDQE.png?f=fotoalbum_large

Dit is zonder die sata controller aangesloten:
Afbeeldingslocatie: https://tweakers.net/i/UgXmntjsLrJKZhjxd5k6rOxhuo4=/800x/filters:strip_exif()/f/image/rrl4iyh4H7iJ6ymy7nViyVWW.png?f=fotoalbum_large

Acties:
  • +1 Henk 'm!

  • marcel19
  • Registratie: September 2012
  • Laatst online: 17-10 21:56
Kriss1981 schreef op donderdag 31 augustus 2023 @ 16:37:
[...]


Lijkt mij niet goed. Zie nergens staan dat IOMMU enabled is. Heb je de kernel boot en modules wel aangepast om dit in te schakelen?

Zie dit
Oké, dat ziet er nu inderdaad anders uit:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
root@proxmox:~# dmesg | grep -e DMAR -e IOMMU
[    0.007653] ACPI: DMAR 0x00000000962E0000 000088 (v02 INTEL  EDK2     00000002      01000013)
[    0.007688] ACPI: Reserving DMAR table memory at [mem 0x962e0000-0x962e0087]
[    0.050280] DMAR: IOMMU enabled
[    0.133182] DMAR: Host address width 39
[    0.133183] DMAR: DRHD base: 0x000000fed90000 flags: 0x0
[    0.133188] DMAR: dmar0: reg_base_addr fed90000 ver 1:0 cap 1c0000c40660462 ecap 19e2ff0505e
[    0.133190] DMAR: DRHD base: 0x000000fed91000 flags: 0x1
[    0.133192] DMAR: dmar1: reg_base_addr fed91000 ver 1:0 cap d2008c40660462 ecap f050da
[    0.133194] DMAR: RMRR base: 0x0000009b000000 end: 0x0000009f7fffff
[    0.133196] DMAR-IR: IOAPIC id 2 under DRHD base  0xfed91000 IOMMU 1
[    0.133198] DMAR-IR: HPET id 0 under DRHD base 0xfed91000
[    0.133199] DMAR-IR: Queued invalidation will be enabled to support x2apic and Intr-remapping.
[    0.134803] DMAR-IR: Enabled IRQ remapping in x2apic mode
[    0.417330] DMAR: No ATSR found
[    0.417331] DMAR: No SATC found
[    0.417332] DMAR: IOMMU feature fl1gp_support inconsistent
[    0.417332] DMAR: IOMMU feature pgsel_inv inconsistent
[    0.417333] DMAR: IOMMU feature nwfs inconsistent
[    0.417334] DMAR: IOMMU feature pasid inconsistent
[    0.417334] DMAR: IOMMU feature eafs inconsistent
[    0.417335] DMAR: IOMMU feature prs inconsistent
[    0.417335] DMAR: IOMMU feature nest inconsistent
[    0.417336] DMAR: IOMMU feature mts inconsistent
[    0.417336] DMAR: IOMMU feature sc_support inconsistent
[    0.417337] DMAR: IOMMU feature dev_iotlb_support inconsistent
[    0.417338] DMAR: dmar0: Using Queued invalidation
[    0.417340] DMAR: dmar1: Using Queued invalidation
[    0.417793] DMAR: Intel(R) Virtualization Technology for Directed I/O
root@proxmox:~# dmesg | grep 'remapping'
[    0.133199] DMAR-IR: Queued invalidation will be enabled to support x2apic and Intr-remapping.
[    0.134803] DMAR-IR: Enabled IRQ remapping in x2apic mode
root@proxmox:~#


EDIT:
Maar helaas, nog geen verbetering want het systeem slaat nog steeds vast als ik die PCI doorzet naar de VM.

Staat dit goed?
Afbeeldingslocatie: https://tweakers.net/i/U51D0ikFN_rTk98LYLV27U5qhgY=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/VJuWgAvXgUEVn0UD82rfsuop.png?f=user_large

[ Voor 5% gewijzigd door marcel19 op 31-08-2023 16:58 ]


  • marcel19
  • Registratie: September 2012
  • Laatst online: 17-10 21:56
Kan het wezen dat misschien 1 van mijn andere instellingen niet goed staan in de vm?

Afbeeldingslocatie: https://tweakers.net/i/2pcKId_8Rq_dEMjwSyLaPGS3HR4=/800x/filters:strip_exif()/f/image/x6k6GD8zSBpz9hF4CfCIq9vQ.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/CwXjD16WCWGKhPei0YeRg_yq8dU=/800x/filters:strip_exif()/f/image/drEASTnCCI6zwKLgMSUYV1q9.png?f=fotoalbum_large

  • marcel19
  • Registratie: September 2012
  • Laatst online: 17-10 21:56
zweefjr schreef op donderdag 31 augustus 2023 @ 18:07:
Ik gebruik eigelijk standaart al ovmf, zolang de os niet te oud is.

Zover ik weet ondersteund SeaBIOS ook geen uefi, en ovmf wel.

Omvf is meer een moderne moederbord/bios en seabios meer legacy.
Heb een nieuwe install gemaakt, maar als de VM dan boot zie ik enkel dit:
Afbeeldingslocatie: https://tweakers.net/i/SatNgBxEP4PiFAw7sw8pv9-mSoM=/800x/filters:strip_exif()/f/image/REolVmHMkqvDThF2gOZSeGuh.png?f=fotoalbum_large

Acties:
  • +2 Henk 'm!

  • marcel19
  • Registratie: September 2012
  • Laatst online: 17-10 21:56
@zweefjr

HELD! _/-\o_ _/-\o_

Dit was het hoor, alles werkt en zelfs me passtrough werkt :*) :*) :*) :*)

Afbeeldingslocatie: https://tweakers.net/i/FdwlnPpzhP5sHKZkqBi5vmX_yF0=/800x/filters:strip_exif()/f/image/f0wi2D7BuFxKBloHIY3gZSlO.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/Qj566Add8iXR2WcJlDW1tZshdF4=/800x/filters:strip_exif()/f/image/4kMLFDyPTPwRg6BMvvAsNUf7.png?f=fotoalbum_large


Dan wordt het vanavond een avondje opnieuw instellen van OMV in een nieuwe VM :D

HAPPY!! :P :P

@dcm360 @Kriss1981 @SonnyBBQ en @nero355 Jullie ook zeker bedankt voor alle hulp en support. _/-\o_

  • marcel19
  • Registratie: September 2012
  • Laatst online: 17-10 21:56
zweefjr schreef op donderdag 31 augustus 2023 @ 20:15:
wil je het volgende eens proberen?

"please install kernell plugin

next install promox kernell

and finally install ZFS Plugin"

Wel eerst even na het installeren van de proxmox kernell omv een reboot geven.
Kernel en Proxmox plugin zijn blijkbaar 1 plugin geworden?
Heb OMV een reboot gegeven en het blijft het zelfde.

Afbeeldingslocatie: https://tweakers.net/i/SqB-VJEineAzkEzDuS3bXkysN2Q=/800x/filters:strip_exif()/f/image/SW89TJmAqocGzSrVrQw11uB5.png?f=fotoalbum_large

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
Failed to execute command 'export PATH=/bin:/sbin:/usr/bin:/usr/sbin:/usr/local/bin:/usr/local/sbin; export LANG=C.UTF-8; export LANGUAGE=; export DEBIAN_FRONTEND=noninteractive; apt-get --yes --allow-downgrades --allow-change-held-packages --fix-missing --allow-unauthenticated --reinstall install openmediavault-zfs 2>&1' with exit code '100': Reading package lists...

Building dependency tree...

Reading state information...

Some packages could not be installed. This may mean that you have
requested an impossible situation or if you are using the unstable
distribution that some required packages have not yet been created
or been moved out of Incoming.
The following information may help to resolve the situation:

The following packages have unmet dependencies:
 linux-headers-amd64 : Depends: linux-headers-6.1.0-0.deb11.9-amd64 (= 6.1.27-1~bpo11+1) but it is not installable
E: Unable to correct problems, you have held broken packages.

OMV\ExecException: Failed to execute command 'export PATH=/bin:/sbin:/usr/bin:/usr/sbin:/usr/local/bin:/usr/local/sbin; export LANG=C.UTF-8; export LANGUAGE=; export DEBIAN_FRONTEND=noninteractive; apt-get --yes --allow-downgrades --allow-change-held-packages --fix-missing --allow-unauthenticated --reinstall install openmediavault-zfs 2>&1' with exit code '100': Reading package lists...

Building dependency tree...

Reading state information...

Some packages could not be installed. This may mean that you have
requested an impossible situation or if you are using the unstable
distribution that some required packages have not yet been created
or been moved out of Incoming.
The following information may help to resolve the situation:

The following packages have unmet dependencies:
 linux-headers-amd64 : Depends: linux-headers-6.1.0-0.deb11.9-amd64 (= 6.1.27-1~bpo11+1) but it is not installable
E: Unable to correct problems, you have held broken packages. in /usr/share/openmediavault/engined/rpc/pluginmgmt.inc:246
Stack trace:
#0 /usr/share/php/openmediavault/rpc/serviceabstract.inc(620): Engined\Rpc\PluginMgmt->Engined\Rpc\{closure}('/tmp/bgstatusd4...', '/tmp/bgoutputGf...')
#1 /usr/share/openmediavault/engined/rpc/pluginmgmt.inc(249): OMV\Rpc\ServiceAbstract->execBgProc(Object(Closure))
#2 [internal function]: Engined\Rpc\PluginMgmt->install(Array, Array)
#3 /usr/share/php/openmediavault/rpc/serviceabstract.inc(123): call_user_func_array(Array, Array)
#4 /usr/share/php/openmediavault/rpc/rpc.inc(86): OMV\Rpc\ServiceAbstract->callMethod('install', Array, Array)
#5 /usr/sbin/omv-engined(537): OMV\Rpc\Rpc::call('Plugin', 'install', Array, Array, 1)
#6 {main}

  • marcel19
  • Registratie: September 2012
  • Laatst online: 17-10 21:56
zweefjr schreef op donderdag 31 augustus 2023 @ 20:29:
Zou je dit eens kunnen proberen?

and remove the non-proxmox kernels and disable backports using omv-extras.
En met non-proxmox kernels bedoel je dit:
Afbeeldingslocatie: https://tweakers.net/i/cralOAojPh_LigyaxJNEc9A2M9I=/800x/filters:strip_exif()/f/image/nJWza6iDAnIRVAdArhNKnax7.png?f=fotoalbum_large

Acties:
  • +1 Henk 'm!

  • zweefjr
  • Registratie: Augustus 2010
  • Laatst online: 10-10 10:31
Afbeeldingslocatie: https://tweakers.net/i/NObcS0UjDmiDSs8UTCFvh7CWMLc=/800x/filters:strip_exif()/f/image/lwjMSKkt3fO8ucKAZjLeUQta.png?f=fotoalbum_large

Zie je dit ook?

Acties:
  • +1 Henk 'm!

  • marcel19
  • Registratie: September 2012
  • Laatst online: 17-10 21:56
Heb het gevonden :)
Blijkbaar stond de Proxmox kernel installatie tegenwoordig ergens anders.

1. eerst de kernel instaleren. rebooten
2. Daarin in je kernels de proxmox kernel instaleren. rebooten
3. ZFS installatie is nu wel mogelijk :D

Hieronder het knopje om dus de Proxmox kernel te instaleren:
Afbeeldingslocatie: https://tweakers.net/i/0MEHXy8cE27jY-Zh1jWAWRFyMVs=/800x/filters:strip_exif()/f/image/EBJo3eCAu2f02taZaLFlmjBT.png?f=fotoalbum_large

Heb nu ook meer kernels, en kreeg opeens heel veel updates.

Acties:
  • 0 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

dan ben ik wel benieuwd hoe je vm config eruit ziet?
Hopelijk begrijp ik je goed en bedoel je dit:
plex vm > hardware > dan regel network device (net0). Ziet er zo uit
Afbeeldingslocatie: https://tweakers.net/i/r6TWAHz-uvWws-tPrKUdR2L34WE=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/WkjzpWoW9erpJjXsm70Uxe8r.png?f=user_large

En waar dat vlan-10 dan precies geconfigureerd is?
In proxmox zelf heb ik niets met vlan10 geconfigureerd. Sterker nog als ik in die screenshot daar vlan 10 invul is de vm (via remote desktop) niet meer benaderbaar

Enige waar ik vlan 10 heb is bij omada in
LAN > Networks
Afbeeldingslocatie: https://tweakers.net/i/J9xiIicY5hLJsnsMdwYt2XpQpZ4=/800x/filters:strip_exif()/f/image/7pPGGjs4FB7G3XLUaAqmL6a5.png?f=fotoalbum_large

En die zit weer bij switch bij ports > profile > private (om zo in de 192.168.10.x te komen)
Afbeeldingslocatie: https://tweakers.net/i/8GPQ9aLx53bPaP8bz_5SWNJLpWk=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/FxpSAhoG4sHgrRYOPm0AZD0E.png?f=user_large

In het omada topic had je het over port profiles. Ook daar ben ik nu een begin aan het maken. Dit zou het dan moeten zijn?
Afbeeldingslocatie: https://tweakers.net/i/Nh2wCWK2cCrIB9MoKMx7rG74qfU=/x800/filters:strip_exif()/f/image/J3qWdnyUS3nq8VQRaXxLRgKA.png?f=fotoalbum_large

Bij de switch heb ik altijd dit default gelaten:
Afbeeldingslocatie: https://tweakers.net/i/m-wQYnv2pzA2NBcHKyBr_ONdUkQ=/x800/filters:strip_exif()/f/image/6XqvJbdDBK0kfXdM70o1tGn3.png?f=fotoalbum_large

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • 0 Henk 'm!

  • MJV
  • Registratie: Mei 2003
  • Nu online

MJV

Ik denk dat ik met soortgelijke problematiek zit te knoeïen. Ik draai OPNSense via Proxmox, maar na een x-moment storten de downloadsnelheden volledig in. Ik twijfel of ik de networking goed heb ingesteld.

Ik heb 1 NIC via PCI-passthrough (voor WAN) naar OPNsense doorgezet, en de LAN-nic via een VirtUO. Ik werk met een paar VLANs, waarvan VLAN=1 het native vlan is, die untagged over het netwerk gaat. VLAN 10 en 20 zijn tagged, en worden ook als zodanig naar de proxmox-host gerouteerd door mijn TP-Link switch.
Ik heb nog een aantal andere containers (o.a. Home-assistant) op dezelfde bridge zitten als mijn OPNSense.

Het IP dat ik voor de bridge heb ingesteld als gateway is het IP van de OPNSense router.

Vreemde is dat ik eerst prima snelheden haalde (download 940 mbit), maar dat dat nu niet meer het geval is. SOms helpt herstarten van OPNSense+proxmox, maar niet voor heel lang.

Heb ik dit nu logisch/goed ingesteld? Of moet ik een aparte bridge maken? Ik heb eerst vinkje VLAN-Aware wel aangehad, maar dat lijkt geen verschil te maken.


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
auto lo
iface lo inet loopback

iface enp2s0 inet manual

iface enp1s0 inet manual

auto vmbr0
iface vmbr0 inet static
        address 192.168.1.12/24
        gateway 192.168.1.1
        bridge-ports enp2s0
        bridge-stp off
        bridge-fd 0


Afbeeldingslocatie: https://tweakers.net/i/2yS3SzPVW3Jvz2u_eyIJdVfcm5M=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/0RnRbFDlGL86ZSvboxTqq2dH.png?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/WbpqsDE21MB7-Pi2ZXvHu78VMKE=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/KXpJ96XeMRqwTmcaRbWIzOjs.png?f=user_large

Acties:
  • 0 Henk 'm!

  • tonschong
  • Registratie: Februari 2009
  • Laatst online: 11-10 17:07
Vorige maand mijn Winserver overgezet naar mijn Proxmox machine waarop ook OPNSense, Adguard en PiHole draaien. Sindsdien iedere dag crashes gerelateerd aan ntoskrnl.exe, zie screenshot met overzicht minidumps. Proxmox zelf en andere VM's hebben totaal geen problemen.

Wat ik al geprobeerd heb:
- geheugen vervangen
- opnieuw installeren VM
- Proxmox updates en drivers
- Windows bestandscontrole SFC/scannow

Iemand nog een suggestie waar het aan zou kunnen liggen??

Afbeeldingslocatie: https://tweakers.net/i/wJXh2uR9GQfjqgPbrORYyPyOzVg=/800x/filters:strip_icc():strip_exif()/f/image/0u6W3P8A5mBJ5p61CpUQd5Pl.jpg?f=fotoalbum_large
Pagina: 1 2