Toon posts:

Het grote Proxmox VE topic

Pagina: 1 ... 19 20 21 Laatste
Acties:

  • orvintax
  • Registratie: maart 2018
  • Laatst online: 21-09 09:08
nero355 schreef op maandag 30 augustus 2021 @ 16:42:
[...]

Klopt : Dan moet je de Chromecast Ultra hebben dus dat is je eigen schuld! :P
Ik wil maar zeggen dat ook redelijk bekende en recente producten soms de noodzaak tot transcoden hebben.

  • nero355
  • Registratie: februari 2002
  • Laatst online: 20:29

nero355

ph34r my [WCG] Cows :P

orvintax schreef op maandag 30 augustus 2021 @ 17:45:
Ik wil maar zeggen dat ook redelijk bekende en recente producten soms de noodzaak tot transcoden hebben.
Zoals ik al zei : Vervangen die hap! :)

/EDIT :
orvintax schreef op maandag 30 augustus 2021 @ 17:58:
Ik ga niet voor al mn users (famillie) een nieuwe chromecast kopen :P
Dat mogen ze uiteraard lekker zelf doen! >:) :P :+

[Voor 32% gewijzigd door nero355 op 30-08-2021 19:56]

|| DPC GoT WhatPulse Team :) || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • orvintax
  • Registratie: maart 2018
  • Laatst online: 21-09 09:08
Ik ga niet voor al mn users (famillie) een nieuwe chromecast kopen :P

  • MLux
  • Registratie: januari 2019
  • Laatst online: 16-09 08:52
Hoi hoi,
Ik ben nieuw met proxmox en heb een aantal vragen.
Ik heb proxmox geïnstalleerd op een thin client, 8 g ram, 16 g ssd (intern).
Nu heb ik nog een externe ssd via USB aangesloten hoe kan ik deze gaan gebruiken?
Ik wil home assistant en mijn unifi controller draaien via proxmox.
Hoe moet ik beginnen?

  • KraveN
  • Registratie: november 2001
  • Laatst online: 19-09 21:59
Ik heb inmiddels proxmox geïnstalleerd en ben toe aan de volgende stap namelijk het verder inrichten. Alleen nu vraag ik mij af wat handig is om te doen m.b.t. opslag :

Opslag :
128gb nvmeProxMox
500gb nvmeVM/Containers
500gb ssd?
2 TB HDD?
2 TB HDD?
2 TB HDD?


Ik wil nextcloud gaan gebruiken voor documenten, foto's, mail, agenda, contacten.
Daarnaast zou ik het fijn vinden als ik de foto's opgeslagen in nextcloud ook kan benaderen middels een share vanaf bijvoorbeeld een windows pc zodat ik middels wat andere programma's tags kan toevoegen aan deze foto's.

Ik hoef niet perse een raid setup, want ik wil middels duplicatie backups gaan maken van de ene disk naar de andere disk en een versleutelde versie slag ik ergens op in de cloud. Daarnaast wil ik ééns in de maand een backup maken op een losse HDD die ik dan op een andere plek neerleg.

Verder wil ik nog wat containers gaan draaien voor pihole/adguard, home assistant, bitwarden, camera software, etc

1 : Is het handig dat ik een 128 gb hdd gebruik voor Proxmox of zou ik daarvoor ook een kleinere partitie kunnen gebruiken, want ik verwacht niet dat ik daar 128 gb voor nodig heb.
2 : Wat is nu handig om te doen ? Ik zie op youtube dat ze vaak nextcloud installeren op een partitie van de nvme of ssd voor de snelheid en dan een data directory op de HDD meegeven aan de vm. Is dit ook handig of zijn er in mijn usecase betere opties ? Lees veel over ZFS maar daar heb nog geen kaas van gegeten.
3 : Nu zijn er een aantal mensen die truenas/freenas hosten binnen proxmox, maar ik gok dat een Open Media Vault voor mij volstaat als ik een share wil delen ?

Ik moet nog een hoop leren en er staan veel bomen in het bos zullen we maar zeggen. Hopelijk geven jullie mij een zetje in de goede richting :)

  • orvintax
  • Registratie: maart 2018
  • Laatst online: 21-09 09:08
KraveN schreef op dinsdag 31 augustus 2021 @ 12:06:
Ik heb inmiddels proxmox geïnstalleerd en ben toe aan de volgende stap namelijk het verder inrichten. Alleen nu vraag ik mij af wat handig is om te doen m.b.t. opslag :

Opslag :
128gb nvmeProxMox
500gb nvmeVM/Containers
500gb ssd?
2 TB HDD?
2 TB HDD?
2 TB HDD?


Ik wil nextcloud gaan gebruiken voor documenten, foto's, mail, agenda, contacten.
Daarnaast zou ik het fijn vinden als ik de foto's opgeslagen in nextcloud ook kan benaderen middels een share vanaf bijvoorbeeld een windows pc zodat ik middels wat andere programma's tags kan toevoegen aan deze foto's.

Ik hoef niet perse een raid setup, want ik wil middels duplicatie backups gaan maken van de ene disk naar de andere disk en een versleutelde versie slag ik ergens op in de cloud. Daarnaast wil ik ééns in de maand een backup maken op een losse HDD die ik dan op een andere plek neerleg.

Verder wil ik nog wat containers gaan draaien voor pihole/adguard, home assistant, bitwarden, camera software, etc

1 : Is het handig dat ik een 128 gb hdd gebruik voor Proxmox of zou ik daarvoor ook een kleinere partitie kunnen gebruiken, want ik verwacht niet dat ik daar 128 gb voor nodig heb.
2 : Wat is nu handig om te doen ? Ik zie op youtube dat ze vaak nextcloud installeren op een partitie van de nvme of ssd voor de snelheid en dan een data directory op de HDD meegeven aan de vm. Is dit ook handig of zijn er in mijn usecase betere opties ? Lees veel over ZFS maar daar heb nog geen kaas van gegeten.
3 : Nu zijn er een aantal mensen die truenas/freenas hosten binnen proxmox, maar ik gok dat een Open Media Vault voor mij volstaat als ik een share wil delen ?

Ik moet nog een hoop leren en er staan veel bomen in het bos zullen we maar zeggen. Hopelijk geven jullie mij een zetje in de goede richting :)
Om je vragen te beantwoorden:
1: Proxmox zelf heeft natuurlijk echt geen 128GB nodig, echter is het wel gewoon mogelijk om je boot disk voor andere dingen te gebruiken. Bij mij bijvoorbeeld staat Proxmox op een ZRAID1. Maar hier staan ook gewoon al mijn containers, VMs, templates en ISO's op.

2: Je moet voor jezelf gaan uitvogelen hoe belangrijk en hoe redundant je je data wilt hebben. Ik maak zelf gebruik van een setup zoals jij aanhaalt en ik vind het fantastisch werken. Ook voor jouw usecase is dat zeker handig naar mijn mening.

ZFS is een filesystem dat focust op de integriteit van je data, wat natuurlijk erg wenselijk is bij je persoonlijke bestanden :P Ik raad je sterk aan om er wat over te lezen en het eventueel zelf te gebruiken. Je Nextcloud bestanden is bijvoorbeeld een usecase waar ZFS shined.

3: Ik gebruik zelf TrueNAS (vanwege de focus op ZFS) maar het lijkt me dat je ook OMV kunt gebruiken om een share aan te maken. MAAR en een grote MAAR zoals ik nu je reactie lees lijkt het alsof je straks buitenom Nextcloud aan die bestanden gaat zitten. Dit is iets wat je absoluut niet wilt doen. Dit om de simpele reden dat de database van Nextcloud niet door heeft dat je dit aan het doen bent dan klopt het allemaal niet meer. Je kunt wel een volledige rescan doen van al je bestanden maar dat is niet iets wat je regelmatig wilt doen.

  • Damic
  • Registratie: september 2003
  • Laatst online: 20:52

Damic

Afwezig soms

Mmmh was dit topic aan't zoeken tussen Server software maar wat doet dit in HW :o

Anyway ik probeer een promox server optezetten maar ik krijg windows 10 / Windows 2019 server niet geïnstalleerd. Bij beide krijg ik dezelfde error bij installatie: System Thread Exception not handled

Nu heb ik wel wat instellingen anders moeten zetten dan wat ik tot heden heb tegengekomen
Instellingen Processors:
Sockets: 2
Cores: 4 (total cores: 8)
Type: host
Numa = Enabled



Als ik naar Processor Type: KVM64 (default) gaan dan geeft QEMU code 1 fout.

Iemand een idee wat ik hieraan kan doen?

Edit:
Hardware:
AMD 1950X
64GB DDR4 3200MTs
2x 1TB NVME (RAID 1) voor Proxmox/iso's/VM's

[Voor 6% gewijzigd door Damic op 31-08-2021 17:56]

Ik kan vanalles en nog wat maar niets te goei, klinkt bekent?? Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


  • KraveN
  • Registratie: november 2001
  • Laatst online: 19-09 21:59
orvintax schreef op dinsdag 31 augustus 2021 @ 13:33:
[...]

Om je vragen te beantwoorden:
1: Proxmox zelf heeft natuurlijk echt geen 128GB nodig, echter is het wel gewoon mogelijk om je boot disk voor andere dingen te gebruiken. Bij mij bijvoorbeeld staat Proxmox op een ZRAID1. Maar hier staan ook gewoon al mijn containers, VMs, templates en ISO's op.
Dus dan heb je eigenlijk bij de installatie al een zraid1 pool aangemaakt en daarop proxmox geïnstalleerd ?
2: Je moet voor jezelf gaan uitvogelen hoe belangrijk en hoe redundant je je data wilt hebben. Ik maak zelf gebruik van een setup zoals jij aanhaalt en ik vind het fantastisch werken. Ook voor jouw usecase is dat zeker handig naar mijn mening.
Refereer je hier naar de door mij bij punt 2 geschreven tactiek van app zelf op ssd/nvme en het koppelen van een hdd voor de data. Of juist mijn idee over hoe ik mijn data wil gaan backuppen ?
ZFS is een filesystem dat focust op de integriteit van je data, wat natuurlijk erg wenselijk is bij je persoonlijke bestanden :P Ik raad je sterk aan om er wat over te lezen en het eventueel zelf te gebruiken. Je Nextcloud bestanden is bijvoorbeeld een usecase waar ZFS shined.
Ik ga er even verder induiken. Ik zie voor mijzelf in ieder geval mogelijkheden in het gebruik van of raid1 of raidz1. Maar ik moet nog even de voor- en nadelen afwegen.

Wat ik mij echter nog wel afvraag, maar dat is wellicht een hele domme vraag. Stel ik maak een lxc container of vm aan voor nextcloud. Daarbij geef ik aan hoeveel schijfruimte ik reserveer voor de lxc/vm. Kan ik dan nog bij die data via een andere vm/lxc. Dus stel ik draai een lxc met duplicati en ik wil een backup maken van de bestanden in nextcloud. Om dat te doen heb ik wel toegang nodig.

Of ik draai nog OMV /Truenas vanwege de shares, kan ik dan in OMV/Truenas ook een share maken van die data in de andere lxc/vm waar nextcloud draait.
3: Ik gebruik zelf TrueNAS (vanwege de focus op ZFS) maar het lijkt me dat je ook OMV kunt gebruiken om een share aan te maken. MAAR en een grote MAAR zoals ik nu je reactie lees lijkt het alsof je straks buitenom Nextcloud aan die bestanden gaat zitten. Dit is iets wat je absoluut niet wilt doen. Dit om de simpele reden dat de database van Nextcloud niet door heeft dat je dit aan het doen bent dan klopt het allemaal niet meer. Je kunt wel een volledige rescan doen van al je bestanden maar dat is niet iets wat je regelmatig wilt doen.
Dat is een heel goed punt wat je hier aanhaalt. Totaal niet bij stil gestaan. Mijn idee was om in ieder geval mijn foto's van de telefoons te syncen met nextcloud en deze vervolgens dan te taggen in bijvoorbeeld digikam. Maar ik zal dus een andere workflow gaan zoeken zodat ik mijn foto's sync met mijn server. (gelukkig al wat alternatieven gevonden, app voor telefoon of een python script wat icloud leeg trekt).

Als het taggen gedaan is kan ik eventueel later nog de foto's die ik beschikbaar wil hebben/delen in nextcloud zet. Nu ik erover nadenk, misschien ook wel een betere manier.

Bedankt in ieder geval voor het meedenken!

[Voor 0% gewijzigd door KraveN op 02-09-2021 12:12. Reden: typo]


  • orvintax
  • Registratie: maart 2018
  • Laatst online: 21-09 09:08
Dus dan heb je eigenlijk bij de installatie al een zraid1 pool aangemaakt en daarop proxmox geïnstalleerd ?
Als je tijdens je installatie voor ZFS hebt gekozen dan heb je sowieso een zraid pool aangemaakt, ik durf echter niet te zeggen of het dan zraid1 of zraid0 is. Dit ligt gok ik aan wat je hebt gekozen tijdens de installatie.
Refereer je hier naar de door mij bij punt 2 geschreven tactiek van app zelf op ssd/nvme en het koppelen van een hdd voor de data. Of juist mijn idee over hoe ik mijn data wil gaan backuppen ?
Daar heb ik het over het koppelen van een hdd voor de data.
Wat ik mij echter nog wel afvraag, maar dat is wellicht een hele domme vraag. Stel ik maak een lxc container of vm aan voor nextcloud. Daarbij geef ik aan hoeveel schijfruimte ik reserveer voor de lxc/vm. Kan ik dan nog bij die data via een andere vm/lxc. Dus stel ik draai een lxc met duplicati en ik wil een backup maken van de bestanden in nextcloud. Om dat te doen heb ik wel toegang nodig.

Of ik draai nog OMV /Truenas vanwege de shares, kan ik dan in OMV/Truenas ook een share maken van die data in de andere lxc/vm waar nextcloud draait.
Het is mogelijk om in Proxmox simpelweg een virtuele disk te maken en die aan een VM of LXC container te geven. Echter als je data aan meerdere VM's/LXC containers beschikbaar wilt stellen is dit vorige geen oplossing. Wat je dan wel kunt doen (en wat ik zelf ook doe) is volgensmij wat jij als laatste beschrijft.

Ik heb dus op TrueNAS verschillende NFS shares welke ik mount in mijn VM's/Containers. Voor VM's kun je hier gewoon via fstab dit standaard mounten. Voor LXC containers wil je zoveel mogelijk gebruik maken van unprivileged containers vanwege de beveiliging. Wat je kunt doen is je share mounten in Proxmox zelf om dan vervolgens de containers via een mountpoint hier toegang tot te geven. Het klinkt misschien lastiger dan dat het is, hier is documentatie online voor te vinden en anders wil ik je gerust helpen.

Laat vooral weten wat je doet, vind ik interressant :P (of niet de keuze is natuurlijk volledig aan jou x) )

  • Zenix
  • Registratie: maart 2004
  • Laatst online: 02:02

Zenix

BOE!

Damic schreef op dinsdag 31 augustus 2021 @ 17:53:
Mmmh was dit topic aan't zoeken tussen Server software maar wat doet dit in HW :o

Anyway ik probeer een promox server optezetten maar ik krijg windows 10 / Windows 2019 server niet geïnstalleerd. Bij beide krijg ik dezelfde error bij installatie: System Thread Exception not handled

Nu heb ik wel wat instellingen anders moeten zetten dan wat ik tot heden heb tegengekomen
Instellingen Processors:
Sockets: 2
Cores: 4 (total cores: 8)
Type: host
Numa = Enabled

[Afbeelding]

Als ik naar Processor Type: KVM64 (default) gaan dan geeft QEMU code 1 fout.

Iemand een idee wat ik hieraan kan doen?

Edit:
Hardware:
AMD 1950X
64GB DDR4 3200MTs
2x 1TB NVME (RAID 1) voor Proxmox/iso's/VM's
Kan je eens core2duo proberen?
https://wiki.archlinux.or...when_booting_a_Windows_VM

Anders zou ik even een post maken op het Proxmox forum, daar kunnen ze nog meer erin duiken :)

  • Damic
  • Registratie: september 2003
  • Laatst online: 20:52

Damic

Afwezig soms

@Zenix nope dan krijg ik dit: start failed: QEMU exited with code 1

Eeey als je dubbelklikt krijg je de volledige foutmelding *O*
kvm: warning: host doesn't support requested feature: CPUID.01H:EDX.ss [bit 27]
kvm: warning: host doesn't support requested feature: CPUID.80000008H:EBX.amd-ssbd [bit 24]
kvm: warning: host doesn't support requested feature: CPUID.80000008H:EBX.amd-no-ssb [bit 26]
kvm: Host doesn't support requested features
TASK ERROR: start failed: QEMU exited with code 1
ha alle advanced cpu opties op default zetten dan boot ie wel :)

*O* *O* *O* *O* *O* *O* *O*

Ow Threadripper start op als EPYC :D

[Voor 54% gewijzigd door Damic op 03-09-2021 06:52]

Ik kan vanalles en nog wat maar niets te goei, klinkt bekent?? Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


  • nero355
  • Registratie: februari 2002
  • Laatst online: 20:29

nero355

ph34r my [WCG] Cows :P

Damic schreef op vrijdag 3 september 2021 @ 06:45:
Ow Threadripper start op als EPYC :D
Uiteraard, want hetzelfde chipje of beter gezegd chiplets, maar dan anders :)

Een X58/X79/X99/X299 systeem wordt ook als de Xeon Cxxx Chipset gezien! :D

|| DPC GoT WhatPulse Team :) || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • Damic
  • Registratie: september 2003
  • Laatst online: 20:52

Damic

Afwezig soms

@nero355 awel ja dat ik daar niet eerder aan had gedacht :+ maar het waren dus de advanced options die roet in de startup gooide

Ik kan vanalles en nog wat maar niets te goei, klinkt bekent?? Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


  • ComTech
  • Registratie: november 2002
  • Laatst online: 23:20
Ik wil mijn server overzetten naar proxmox.
Het is een i3 8100 32GB RAM met 1 samsung 970 nvme disk 2 seagate 3TB ironwolf disk en nog een 4 TB ironwolf (voor backups).

Wat is nu de beste / handigste manier kwa disks / bestandssysteem?
Proxmox installeren op de 970nvme als ZFS EXT4 ?
Proxmox installeren op de 2 ironwolfs als raid1 ZFS ?
Of nog iets anders??
Iemand tips?

| OnePlus8 Pro 256GB Ultramarine Blue | Samsung Galaxy Watch Active 2 44mm |


  • A1AD
  • Registratie: juli 2013
  • Laatst online: 20-09 10:17
ComTech schreef op zondag 5 september 2021 @ 11:42:
Ik wil mijn server overzetten naar proxmox.
Het is een i3 8100 32GB RAM met 1 samsung 970 nvme disk 2 seagate 3TB ironwolf disk en nog een 4 TB ironwolf (voor backups).

Wat is nu de beste / handigste manier kwa disks / bestandssysteem?
Proxmox installeren op de 970nvme als ZFS EXT4 ?
Proxmox installeren op de 2 ironwolfs als raid1 ZFS ?
Of nog iets anders??
Iemand tips?
Proxmox op de SSD (zfs), deze kan je dan ook gebruiken als VM data store.

De 2 spinners als bulk data als ZFS mirror. Hier kan je ook je vm backups op kwijt.

I don't fail. I successfully identify suboptimal methods. iRP


  • TheMystery
  • Registratie: februari 2004
  • Laatst online: 21:18
TheMystery schreef op maandag 30 augustus 2021 @ 12:14:
Ik ben van plan Proxmox te gaan gebruiken, grootste reden hiervoor is dat ik Home Assistant nu nog via een rasbian image draai op een pi4 met M2 en ik wil toch wat betere mogelijkheden om backup's/snapshots te maken aangezien er toch redelijk veel in zit tegenwoordig.
Op dit moment ben ik aan het uitzoeken hoe ik alles wat ik nu heb draaien het beste kan gaan draaien via proxmox, onderstaande heb ik nu draaien:

pi4:
homeassistant (python virtual environment)
zigbee2mqtt (native)
mosquitto (native)
certbot letsencrypt (native)
node-red (native)
homebridge (native) (alleen om camera’s in homekit te krijgen rest loopt via ha)
ffmpeg compiled with omx hardware accelearation tbv mijn camera’s binnen homebride en ha
docker:
esphome
dsmr reader + postgres
pi-hole
nginx reverse proxy

pi2:
pi-hole
unifi

Nas ds415+:
plex (native)

Ik heb een pc ter beschikking die ik hiervoor wil gebruiken, dit is een prodesk 400G6 SFF, met een i-5 9500 (6 cores 3Ghz Turbo 4,4Ghz) 8Gb geheugen en een M2 WD blue 256G.

Ik heb Proxmox al draaien en hier ook even HA OS op gezet om naar de mogelijkheden te kijken.

Ik denk dat ik het beste HA OS kan gaan gebruiken met de domotica gerelateerde programma’s die nu ook op de pi4 draaien, alleen homebridge is niet binnen de add-on store beschikbaar van HA maar die kan ik dan wel via portainer installeren. Zelfde geld voor pi-hole maar misschien eens kijken naar AdGuard home of anders pi-hole via portainer.

Pi 2 ga ik dan uitfaseren en unifi en pi-hole/adguard plaatsen op de pi4 via docker

Plex wil ik van de NAS afhalen en in proxmox erbij gaan draaien met hardware acceleration aangezien de NAS geen 4k aankan en het 4k beeld materiaal wordt steeds meer.

Nu komt eigenlijk mijn vraag als ik gebruik wil maken van hardware acceleration voor Plex en voor als het kan in HA voor ffmpeg en in de toekomst frigate voor person detection. Kan ik dan het beste binnen HA Plex installeren of toch beter apart in een LXC of een LXC met docker of een debian linux VM met docker? Ik verwacht dat de GPU (Intel UHD 630) namelijk maar naar VM kan, al kan ik dit niet direct vinden. Ik heb binnen Proxmox wel 2 vm’s aangemaakt en bij beide kan ik hetzelfde pci apparaat koppelen.
Om hier nog even op terug te komen, ik heb inmiddels een test opstelling gemaakt, proxmox geinstalleerd + geconfigureerd voor gpu passthrough.
Ik kan de gpu nu toevoegen en kiezen voor 1x i915-GVTg_V5_4 of 2x i915-GVTg_V5_8.

Ik heb nu 2 vm's gemaakt, 1 debian 11 install met plex en een i915-GVTg_V5_8
en 1x HA OS met ook een i915-GVTg_V5_8.

Als ik de debian machine als enige een gpu geeft gaat alles goed met transcoden ook met HDR, maar zodra een een 2de machine een gpu geef gaat het gelijk bufferen. Als ik de gpu uit de 2de machine haat gaat alles goed.

Iemand een idee waar dit fout kan gaan?

  • orvintax
  • Registratie: maart 2018
  • Laatst online: 21-09 09:08
TheMystery schreef op woensdag 8 september 2021 @ 15:56:
[...]


Om hier nog even op terug te komen, ik heb inmiddels een test opstelling gemaakt, proxmox geinstalleerd + geconfigureerd voor gpu passthrough.
Ik kan de gpu nu toevoegen en kiezen voor 1x i915-GVTg_V5_4 of 2x i915-GVTg_V5_8.

Ik heb nu 2 vm's gemaakt, 1 debian 11 install met plex en een i915-GVTg_V5_8
en 1x HA OS met ook een i915-GVTg_V5_8.

Als ik de debian machine als enige een gpu geeft gaat alles goed met transcoden ook met HDR, maar zodra een een 2de machine een gpu geef gaat het gelijk bufferen. Als ik de gpu uit de 2de machine haat gaat alles goed.

Iemand een idee waar dit fout kan gaan?
Zie deze blogpost die beschrijft waarom Intel GVTg toch niet zo lekker werkt: https://blog.ktz.me/why-i...g-intel-gvt-g-on-proxmox/

  • TheMystery
  • Registratie: februari 2004
  • Laatst online: 21:18
orvintax schreef op woensdag 8 september 2021 @ 23:04:
[...]

Zie deze blogpost die beschrijft waarom Intel GVTg toch niet zo lekker werkt: https://blog.ktz.me/why-i...g-intel-gvt-g-on-proxmox/
Oke, helaas dan misschien toch maar 1 vm met ha supervised

  • nero355
  • Registratie: februari 2002
  • Laatst online: 20:29

nero355

ph34r my [WCG] Cows :P

TheMystery schreef op woensdag 8 september 2021 @ 15:56:
Om hier nog even op terug te komen, ik heb inmiddels een test opstelling gemaakt, proxmox geinstalleerd + geconfigureerd voor gpu passthrough.
Ik kan de gpu nu toevoegen en kiezen voor 1x i915-GVTg_V5_4 of 2x i915-GVTg_V5_8.

Ik heb nu 2 vm's gemaakt, 1 debian 11 install met plex en een i915-GVTg_V5_8
en 1x HA OS met ook een i915-GVTg_V5_8.

Als ik de debian machine als enige een gpu geeft gaat alles goed met transcoden ook met HDR, maar zodra een een 2de machine een gpu geef gaat het gelijk bufferen. Als ik de gpu uit de 2de machine haat gaat alles goed.

Iemand een idee waar dit fout kan gaan?
Voor één videokaart (of een LAN NIC of zo) in meerdere VM's heb je toch SR-IOV nodig en volgens mij kan die iGPU dat helemaal niet :?

Of zeg ik nou wat geks ?! :$

|| DPC GoT WhatPulse Team :) || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • orvintax
  • Registratie: maart 2018
  • Laatst online: 21-09 09:08
nero355 schreef op donderdag 9 september 2021 @ 15:19:
[...]

Voor één videokaart (of een LAN NIC of zo) in meerdere VM's heb je toch SR-IOV nodig en volgens mij kan die iGPU dat helemaal niet :?

Of zeg ik nou wat geks ?! :$
Ik had snel even opgezocht in het (b)leek dat die igpu Intel GVTg ondersteunde, daarmee zou dat ook moeten kunnen. Ben er zelf ook onbekend mee hoor. :P

  • ComTech
  • Registratie: november 2002
  • Laatst online: 23:20
Ik krijg hier IOMMU voor PCI passtrough maar niet aan de praat.

Ik heb dit toegevoegd aan /etc/default/grub

GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on"

In /etc/modules
vfio
vfio_iommu_type1
vfio_pci
vfio_virqfd


dmesg | grep -e DMAR -e IOMMU geeft geen IOMMU enabled aan
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
[    0.007865] ACPI: DMAR 0x000000008A2DDD10 0000A8 (v01 INTEL  EDK2     00000002      01000013)
[    0.007891] ACPI: Reserving DMAR table memory at [mem 0x8a2ddd10-0x8a2dddb7]
[    0.116261] DMAR: Host address width 39
[    0.116263] DMAR: DRHD base: 0x000000fed90000 flags: 0x0
[    0.116267] DMAR: dmar0: reg_base_addr fed90000 ver 1:0 cap 1c0000c40660462 ecap 19e2ff0505e
[    0.116270] DMAR: DRHD base: 0x000000fed91000 flags: 0x1
[    0.116274] DMAR: dmar1: reg_base_addr fed91000 ver 1:0 cap d2008c40660462 ecap f050da
[    0.116276] DMAR: RMRR base: 0x0000008a9a8000 end: 0x0000008abf1fff
[    0.116278] DMAR: RMRR base: 0x0000008b800000 end: 0x0000008fffffff
[    0.116280] DMAR-IR: IOAPIC id 2 under DRHD base  0xfed91000 IOMMU 1
[    0.116282] DMAR-IR: HPET id 0 under DRHD base 0xfed91000
[    0.116284] DMAR-IR: Queued invalidation will be enabled to support x2apic and Intr-remapping.
[    0.117855] DMAR-IR: Enabled IRQ remapping in x2apic mode


Ik wil een SATA controller doorgeven aan een VM maar telkens als ik hem wil toevoegen geeft hij No IOMMU detected, please activate it.See Documentation for further information.

In de bios staat VT-D ingeschakeld.
Het gaat hier om een Intel core i3 8100 met MSI B360M Pro-VDH moederbord.
Iemand tips ?

| OnePlus8 Pro 256GB Ultramarine Blue | Samsung Galaxy Watch Active 2 44mm |


  • TheMystery
  • Registratie: februari 2004
  • Laatst online: 21:18
ComTech schreef op zaterdag 11 september 2021 @ 16:58:
Ik krijg hier IOMMU voor PCI passtrough maar niet aan de praat.

Ik heb dit toegevoegd aan /etc/default/grub

GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on"

In /etc/modules
vfio
vfio_iommu_type1
vfio_pci
vfio_virqfd


dmesg | grep -e DMAR -e IOMMU geeft geen IOMMU enabled aan
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
[    0.007865] ACPI: DMAR 0x000000008A2DDD10 0000A8 (v01 INTEL  EDK2     00000002      01000013)
[    0.007891] ACPI: Reserving DMAR table memory at [mem 0x8a2ddd10-0x8a2dddb7]
[    0.116261] DMAR: Host address width 39
[    0.116263] DMAR: DRHD base: 0x000000fed90000 flags: 0x0
[    0.116267] DMAR: dmar0: reg_base_addr fed90000 ver 1:0 cap 1c0000c40660462 ecap 19e2ff0505e
[    0.116270] DMAR: DRHD base: 0x000000fed91000 flags: 0x1
[    0.116274] DMAR: dmar1: reg_base_addr fed91000 ver 1:0 cap d2008c40660462 ecap f050da
[    0.116276] DMAR: RMRR base: 0x0000008a9a8000 end: 0x0000008abf1fff
[    0.116278] DMAR: RMRR base: 0x0000008b800000 end: 0x0000008fffffff
[    0.116280] DMAR-IR: IOAPIC id 2 under DRHD base  0xfed91000 IOMMU 1
[    0.116282] DMAR-IR: HPET id 0 under DRHD base 0xfed91000
[    0.116284] DMAR-IR: Queued invalidation will be enabled to support x2apic and Intr-remapping.
[    0.117855] DMAR-IR: Enabled IRQ remapping in x2apic mode


Ik wil een SATA controller doorgeven aan een VM maar telkens als ik hem wil toevoegen geeft hij No IOMMU detected, please activate it.See Documentation for further information.

In de bios staat VT-D ingeschakeld.
Het gaat hier om een Intel core i3 8100 met MSI B360M Pro-VDH moederbord.
Iemand tips ?
Heb je ook een grub update uitgevoerd?

  • ComTech
  • Registratie: november 2002
  • Laatst online: 23:20
TheMystery schreef op zaterdag 11 september 2021 @ 17:20:
[...]


Heb je ook een grub update uitgevoerd?
Dat heb ik gedaan en dan geeft ie aan dat ik via systemd-boot en gaat hij
proxmox-boot-tool refresh uitvoeren.
Kan alleen niet uit de documentatie halen wat ik dan anders in moet stellen als je via systemd-boot boot.

| OnePlus8 Pro 256GB Ultramarine Blue | Samsung Galaxy Watch Active 2 44mm |


  • TheMystery
  • Registratie: februari 2004
  • Laatst online: 21:18
ComTech schreef op zaterdag 11 september 2021 @ 18:01:
[...]


Dat heb ik gedaan en dan geeft ie aan dat ik via systemd-boot en gaat hij
proxmox-boot-tool refresh uitvoeren.
Kan alleen niet uit de documentatie halen wat ik dan anders in moet stellen als je via systemd-boot boot.
Dan moet je het volgens mij in /etc/kernel/cmdline zetten en niet in de grub file.
En dan dit commando uitvoeren /etc/kernel/postinst.d/zz-pve-efiboot

[Voor 7% gewijzigd door TheMystery op 11-09-2021 19:19]


  • Cyphax
  • Registratie: november 2000
  • Laatst online: 20:52

Cyphax

Moderator NOS
ComTech schreef op zaterdag 11 september 2021 @ 16:58:
Ik wil een SATA controller doorgeven aan een VM maar telkens als ik hem wil toevoegen geeft hij No IOMMU detected, please activate it.See Documentation for further information.

In de bios staat VT-D ingeschakeld.
Het gaat hier om een Intel core i3 8100 met MSI B360M Pro-VDH moederbord.
Iemand tips ?
Wil je echt de controller doorgeven of een device als /dev/sda? Dat laatste zou je gewoon moeten kunnen doen:
qm set 100 -ide0 /dev/sdaX

Ik heb een LVM-groep verdeeld over twee schijven in mijn server, en beide schijven op deze manier aan een VM met OMV gegeven en daarbinnen de LVM-groep geimporteerd.

Saved by the buoyancy of citrus


  • orvintax
  • Registratie: maart 2018
  • Laatst online: 21-09 09:08
ComTech schreef op zaterdag 11 september 2021 @ 18:01:
[...]


Dat heb ik gedaan en dan geeft ie aan dat ik via systemd-boot en gaat hij
proxmox-boot-tool refresh uitvoeren.
Kan alleen niet uit de documentatie halen wat ik dan anders in moet stellen als je via systemd-boot boot.
Je gebruikt dus geen grub, dus dan heeft het ook geen nut als je daarin iets aanpast. Op dezelfde pagina staat wat je moet doen als je systemd gebruikt.

  • nero355
  • Registratie: februari 2002
  • Laatst online: 20:29

nero355

ph34r my [WCG] Cows :P

ComTech schreef op zaterdag 11 september 2021 @ 16:58:
Ik krijg hier IOMMU voor PCI passtrough maar niet aan de praat.

Ik heb dit toegevoegd aan /etc/default/grub

GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on"

In /etc/modules
vfio
vfio_iommu_type1
vfio_pci
vfio_virqfd


dmesg | grep -e DMAR -e IOMMU geeft geen IOMMU enabled aan
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
[    0.007865] ACPI: DMAR 0x000000008A2DDD10 0000A8 (v01 INTEL  EDK2     00000002      01000013)
[    0.007891] ACPI: Reserving DMAR table memory at [mem 0x8a2ddd10-0x8a2dddb7]
[    0.116261] DMAR: Host address width 39
[    0.116263] DMAR: DRHD base: 0x000000fed90000 flags: 0x0
[    0.116267] DMAR: dmar0: reg_base_addr fed90000 ver 1:0 cap 1c0000c40660462 ecap 19e2ff0505e
[    0.116270] DMAR: DRHD base: 0x000000fed91000 flags: 0x1
[    0.116274] DMAR: dmar1: reg_base_addr fed91000 ver 1:0 cap d2008c40660462 ecap f050da
[    0.116276] DMAR: RMRR base: 0x0000008a9a8000 end: 0x0000008abf1fff
[    0.116278] DMAR: RMRR base: 0x0000008b800000 end: 0x0000008fffffff
[    0.116280] DMAR-IR: IOAPIC id 2 under DRHD base  0xfed91000 IOMMU 1
[    0.116282] DMAR-IR: HPET id 0 under DRHD base 0xfed91000
[    0.116284] DMAR-IR: Queued invalidation will be enabled to support x2apic and Intr-remapping.
[    0.117855] DMAR-IR: Enabled IRQ remapping in x2apic mode


Ik wil een SATA controller doorgeven aan een VM maar telkens als ik hem wil toevoegen geeft hij No IOMMU detected, please activate it.See Documentation for further information.

In de bios staat VT-D ingeschakeld.
Het gaat hier om een Intel core i3 8100 met MSI B360M Pro-VDH moederbord.
Iemand tips ?
Lees effe dit verhaal terug : haborym in "Het grote Proxmox VE topic" :)

|| DPC GoT WhatPulse Team :) || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • ocaj
  • Registratie: juli 2011
  • Niet online
Ik draai inmiddels ruim anderhalf jaar Proxmox. Voordat ik mijn server naar Proxmox 7 ga migreren leek het mij handig om een subscription toe te voegen, zodat ik van de stabiele enterprise-repository kan downloaden.

Maar dat gaat nog niet helemaal zoals ik dacht....

Subscription-key is toegevoegd en is ook actief.
Ik heb in /apt/sources.lists.d de pve-nosubscription.list die ik er tot nu toe had staan weggegooid en vervangen door een pve-enterprise.list met als inhoud:
code:
1
deb https://enterprise.proxmox.com/debian/pve buster pve-enterprise

Vervolgens apt update gedaan, maar dat geeft:
code:
1
2
3
4
5
6
7
8
9
# cat pve-enterprise.list 
deb https://enterprise.proxmox.com/debian/pve buster pve-enterprise
root@pve:/etc/apt/sources.list.d# apt update
Hit:1 http://security.debian.org buster/updates InRelease
Hit:2 http://ftp.nl.debian.org/debian buster InRelease                                              
Hit:3 http://ftp.nl.debian.org/debian buster-updates InRelease                                      
Get:4 https://enterprise.proxmox.com/debian/pve buster InRelease [2,080 B]
Fetched 2,080 B in 1s (2,252 B/s)        
Reading package lists... Done

2080 B(yte) lijkt me wel een erg korte lijst. Ook zie ik bij de te updaten packages geen pve-packages meer staan (en ik zit nog op PVE 6.3, dus daar zou de upgrade PVE 6.4 bij moeten staan)

Ga ik kijken in /var/lib/apt/lists dan staat er wel een bestand "enterprise.proxmox.com_debian_pve_dists_buster_InRelease", maar dat bestand heeft een datum/tijd van gisteren en in dat bestand staat: "Components: pve-no-subscription".
Lijkt er dus op dat apt update niet goed gewerkt heeft?

Meest logische lijkt mij dat ik de verkeerde repository heb opgenomen in de pve-enterprise.list. Daar is de documentatie niet heel consequent in, op de repository-pagina staat:
deb https://enterprise.proxmox.com/debian buster pve-enterprise , maar in de V6-documentatie staat:
deb https://enterprise.proxmox.com/debian/pve buster pve-enterprise

Als ik die eerste URL gebruik zonder de /pve) dan krijg ik een foutmelding van apt update:
code:
1
2
3
4
5
6
7
8
# apt update
Hit:1 http://security.debian.org buster/updates InRelease
Hit:2 http://ftp.nl.debian.org/debian buster InRelease                              
Hit:3 http://ftp.nl.debian.org/debian buster-updates InRelease                      
Err:4 https://enterprise.proxmox.com/debian buster InRelease                        
  401  Unauthorized [IP: 2a01:7e0:0:424::249 443]
Reading package lists... Done                                 
E: Failed to fetch https://enterprise.proxmox.com/debian/dists/buster/InRelease  401  Unauthorized [IP: 2a01:7e0:0:424::249 443]


Iemand enig idee hoe ik dit kan fixen?
Kan iemand met een subscription mij verklappen wat erin de pve-enterprise.list moet staan (voor Proxmox 6 / buster)?

  • BlaBla1973
  • Registratie: februari 2001
  • Laatst online: 20-09 14:14
Hi, na jaren een bare metal setup met xpenology te hebben gebruikt ben ik nu alles over aan het zetten op nieuwe hardware, naar een nieuwe Proxmox 7 (pve-manager/7.0-8/b1dbf562 (running kernel: 5.11.22-1-pve)).
Een van de redenen om dit te doen is, leuk lekker prutsen, maar ik wil voornamenlijk mijn 1050 GTX gebruiken voor Plex.
De Xpenology VM is gemaakt en gebruikt nu mijn raid controller in passthrough en werkt zonder problemen.
Plex heb ik in een Ubuntu 20.04 server VM geinstalleerd, deze werkt goed ik krijg alleen mijn GPU niet aan de praat.
Ik heb deze guide gebruikt : https://forum.proxmox.com...tutorial-reference.34303/
en deze : https://www.reddit.com/r/...guide_to_gpu_passthrough/

En krijg nu op mijn pve deze lspci -v output:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
02:00.0 VGA compatible controller: NVIDIA Corporation GP107 [GeForce GTX 1050] (rev a1) (prog-if 00 [VGA controller])
        Subsystem: Micro-Star International Co., Ltd. [MSI] GP107 [GeForce GTX 1050]
        Flags: bus master, fast devsel, latency 0, IRQ 17, IOMMU group 15
        Memory at de000000 (32-bit, non-prefetchable) [size=16M]
        Memory at c0000000 (64-bit, prefetchable) [size=256M]
        Memory at d0000000 (64-bit, prefetchable) [size=32M]
        I/O ports at d000 [size=128]
        Expansion ROM at 000c0000 [disabled] [size=128K]
        Capabilities: [60] Power Management version 3
        Capabilities: [68] MSI: Enable- Count=1/1 Maskable- 64bit+
        Capabilities: [78] Express Legacy Endpoint, MSI 00
        Capabilities: [100] Virtual Channel
        Capabilities: [250] Latency Tolerance Reporting
        Capabilities: [128] Power Budgeting <?>
        Capabilities: [420] Advanced Error Reporting
        Capabilities: [600] Vendor Specific Information: ID=0001 Rev=1 Len=024 <?>
        Capabilities: [900] Secondary PCI Express
        Kernel driver in use: vfio-pci
        Kernel modules: nvidiafb, nouveau

Dat lijkt dus goed te gaan(Kernel driver in use: vfio-pci), in de VM heb ik dit :

code:
1
2
3
4
5
6
7
8
9
10
11
12
00:10.0 VGA compatible controller: NVIDIA Corporation GP107 [GeForce GTX 1050] (rev a1) (prog-if 00 [VGA controller])
        Subsystem: Micro-Star International Co., Ltd. [MSI] GP107 [GeForce GTX 1050]
        Physical Slot: 16
        Flags: bus master, fast devsel, latency 0, IRQ 11
        Memory at fd000000 (32-bit, non-prefetchable) [size=16M]
        Memory at e0000000 (64-bit, prefetchable) [size=256M]
        Memory at f0000000 (64-bit, prefetchable) [size=32M]
        I/O ports at e000 [size=128]
        Expansion ROM at fe440000 [virtual] [disabled] [size=128K]
        Capabilities: <access denied>
        Kernel driver in use: nvidia
        Kernel modules: nvidiafb, nouveau, nvidia_drm, nvidia

Daar zie ik Capabilities: <access denied> ?
code:
1
2
root@plex1050:~$ nvidia-smi
No devices were found

Nu is mijn vraag.. De videokaart is met een driver beschikbaar , maar niet bruikbaar. Waar moet ik nu naar kijken, want ik zit een beetje op een dood spoor.. :)

Computer nr 486 denk ik..


  • oltk
  • Registratie: augustus 2007
  • Laatst online: 22:22
ocaj schreef op dinsdag 14 september 2021 @ 21:21:

.... Enterprise subscription ...
Ik zou niet precies weten hoe dit moet. Maar in proxmox 7 zit het toevoegen en wijzigen van repositories als onderdeel van een subscription in de GUI.


  • ocaj
  • Registratie: juli 2011
  • Niet online
oltk schreef op dinsdag 14 september 2021 @ 22:07:
[...]


Ik zou niet precies weten hoe dit moet. Maar in proxmox 7 zit het toevoegen en wijzigen van repositories als onderdeel van een subscription in de GUI.
Ik las inderdaad dat dat een nieuwe feature is van proxmox 7. Maar ik wil graag over naar de enterprise-repositories vóórdat ik migreer naar proxmox 7.

De configuratie staat normaal gesproken in een bestand in /etc/apt/sources.lists.d
(daar heb ik ook anderhalf jaar geleden de aanpassing gedaan van enterprise -> no-subscription , maar verzuimd een backup te maken van de oorspronkelijke configuratie)

Update: Vreeeeemd! Hij doet het nu. Wat heb ik gedaan?
Ik heb de enterprise-repository weggehaald en de no-subscription teruggezet. Toen apt update gedaan.
Vervolgens de no-subscription weggehaald en de enterprise weer teruggezet. Nog een keer apt update en nu werkt het wel...

Nou ja, problem solved. Binnenkort maar eens gaan upgraden, eerst naar 6.4 en dan migreren naar 7.

[Voor 21% gewijzigd door ocaj op 14-09-2021 22:57]


  • oltk
  • Registratie: augustus 2007
  • Laatst online: 22:22
ocaj schreef op dinsdag 14 september 2021 @ 22:48:
[...]

Ik las inderdaad dat dat een nieuwe feature is van proxmox 7. Maar ik wil graag over naar de enterprise-repositories vóórdat ik migreer naar proxmox 7.

De configuratie staat normaal gesproken in een bestand in /etc/apt/sources.lists.d
(daar heb ik ook anderhalf jaar geleden de aanpassing gedaan van enterprise -> no-subscription , maar verzuimd een backup te maken van de oorspronkelijke configuratie)
Ik had dit staan (ik had het weg gecomment)
/etc/apt/sources.list.d/pve.enterprise.proxmox.com

[Voor 21% gewijzigd door oltk op 14-09-2021 23:47]


  • ocaj
  • Registratie: juli 2011
  • Niet online
Dat ziet er overzichtelijk uit. Handig dat dat vanaf PVE7 ook in de GUI terug te vinden is.

Inmiddels is het hier ook weer gaan werken (ik had mijn vorige bericht ge-update, maar dat had jouw laatste bericht gekruist zie ik nu).

Ik bedacht me net dat het misschien zo kan zijn dat de subscription nog niet overal actief was.
In de begeleidende mail stond dat de subscription na maximaal 5 minuten geactiveerd zou zijn. Dat was hij ook (eigenlijk direct nadat ik de key invoerde), maar wellicht dat de enterprise-repository er pas na een paar uur achter kwam en ik daarom tot die tijd de "Unauthorized" kreeg.

Anyway, het werkt. Bedankt voor het meedenken!

  • A1AD
  • Registratie: juli 2013
  • Laatst online: 20-09 10:17
Ik heb de update naar 7 nog uitgesteld omdat er problemen waren wanneer je Docker in een LXC hebt draaien. Is daar ondertussen al een oplossing voor?

I don't fail. I successfully identify suboptimal methods. iRP


  • roeleboel
  • Registratie: maart 2006
  • Niet online

roeleboel

en zijn beestenboel

A1AD schreef op woensdag 15 september 2021 @ 11:20:
Ik heb de update naar 7 nog uitgesteld omdat er problemen waren wanneer je Docker in een LXC hebt draaien. Is daar ondertussen al een oplossing voor?
Ik ben recent naar 7 gegaan, ook met tig dockers in (ubuntu) lxc's.
Hoe ik het heb aangepakt:
- update/dist-upgrade al uw lxc's, en zeker ook de docker versie daarin
- check met de tool die proxmox levert voor de upgrade (naam even kwijt)
- het kan zijn dat ergens in de conf files nog ne cgroup naar cgroup2 moet hernoemd worden, de probleemgevallen worden aangegeven door die upgradetool
- als alles opgelost is kan je zonder probleem upgraden (allé, dat ging hier toch)

  • A1AD
  • Registratie: juli 2013
  • Laatst online: 20-09 10:17
roeleboel schreef op woensdag 15 september 2021 @ 12:04:
[...]


Ik ben recent naar 7 gegaan, ook met tig dockers in (ubuntu) lxc's.
Hoe ik het heb aangepakt:
- update/dist-upgrade al uw lxc's, en zeker ook de docker versie daarin
- check met de tool die proxmox levert voor de upgrade (naam even kwijt)
- het kan zijn dat ergens in de conf files nog ne cgroup naar cgroup2 moet hernoemd worden, de probleemgevallen worden aangegeven door die upgradetool
- als alles opgelost is kan je zonder probleem upgraden (allé, dat ging hier toch)
Werkt als een trein. De tool noemt: pve6to7

I don't fail. I successfully identify suboptimal methods. iRP


  • RobertMe
  • Registratie: maart 2009
  • Laatst online: 23:39
roeleboel schreef op woensdag 15 september 2021 @ 12:04:
- update/dist-upgrade al uw lxc's, en zeker ook de docker versie daarin
Heb je de containers dan ook geüpgrade naar de nieuwste versie? Ik draai nu Debian Buster in LXC, ik gok dat ik die dan eerst naar Bullseye moet updaten voordat ik aan Proxmox zelf begin. Vraag is dan alleen of de Bullseye LXC containers nog werken op Proxmox 6 / Buster.

  • roeleboel
  • Registratie: maart 2006
  • Niet online

roeleboel

en zijn beestenboel

RobertMe schreef op woensdag 15 september 2021 @ 15:53:
[...]

Heb je de containers dan ook geüpgrade naar de nieuwste versie? Ik draai nu Debian Buster in LXC, ik gok dat ik die dan eerst naar Bullseye moet updaten voordat ik aan Proxmox zelf begin. Vraag is dan alleen of de Bullseye LXC containers nog werken op Proxmox 6 / Buster.
Dat heb ik idd gedaan, maar zoals aangegeven was het bij mij ubuntu.
Er waren nog een paar 18.04 lxc's die ik dan maar ineens heb doorgetrokken naar 20.04 (laatste lts van ubuntu momenteel), en dan binnen 20.04 alle updates doen. Dat was voor mij genoeg.
Zat ondertussen dus wel binnen de container met een andere versie van docker, ik vermoed dat het belangrijkste is dat die docker-binnen-de-container recent genoeg is om met 7 om te kunnen. (nu draait er docker version 20.10)
Vermits die lxc's bij mij eigenlijk niks anders doen dan docker-host spelen maakte dat voor mij niet zoveel uit, maar dat kan eventueel anders liggen bij jou, dus best even uitkijken...

  • nero355
  • Registratie: februari 2002
  • Laatst online: 20:29

nero355

ph34r my [WCG] Cows :P

A1AD schreef op woensdag 15 september 2021 @ 11:20:
Ik heb de update naar 7 nog uitgesteld omdat er problemen waren wanneer je Docker in een LXC hebt draaien. Is daar ondertussen al een oplossing voor?
RobertMe schreef op woensdag 15 september 2021 @ 15:53:
Heb je de containers dan ook geüpgrade naar de nieuwste versie? Ik draai nu Debian Buster in LXC, ik gok dat ik die dan eerst naar Bullseye moet updaten voordat ik aan Proxmox zelf begin. Vraag is dan alleen of de Bullseye LXC containers nog werken op Proxmox 6 / Buster.
Dat is hiermee in feite gefixt : smesjz in "Het grote Proxmox VE topic"

Als de boel niet met elkaar compatible is zou je dus een error moeten krijgen! :)

|| DPC GoT WhatPulse Team :) || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • Harmen
  • Registratie: oktober 1999
  • Laatst online: 21:35
Maak al tijden gebruik van proxmox, draait prima op een dual core celeron 3900t.

Heb voor een mooie prijs een Sophos SG115 op de kop getikt. (Intel E3827 dual core, 4GB, 64GB ssd). Wil hier wel proxmox op zetten zodat ik met verschillende firewalls kan testen. Heeft een extra virtualisatie laag grote impact? Heb een Ziggo 75/10 verbinding.

Whatever.


  • Zenix
  • Registratie: maart 2004
  • Laatst online: 02:02

Zenix

BOE!

Ik denk dat je het gewoon moet gaan testen, niet veel mensen draaien proxmox op zo'n machine.

Gisteren proxmox een upgrade gegeven naar 7.0 de LXC met Docker werkte niet helemaal goed meer tot ik Debian daar ook ging upgraden en docker, daarna werkte het perfect.

  • orvintax
  • Registratie: maart 2018
  • Laatst online: 21-09 09:08
Harmen schreef op woensdag 15 september 2021 @ 22:55:
Maak al tijden gebruik van proxmox, draait prima op een dual core celeron 3900t.

Heb voor een mooie prijs een Sophos SG115 op de kop getikt. (Intel E3827 dual core, 4GB, 64GB ssd). Wil hier wel proxmox op zetten zodat ik met verschillende firewalls kan testen. Heeft een extra virtualisatie laag grote impact? Heb een Ziggo 75/10 verbinding.
Proxmox gebruikt KVM voor virtualisatie. Uit mijn hoofd hebben VMs dan iets van 90 tot 95% van de native performance. Ik denk dus niet dat het veel impact gaat hebben.

  • Harmen
  • Registratie: oktober 1999
  • Laatst online: 21:35
Thanks Orvintax, bij nader inzien heb ik mijn keuze al gemaakt. Zet er opnsense op, heeft ook veel plugins etc. :)

@KeK, klopt. 4GB is krap inderdaad. Eerst maar eens goed testen of opnsense gaat werken. Hou iig de oude router bij de hand. (Edgerouter X) :+

[Voor 39% gewijzigd door Harmen op 17-09-2021 10:13]

Whatever.


  • Kek
  • Registratie: maart 2007
  • Laatst online: 19:51

Kek

3flix

Harmen schreef op vrijdag 17 september 2021 @ 09:41:
Thanks Orvintax, bij nader inzien heb ik mijn keuze al gemaakt. Zet er opnsense op, heeft ook veel plugins etc. :)
let wel dat Proxmox wel een goede hap uit je werkgeheugen neemt. Dus de 4GB die je eerder noemde zal krap zijn als je daar eerst proxmox op zet en dan bijv. opnsense of pfsense

  • orvintax
  • Registratie: maart 2018
  • Laatst online: 21-09 09:08
Kek schreef op vrijdag 17 september 2021 @ 10:11:
[...]


let wel dat Proxmox wel een goede hap uit je werkgeheugen neemt. Dus de 4GB die je eerder noemde zal krap zijn als je daar eerst proxmox op zet en dan bijv. opnsense of pfsense
Voor testen is 1GB genoeg, maar Proxmox zelf recommend minimaal 2GB RAM. Maar opzich gebruiken routers niet veel RAM (tenzij je gekke dingen gaat doen natuurlijk :) ).

  • A1AD
  • Registratie: juli 2013
  • Laatst online: 20-09 10:17
RobertMe schreef op woensdag 15 september 2021 @ 15:53:
[...]

Heb je de containers dan ook geüpgrade naar de nieuwste versie? Ik draai nu Debian Buster in LXC, ik gok dat ik die dan eerst naar Bullseye moet updaten voordat ik aan Proxmox zelf begin. Vraag is dan alleen of de Bullseye LXC containers nog werken op Proxmox 6 / Buster.
Ik draai nog Buster op al de LXC's, geen probleem dus.
Kek schreef op vrijdag 17 september 2021 @ 10:11:
[...]


let wel dat Proxmox wel een goede hap uit je werkgeheugen neemt. Dus de 4GB die je eerder noemde zal krap zijn als je daar eerst proxmox op zet en dan bijv. opnsense of pfsense
Dan zeker geen ZFS als FS gebruiken :o

[Voor 26% gewijzigd door A1AD op 17-09-2021 13:03]

I don't fail. I successfully identify suboptimal methods. iRP


  • dcm360
  • Registratie: december 2006
  • Niet online

dcm360

HD7566 powered

Het is een hardnekkige misvatting dat je bakken RAM nodig hebt voor ZFS. Wil je veel performance uit een storageserver halen is het wel aan te raden om ZFS veel ruimte te geven, maar voor een paar VM's en/of een paar containers die geen zware disk I/O doen valt dat best mee.

  • nero355
  • Registratie: februari 2002
  • Laatst online: 20:29

nero355

ph34r my [WCG] Cows :P

@Harmen @dcm360
Maar dat betekent niet dat het een goed idee is in dit geval! :)

ZFS gaat "throttlen" onder de 4 GB RAM en als je dan ook nog eens het OS + wat VM's daarmee moet draaien dan wordt het effect daarvan alleen maar nog erger en dus veel te goed merkbaar! :/

Ik zou zeggen zorg ervoor dat het gekke kastje minstens 8 GB RAM heeft als je ZFS wilt draaien :
- 4 GB RAM voor ZFS.
- 4 GB RAM voor de rest.

Daarmee wil ik niet zeggen dat het optimaal is, want dat zou eerder 12 of 16 GB RAM zijn, maar je kan dan een beetje ermee vooruit zonder gelijk aan 24/32/64 GB of zelfs nog meer RAM te denken, terwijl je dat eerder NIET dan WEL nodig hebt in een dergelijke situatie! :)

|| DPC GoT WhatPulse Team :) || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • orvintax
  • Registratie: maart 2018
  • Laatst online: 21-09 09:08
nero355 schreef op vrijdag 17 september 2021 @ 17:06:
@Harmen @dcm360
Maar dat betekent niet dat het een goed idee is in dit geval! :)

ZFS gaat "throttlen" onder de 4 GB RAM en als je dan ook nog eens het OS + wat VM's daarmee moet draaien dan wordt het effect daarvan alleen maar nog erger en dus veel te goed merkbaar! :/

Ik zou zeggen zorg ervoor dat het gekke kastje minstens 8 GB RAM heeft als je ZFS wilt draaien :
- 4 GB RAM voor ZFS.
- 4 GB RAM voor de rest.

Daarmee wil ik niet zeggen dat het optimaal is, want dat zou eerder 12 of 16 GB RAM zijn, maar je kan dan een beetje ermee vooruit zonder gelijk aan 24/32/64 GB of zelfs nog meer RAM te denken, terwijl je dat eerder NIET dan WEL nodig hebt in een dergelijke situatie! :)
Daarnaast is ZFS voor zoiets als dit ook niet cruciaal, verre van. :)

  • dcm360
  • Registratie: december 2006
  • Niet online

dcm360

HD7566 powered

@nero355 Oké, dan verschillen we daar van mening!

Het doel is geloof ik om netwerkappliances te gaan draaien. Dat is weinig disk I/O, en in de basis ook niet eens veel geheugen. Als ik kijk naar het kastje wat ik als router gebruik, zit pfSense op een geheugengebruik van iets minder dan 450MB. 2 andere VM's en een container (die iets meer I/O-load hebben) nemen daarbij nog eens 2GB in. Proxmox en overige zaken vullen dat aan tot 3.3GB in totaal, en ZFS pakt van de resterende hoeveelheid geheugen ongeveer de helft voor ARC, wat bij mij 2.3GB is. Met tactisch de zwaarste VM wegbezuinigen zou ik met 4GB wel moeten toekomen, zeker omdat ik dan ook de grootste veroorzaker van disk I/O wegneem.

Maargoed, ZFS wordt blijkbaar als zwaar en overkill gezien voor dergelijk situaties. En dat terwijl pfSense tegenwoordig ook gewoon vanaf ZFS draait.

  • nero355
  • Registratie: februari 2002
  • Laatst online: 20:29

nero355

ph34r my [WCG] Cows :P

dcm360 schreef op vrijdag 17 september 2021 @ 17:50:
@nero355 Oké, dan verschillen we daar van mening!
:)
Het doel is geloof ik om netwerkappliances te gaan draaien. Dat is weinig disk I/O, en in de basis ook niet eens veel geheugen. Als ik kijk naar het kastje wat ik als router gebruik, zit pfSense op een geheugengebruik van iets minder dan 450MB. 2 andere VM's en een container (die iets meer I/O-load hebben) nemen daarbij nog eens 2GB in. Proxmox en overige zaken vullen dat aan tot 3.3GB in totaal, en ZFS pakt van de resterende hoeveelheid geheugen ongeveer de helft voor ARC, wat bij mij 2.3GB is. Met tactisch de zwaarste VM wegbezuinigen zou ik met 4GB wel moeten toekomen, zeker omdat ik dan ook de grootste veroorzaker van disk I/O wegneem.
Erg krapjes allemaal qua RAM :)
Maargoed, ZFS wordt blijkbaar als zwaar en overkill gezien voor dergelijk situaties. En dat terwijl pfSense tegenwoordig ook gewoon vanaf ZFS draait.
Stiekem ook wel logisch, want FreeBSD als basis en laat dat nou HET ZFS OS zijn geweest een hele lange tijd, totdat OpenZFS on Linux een beetje stabiel werd! :*)

|| DPC GoT WhatPulse Team :) || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • orvintax
  • Registratie: maart 2018
  • Laatst online: 21-09 09:08
@dcm360 Ik kon het niet terugvinden in de datasheet maar ik twijfel of dat ding ECC RAM bevat. Dan is ZFS sowieso onhandiger.

  • dcm360
  • Registratie: december 2006
  • Niet online

dcm360

HD7566 powered

nero355 schreef op vrijdag 17 september 2021 @ 17:57:
[...]

Erg krapjes allemaal qua RAM :)
Krap, maar het past wel :)
orvintax schreef op vrijdag 17 september 2021 @ 18:01:
@dcm360 Ik kon het niet terugvinden in de datasheet maar ik twijfel of dat ding ECC RAM bevat. Dan is ZFS sowieso onhandiger.
Dat is een drogreden. ZFS heeft net zo hard ECC nodig als elk ander bestandssysteem voor correcte werking.

  • orvintax
  • Registratie: maart 2018
  • Laatst online: 21-09 09:08
Dat is een drogreden. ZFS heeft net zo hard ECC nodig als elk ander bestandssysteem voor correcte werking.
Ben ik het niet mee eens, ZFS gebruikt het RAM als cache, ext4 bijvoorbeeld niet (of in veel mindere maten).

  • dcm360
  • Registratie: december 2006
  • Niet online

dcm360

HD7566 powered

orvintax schreef op vrijdag 17 september 2021 @ 18:21:
[...]

Ben ik het niet mee eens, ZFS gebruikt het RAM als cache, ext4 bijvoorbeeld niet (of in veel mindere maten).
Dat is dan onder de aanname dat alles wat je voor de rest in het RAM zet niet boeit. Fundamenteel is er naar mijn idee geen verschil tussen geheugen dat ZFS gebruikt of het geheugen van een applicatie. Je wil meer garantie dat alles correct blijft, of je neemt een risico. Op mijn databaseservers zou een bitflip net zo goed vervelend kunnen uitpakken.

  • ocf81
  • Registratie: april 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Volgens mij is de scrub of death de meest voorname reden waarom je met ZFS ECC wil. (hoewel de kans daarop klein schijnt te zijn)

[Voor 12% gewijzigd door ocf81 op 17-09-2021 19:43]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive | Upgrade your life!


  • ocaj
  • Registratie: juli 2011
  • Niet online
RobertMe schreef op woensdag 15 september 2021 @ 15:53:
[...]

Heb je de containers dan ook geüpgrade naar de nieuwste versie? Ik draai nu Debian Buster in LXC, ik gok dat ik die dan eerst naar Bullseye moet updaten voordat ik aan Proxmox zelf begin. Vraag is dan alleen of de Bullseye LXC containers nog werken op Proxmox 6 / Buster.
Ik heb eerst alle containers geupgrade naar bullseye. Daarna Proxmox naar v7. Bullseye-containers deden het in principe prima op Proxmox6

Enige waar ik tegenaanliep is dat na de upgrade van de containers naar bullseye de ssh-login zo'n 30 seconde bleef hangen, maar daarna werkte alles wel gewoon.
Dat probleem ging niet weg na de proxmox7-upgrade (waarbij de host dus ook naar bullseye gaat).

Wat wél werkte is om de "nesting"-feature aan te zetten voor de containers, gevolgd door een reboot van de container. Daarna kun je weer normaal snel inloggen via ssh.

  • powerboat
  • Registratie: december 2003
  • Laatst online: 23:18
Volgens de documentatie word als vuistregel voor ZFS minimaal 8GB gebruikt en voor elk opvolgende TB 1 extra GB.

Ps. Kan zijn dat het inmiddels verandert is.

  • CurlyMo
  • Registratie: februari 2011
  • Laatst online: 23:14

CurlyMo

www.pilight.org

powerboat schreef op vrijdag 17 september 2021 @ 20:02:
Ps. Kan zijn dat het inmiddels verandert is.
:Y

geen vragen via PM die ook op het forum gesteld kunnen worden.


  • A1AD
  • Registratie: juli 2013
  • Laatst online: 20-09 10:17
dcm360 schreef op vrijdag 17 september 2021 @ 17:50:
@nero355 Oké, dan verschillen we daar van mening!

Het doel is geloof ik om netwerkappliances te gaan draaien. Dat is weinig disk I/O, en in de basis ook niet eens veel geheugen. Als ik kijk naar het kastje wat ik als router gebruik, zit pfSense op een geheugengebruik van iets minder dan 450MB. 2 andere VM's en een container (die iets meer I/O-load hebben) nemen daarbij nog eens 2GB in. Proxmox en overige zaken vullen dat aan tot 3.3GB in totaal, en ZFS pakt van de resterende hoeveelheid geheugen ongeveer de helft voor ARC, wat bij mij 2.3GB is. Met tactisch de zwaarste VM wegbezuinigen zou ik met 4GB wel moeten toekomen, zeker omdat ik dan ook de grootste veroorzaker van disk I/O wegneem.

Maargoed, ZFS wordt blijkbaar als zwaar en overkill gezien voor dergelijk situaties. En dat terwijl pfSense tegenwoordig ook gewoon vanaf ZFS draait.
Wordt de ARC op zo een pfSense install dan niet zwaar beperkt? Ik geef meestal 8GB aan ZFS en de rest voor de VM's. Maar ik heb dan ook een RAIDZ2 voor mijn bulk data naast de mirror waar Proxmox op draait.

I don't fail. I successfully identify suboptimal methods. iRP


  • dcm360
  • Registratie: december 2006
  • Niet online

dcm360

HD7566 powered

A1AD schreef op zaterdag 18 september 2021 @ 19:47:
[...]


Wordt de ARC op zo een pfSense install dan niet zwaar beperkt? Ik geef meestal 8GB aan ZFS en de rest voor de VM's. Maar ik heb dan ook een RAIDZ2 voor mijn bulk data naast de mirror waar Proxmox op draait.
Volgens mij geef je eigenlijk zelf al een antwoord na de vraag: het is gewoon niet nodig als je geen dingen met storage gaat doen. Voor storage en zwaarder virtualisatie- en rekenwerk staat er bij mij een machine naast met een 3700X, 64GB RAM en nvme-SSD's in RAID naast nog een stapel HDD's die een datacenter-SSD voor L2ARC en ZIL gebruikt. De router op een zuinig losstaand doosje (met een A2SAV-L er in) draaien heeft echter ook weer zijn voordelen, zoals dat ik kan prutsen wat ik wil aan de grote machine zonder dat de internetlijn wegvalt. Dat is niet alleen fijn voor mijzelf, maar ook voor de anderen hier in huis :)

  • A1AD
  • Registratie: juli 2013
  • Laatst online: 20-09 10:17
dcm360 schreef op zaterdag 18 september 2021 @ 20:01:
[...]

Volgens mij geef je eigenlijk zelf al een antwoord na de vraag: het is gewoon niet nodig als je geen dingen met storage gaat doen. Voor storage en zwaarder virtualisatie- en rekenwerk staat er bij mij een machine naast met een 3700X, 64GB RAM en nvme-SSD's in RAID naast nog een stapel HDD's die een datacenter-SSD voor L2ARC en ZIL gebruikt. De router op een zuinig losstaand doosje (met een A2SAV-L er in) draaien heeft echter ook weer zijn voordelen, zoals dat ik kan prutsen wat ik wil aan de grote machine zonder dat de internetlijn wegvalt. Dat is niet alleen fijn voor mijzelf, maar ook voor de anderen hier in huis :)
Mijn vraag was eerder of Netgate zelf de ARC beperkt of hem gewoon zijn gang laat gaan?

I don't fail. I successfully identify suboptimal methods. iRP


  • unezra
  • Registratie: maart 2001
  • Laatst online: 21:36

unezra

Ceci n'est pas un sous-titre.

powerboat schreef op vrijdag 17 september 2021 @ 20:02:
Volgens de documentatie word als vuistregel voor ZFS minimaal 8GB gebruikt en voor elk opvolgende TB 1 extra GB.

Ps. Kan zijn dat het inmiddels verandert is.
Nee.
Dat is al heel lang geleden afgedaan als urban legend. Het is niet waar. Het staat niet in de documentatie.

Voor de ene ZFS setup heb je zwaar te kort aan 1G per 1T storage, voor de andere is het overkill. In alle gevallen is het niet eens een rule of thumb.

Leesvoer:
https://pthree.org/2013/1...ue-cost-of-deduplication/

Ná Scaoll. - Don’t Panic.


  • unezra
  • Registratie: maart 2001
  • Laatst online: 21:36

unezra

Ceci n'est pas un sous-titre.

ocf81 schreef op vrijdag 17 september 2021 @ 19:09:
Volgens mij is de scrub of death de meest voorname reden waarom je met ZFS ECC wil. (hoewel de kans daarop klein schijnt te zijn)
Hier staat wel wat nuttige info over het hoe en waarom:
https://pthree.org/2013/1...y-you-should-use-ecc-ram/

Ná Scaoll. - Don’t Panic.


  • dcm360
  • Registratie: december 2006
  • Niet online

dcm360

HD7566 powered

A1AD schreef op zaterdag 18 september 2021 @ 20:10:
[...]


Mijn vraag was eerder of Netgate zelf de ARC beperkt of hem gewoon zijn gang laat gaan?
Als ik even spiek, staat vfs.zfs.arc_max op ongeveer 600MB in een VM die 1GB RAM heeft. Volgens zichzelf is het geheugengebruik in totaal 350MB, volgens Proxmox echter iets minder, zo rond de 220MB. Overigens zou de gehele root-disk van pfSense op die machine in de ARC kunnen passen, want daar staat net iets minder dan 600MB op.
Pagina: 1 ... 19 20 21 Laatste


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True

Tweakers maakt gebruik van cookies

Bij het bezoeken van het forum plaatst Tweakers alleen functionele en analytische cookies voor optimalisatie en analyse om de website-ervaring te verbeteren. Op het forum worden geen trackingcookies geplaatst. Voor het bekijken van video's en grafieken van derden vragen we je toestemming, we gebruiken daarvoor externe tooling die mogelijk cookies kunnen plaatsen.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Forum cookie-instellingen

Bekijk de onderstaande instellingen en maak je keuze. Meer informatie vind je in ons cookiebeleid.

Functionele en analytische cookies

Deze cookies helpen de website zijn functies uit te voeren en zijn verplicht. Meer details

janee

    Cookies van derden

    Deze cookies kunnen geplaatst worden door derde partijen via ingesloten content en om de gebruikerservaring van de website te verbeteren. Meer details

    janee