Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

nero355 schreef op maandag 30 augustus 2021 @ 16:42:
[...]

Klopt : Dan moet je de Chromecast Ultra hebben dus dat is je eigen schuld! :P
Ik wil maar zeggen dat ook redelijk bekende en recente producten soms de noodzaak tot transcoden hebben.

https://dontasktoask.com/


Acties:
  • +3 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

orvintax schreef op maandag 30 augustus 2021 @ 17:45:
Ik wil maar zeggen dat ook redelijk bekende en recente producten soms de noodzaak tot transcoden hebben.
Zoals ik al zei : Vervangen die hap! :)

/EDIT :
orvintax schreef op maandag 30 augustus 2021 @ 17:58:
Ik ga niet voor al mn users (famillie) een nieuwe chromecast kopen :P
Dat mogen ze uiteraard lekker zelf doen! >:) :P :+

[ Voor 32% gewijzigd door nero355 op 30-08-2021 19:56 ]

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

Ik ga niet voor al mn users (famillie) een nieuwe chromecast kopen :P

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • MLux
  • Registratie: Januari 2019
  • Laatst online: 19-05 08:30
Hoi hoi,
Ik ben nieuw met proxmox en heb een aantal vragen.
Ik heb proxmox geïnstalleerd op een thin client, 8 g ram, 16 g ssd (intern).
Nu heb ik nog een externe ssd via USB aangesloten hoe kan ik deze gaan gebruiken?
Ik wil home assistant en mijn unifi controller draaien via proxmox.
Hoe moet ik beginnen?

Acties:
  • 0 Henk 'm!

  • KraveN
  • Registratie: November 2001
  • Laatst online: 08:28
Ik heb inmiddels proxmox geïnstalleerd en ben toe aan de volgende stap namelijk het verder inrichten. Alleen nu vraag ik mij af wat handig is om te doen m.b.t. opslag :

Opslag :
128gb nvmeProxMox
500gb nvmeVM/Containers
500gb ssd?
2 TB HDD?
2 TB HDD?
2 TB HDD?


Ik wil nextcloud gaan gebruiken voor documenten, foto's, mail, agenda, contacten.
Daarnaast zou ik het fijn vinden als ik de foto's opgeslagen in nextcloud ook kan benaderen middels een share vanaf bijvoorbeeld een windows pc zodat ik middels wat andere programma's tags kan toevoegen aan deze foto's.

Ik hoef niet perse een raid setup, want ik wil middels duplicatie backups gaan maken van de ene disk naar de andere disk en een versleutelde versie slag ik ergens op in de cloud. Daarnaast wil ik ééns in de maand een backup maken op een losse HDD die ik dan op een andere plek neerleg.

Verder wil ik nog wat containers gaan draaien voor pihole/adguard, home assistant, bitwarden, camera software, etc

1 : Is het handig dat ik een 128 gb hdd gebruik voor Proxmox of zou ik daarvoor ook een kleinere partitie kunnen gebruiken, want ik verwacht niet dat ik daar 128 gb voor nodig heb.
2 : Wat is nu handig om te doen ? Ik zie op youtube dat ze vaak nextcloud installeren op een partitie van de nvme of ssd voor de snelheid en dan een data directory op de HDD meegeven aan de vm. Is dit ook handig of zijn er in mijn usecase betere opties ? Lees veel over ZFS maar daar heb nog geen kaas van gegeten.
3 : Nu zijn er een aantal mensen die truenas/freenas hosten binnen proxmox, maar ik gok dat een Open Media Vault voor mij volstaat als ik een share wil delen ?

Ik moet nog een hoop leren en er staan veel bomen in het bos zullen we maar zeggen. Hopelijk geven jullie mij een zetje in de goede richting :)

Acties:
  • +2 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

KraveN schreef op dinsdag 31 augustus 2021 @ 12:06:
Ik heb inmiddels proxmox geïnstalleerd en ben toe aan de volgende stap namelijk het verder inrichten. Alleen nu vraag ik mij af wat handig is om te doen m.b.t. opslag :

Opslag :
128gb nvmeProxMox
500gb nvmeVM/Containers
500gb ssd?
2 TB HDD?
2 TB HDD?
2 TB HDD?


Ik wil nextcloud gaan gebruiken voor documenten, foto's, mail, agenda, contacten.
Daarnaast zou ik het fijn vinden als ik de foto's opgeslagen in nextcloud ook kan benaderen middels een share vanaf bijvoorbeeld een windows pc zodat ik middels wat andere programma's tags kan toevoegen aan deze foto's.

Ik hoef niet perse een raid setup, want ik wil middels duplicatie backups gaan maken van de ene disk naar de andere disk en een versleutelde versie slag ik ergens op in de cloud. Daarnaast wil ik ééns in de maand een backup maken op een losse HDD die ik dan op een andere plek neerleg.

Verder wil ik nog wat containers gaan draaien voor pihole/adguard, home assistant, bitwarden, camera software, etc

1 : Is het handig dat ik een 128 gb hdd gebruik voor Proxmox of zou ik daarvoor ook een kleinere partitie kunnen gebruiken, want ik verwacht niet dat ik daar 128 gb voor nodig heb.
2 : Wat is nu handig om te doen ? Ik zie op youtube dat ze vaak nextcloud installeren op een partitie van de nvme of ssd voor de snelheid en dan een data directory op de HDD meegeven aan de vm. Is dit ook handig of zijn er in mijn usecase betere opties ? Lees veel over ZFS maar daar heb nog geen kaas van gegeten.
3 : Nu zijn er een aantal mensen die truenas/freenas hosten binnen proxmox, maar ik gok dat een Open Media Vault voor mij volstaat als ik een share wil delen ?

Ik moet nog een hoop leren en er staan veel bomen in het bos zullen we maar zeggen. Hopelijk geven jullie mij een zetje in de goede richting :)
Om je vragen te beantwoorden:
1: Proxmox zelf heeft natuurlijk echt geen 128GB nodig, echter is het wel gewoon mogelijk om je boot disk voor andere dingen te gebruiken. Bij mij bijvoorbeeld staat Proxmox op een ZRAID1. Maar hier staan ook gewoon al mijn containers, VMs, templates en ISO's op.

2: Je moet voor jezelf gaan uitvogelen hoe belangrijk en hoe redundant je je data wilt hebben. Ik maak zelf gebruik van een setup zoals jij aanhaalt en ik vind het fantastisch werken. Ook voor jouw usecase is dat zeker handig naar mijn mening.

ZFS is een filesystem dat focust op de integriteit van je data, wat natuurlijk erg wenselijk is bij je persoonlijke bestanden :P Ik raad je sterk aan om er wat over te lezen en het eventueel zelf te gebruiken. Je Nextcloud bestanden is bijvoorbeeld een usecase waar ZFS shined.

3: Ik gebruik zelf TrueNAS (vanwege de focus op ZFS) maar het lijkt me dat je ook OMV kunt gebruiken om een share aan te maken. MAAR en een grote MAAR zoals ik nu je reactie lees lijkt het alsof je straks buitenom Nextcloud aan die bestanden gaat zitten. Dit is iets wat je absoluut niet wilt doen. Dit om de simpele reden dat de database van Nextcloud niet door heeft dat je dit aan het doen bent dan klopt het allemaal niet meer. Je kunt wel een volledige rescan doen van al je bestanden maar dat is niet iets wat je regelmatig wilt doen.

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 06:48

Damic

Tijd voor Jasmijn thee

Mmmh was dit topic aan't zoeken tussen Server software maar wat doet dit in HW :o

Anyway ik probeer een promox server optezetten maar ik krijg windows 10 / Windows 2019 server niet geïnstalleerd. Bij beide krijg ik dezelfde error bij installatie: System Thread Exception not handled

Nu heb ik wel wat instellingen anders moeten zetten dan wat ik tot heden heb tegengekomen
Instellingen Processors:
Sockets: 2
Cores: 4 (total cores: 8)
Type: host
Numa = Enabled

Afbeeldingslocatie: https://tweakers.net/i/1P1afBrVWHtVyfc6XMkqmqgAqhI=/234x176/filters:strip_exif()/f/image/iCoutwTBkQGYBupOiJ3RmjlK.png?f=fotoalbum_medium

Als ik naar Processor Type: KVM64 (default) gaan dan geeft QEMU code 1 fout.

Iemand een idee wat ik hieraan kan doen?

Edit:
Hardware:
AMD 1950X
64GB DDR4 3200MTs
2x 1TB NVME (RAID 1) voor Proxmox/iso's/VM's

[ Voor 6% gewijzigd door Damic op 31-08-2021 17:56 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


  • KraveN
  • Registratie: November 2001
  • Laatst online: 08:28
orvintax schreef op dinsdag 31 augustus 2021 @ 13:33:
[...]

Om je vragen te beantwoorden:
1: Proxmox zelf heeft natuurlijk echt geen 128GB nodig, echter is het wel gewoon mogelijk om je boot disk voor andere dingen te gebruiken. Bij mij bijvoorbeeld staat Proxmox op een ZRAID1. Maar hier staan ook gewoon al mijn containers, VMs, templates en ISO's op.
Dus dan heb je eigenlijk bij de installatie al een zraid1 pool aangemaakt en daarop proxmox geïnstalleerd ?
2: Je moet voor jezelf gaan uitvogelen hoe belangrijk en hoe redundant je je data wilt hebben. Ik maak zelf gebruik van een setup zoals jij aanhaalt en ik vind het fantastisch werken. Ook voor jouw usecase is dat zeker handig naar mijn mening.
Refereer je hier naar de door mij bij punt 2 geschreven tactiek van app zelf op ssd/nvme en het koppelen van een hdd voor de data. Of juist mijn idee over hoe ik mijn data wil gaan backuppen ?
ZFS is een filesystem dat focust op de integriteit van je data, wat natuurlijk erg wenselijk is bij je persoonlijke bestanden :P Ik raad je sterk aan om er wat over te lezen en het eventueel zelf te gebruiken. Je Nextcloud bestanden is bijvoorbeeld een usecase waar ZFS shined.
Ik ga er even verder induiken. Ik zie voor mijzelf in ieder geval mogelijkheden in het gebruik van of raid1 of raidz1. Maar ik moet nog even de voor- en nadelen afwegen.

Wat ik mij echter nog wel afvraag, maar dat is wellicht een hele domme vraag. Stel ik maak een lxc container of vm aan voor nextcloud. Daarbij geef ik aan hoeveel schijfruimte ik reserveer voor de lxc/vm. Kan ik dan nog bij die data via een andere vm/lxc. Dus stel ik draai een lxc met duplicati en ik wil een backup maken van de bestanden in nextcloud. Om dat te doen heb ik wel toegang nodig.

Of ik draai nog OMV /Truenas vanwege de shares, kan ik dan in OMV/Truenas ook een share maken van die data in de andere lxc/vm waar nextcloud draait.
3: Ik gebruik zelf TrueNAS (vanwege de focus op ZFS) maar het lijkt me dat je ook OMV kunt gebruiken om een share aan te maken. MAAR en een grote MAAR zoals ik nu je reactie lees lijkt het alsof je straks buitenom Nextcloud aan die bestanden gaat zitten. Dit is iets wat je absoluut niet wilt doen. Dit om de simpele reden dat de database van Nextcloud niet door heeft dat je dit aan het doen bent dan klopt het allemaal niet meer. Je kunt wel een volledige rescan doen van al je bestanden maar dat is niet iets wat je regelmatig wilt doen.
Dat is een heel goed punt wat je hier aanhaalt. Totaal niet bij stil gestaan. Mijn idee was om in ieder geval mijn foto's van de telefoons te syncen met nextcloud en deze vervolgens dan te taggen in bijvoorbeeld digikam. Maar ik zal dus een andere workflow gaan zoeken zodat ik mijn foto's sync met mijn server. (gelukkig al wat alternatieven gevonden, app voor telefoon of een python script wat icloud leeg trekt).

Als het taggen gedaan is kan ik eventueel later nog de foto's die ik beschikbaar wil hebben/delen in nextcloud zet. Nu ik erover nadenk, misschien ook wel een betere manier.

Bedankt in ieder geval voor het meedenken!

[ Voor 0% gewijzigd door KraveN op 02-09-2021 12:12 . Reden: typo ]


Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

Dus dan heb je eigenlijk bij de installatie al een zraid1 pool aangemaakt en daarop proxmox geïnstalleerd ?
Als je tijdens je installatie voor ZFS hebt gekozen dan heb je sowieso een zraid pool aangemaakt, ik durf echter niet te zeggen of het dan zraid1 of zraid0 is. Dit ligt gok ik aan wat je hebt gekozen tijdens de installatie.
Refereer je hier naar de door mij bij punt 2 geschreven tactiek van app zelf op ssd/nvme en het koppelen van een hdd voor de data. Of juist mijn idee over hoe ik mijn data wil gaan backuppen ?
Daar heb ik het over het koppelen van een hdd voor de data.
Wat ik mij echter nog wel afvraag, maar dat is wellicht een hele domme vraag. Stel ik maak een lxc container of vm aan voor nextcloud. Daarbij geef ik aan hoeveel schijfruimte ik reserveer voor de lxc/vm. Kan ik dan nog bij die data via een andere vm/lxc. Dus stel ik draai een lxc met duplicati en ik wil een backup maken van de bestanden in nextcloud. Om dat te doen heb ik wel toegang nodig.

Of ik draai nog OMV /Truenas vanwege de shares, kan ik dan in OMV/Truenas ook een share maken van die data in de andere lxc/vm waar nextcloud draait.
Het is mogelijk om in Proxmox simpelweg een virtuele disk te maken en die aan een VM of LXC container te geven. Echter als je data aan meerdere VM's/LXC containers beschikbaar wilt stellen is dit vorige geen oplossing. Wat je dan wel kunt doen (en wat ik zelf ook doe) is volgensmij wat jij als laatste beschrijft.

Ik heb dus op TrueNAS verschillende NFS shares welke ik mount in mijn VM's/Containers. Voor VM's kun je hier gewoon via fstab dit standaard mounten. Voor LXC containers wil je zoveel mogelijk gebruik maken van unprivileged containers vanwege de beveiliging. Wat je kunt doen is je share mounten in Proxmox zelf om dan vervolgens de containers via een mountpoint hier toegang tot te geven. Het klinkt misschien lastiger dan dat het is, hier is documentatie online voor te vinden en anders wil ik je gerust helpen.

Laat vooral weten wat je doet, vind ik interressant :P (of niet de keuze is natuurlijk volledig aan jou x) )

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 22:00

Zenix

BOE!

Damic schreef op dinsdag 31 augustus 2021 @ 17:53:
Mmmh was dit topic aan't zoeken tussen Server software maar wat doet dit in HW :o

Anyway ik probeer een promox server optezetten maar ik krijg windows 10 / Windows 2019 server niet geïnstalleerd. Bij beide krijg ik dezelfde error bij installatie: System Thread Exception not handled

Nu heb ik wel wat instellingen anders moeten zetten dan wat ik tot heden heb tegengekomen
Instellingen Processors:
Sockets: 2
Cores: 4 (total cores: 8)
Type: host
Numa = Enabled

[Afbeelding]

Als ik naar Processor Type: KVM64 (default) gaan dan geeft QEMU code 1 fout.

Iemand een idee wat ik hieraan kan doen?

Edit:
Hardware:
AMD 1950X
64GB DDR4 3200MTs
2x 1TB NVME (RAID 1) voor Proxmox/iso's/VM's
Kan je eens core2duo proberen?
https://wiki.archlinux.or...when_booting_a_Windows_VM

Anders zou ik even een post maken op het Proxmox forum, daar kunnen ze nog meer erin duiken :)

Acties:
  • +2 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 06:48

Damic

Tijd voor Jasmijn thee

@Zenix nope dan krijg ik dit: start failed: QEMU exited with code 1

Eeey als je dubbelklikt krijg je de volledige foutmelding *O*
kvm: warning: host doesn't support requested feature: CPUID.01H:EDX.ss [bit 27]
kvm: warning: host doesn't support requested feature: CPUID.80000008H:EBX.amd-ssbd [bit 24]
kvm: warning: host doesn't support requested feature: CPUID.80000008H:EBX.amd-no-ssb [bit 26]
kvm: Host doesn't support requested features
TASK ERROR: start failed: QEMU exited with code 1
ha alle advanced cpu opties op default zetten dan boot ie wel :)
Afbeeldingslocatie: https://tweakers.net/i/SZcEdLlTGdvYpv75RXyzYhmOJCo=/234x176/filters:strip_exif()/f/image/4Bv3Fpr2B1vkYZk3ZzsQqzzh.png?f=fotoalbum_medium
*O* *O* *O* *O* *O* *O* *O*

Ow Threadripper start op als EPYC :D

[ Voor 54% gewijzigd door Damic op 03-09-2021 06:52 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Damic schreef op vrijdag 3 september 2021 @ 06:45:
Ow Threadripper start op als EPYC :D
Uiteraard, want hetzelfde chipje of beter gezegd chiplets, maar dan anders :)

Een X58/X79/X99/X299 systeem wordt ook als de Xeon Cxxx Chipset gezien! :D

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 06:48

Damic

Tijd voor Jasmijn thee

@nero355 awel ja dat ik daar niet eerder aan had gedacht :+ maar het waren dus de advanced options die roet in de startup gooide

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • ComTech
  • Registratie: November 2002
  • Laatst online: 29-06 18:30
Ik wil mijn server overzetten naar proxmox.
Het is een i3 8100 32GB RAM met 1 samsung 970 nvme disk 2 seagate 3TB ironwolf disk en nog een 4 TB ironwolf (voor backups).

Wat is nu de beste / handigste manier kwa disks / bestandssysteem?
Proxmox installeren op de 970nvme als ZFS EXT4 ?
Proxmox installeren op de 2 ironwolfs als raid1 ZFS ?
Of nog iets anders??
Iemand tips?

Acties:
  • +1 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 25-06 12:52
ComTech schreef op zondag 5 september 2021 @ 11:42:
Ik wil mijn server overzetten naar proxmox.
Het is een i3 8100 32GB RAM met 1 samsung 970 nvme disk 2 seagate 3TB ironwolf disk en nog een 4 TB ironwolf (voor backups).

Wat is nu de beste / handigste manier kwa disks / bestandssysteem?
Proxmox installeren op de 970nvme als ZFS EXT4 ?
Proxmox installeren op de 2 ironwolfs als raid1 ZFS ?
Of nog iets anders??
Iemand tips?
Proxmox op de SSD (zfs), deze kan je dan ook gebruiken als VM data store.

De 2 spinners als bulk data als ZFS mirror. Hier kan je ook je vm backups op kwijt.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • TheMystery
  • Registratie: Februari 2004
  • Laatst online: 07:42
TheMystery schreef op maandag 30 augustus 2021 @ 12:14:
Ik ben van plan Proxmox te gaan gebruiken, grootste reden hiervoor is dat ik Home Assistant nu nog via een rasbian image draai op een pi4 met M2 en ik wil toch wat betere mogelijkheden om backup's/snapshots te maken aangezien er toch redelijk veel in zit tegenwoordig.
Op dit moment ben ik aan het uitzoeken hoe ik alles wat ik nu heb draaien het beste kan gaan draaien via proxmox, onderstaande heb ik nu draaien:

pi4:
homeassistant (python virtual environment)
zigbee2mqtt (native)
mosquitto (native)
certbot letsencrypt (native)
node-red (native)
homebridge (native) (alleen om camera’s in homekit te krijgen rest loopt via ha)
ffmpeg compiled with omx hardware accelearation tbv mijn camera’s binnen homebride en ha
docker:
esphome
dsmr reader + postgres
pi-hole
nginx reverse proxy

pi2:
pi-hole
unifi

Nas ds415+:
plex (native)

Ik heb een pc ter beschikking die ik hiervoor wil gebruiken, dit is een prodesk 400G6 SFF, met een i-5 9500 (6 cores 3Ghz Turbo 4,4Ghz) 8Gb geheugen en een M2 WD blue 256G.

Ik heb Proxmox al draaien en hier ook even HA OS op gezet om naar de mogelijkheden te kijken.

Ik denk dat ik het beste HA OS kan gaan gebruiken met de domotica gerelateerde programma’s die nu ook op de pi4 draaien, alleen homebridge is niet binnen de add-on store beschikbaar van HA maar die kan ik dan wel via portainer installeren. Zelfde geld voor pi-hole maar misschien eens kijken naar AdGuard home of anders pi-hole via portainer.

Pi 2 ga ik dan uitfaseren en unifi en pi-hole/adguard plaatsen op de pi4 via docker

Plex wil ik van de NAS afhalen en in proxmox erbij gaan draaien met hardware acceleration aangezien de NAS geen 4k aankan en het 4k beeld materiaal wordt steeds meer.

Nu komt eigenlijk mijn vraag als ik gebruik wil maken van hardware acceleration voor Plex en voor als het kan in HA voor ffmpeg en in de toekomst frigate voor person detection. Kan ik dan het beste binnen HA Plex installeren of toch beter apart in een LXC of een LXC met docker of een debian linux VM met docker? Ik verwacht dat de GPU (Intel UHD 630) namelijk maar naar VM kan, al kan ik dit niet direct vinden. Ik heb binnen Proxmox wel 2 vm’s aangemaakt en bij beide kan ik hetzelfde pci apparaat koppelen.
Om hier nog even op terug te komen, ik heb inmiddels een test opstelling gemaakt, proxmox geinstalleerd + geconfigureerd voor gpu passthrough.
Ik kan de gpu nu toevoegen en kiezen voor 1x i915-GVTg_V5_4 of 2x i915-GVTg_V5_8.

Ik heb nu 2 vm's gemaakt, 1 debian 11 install met plex en een i915-GVTg_V5_8
en 1x HA OS met ook een i915-GVTg_V5_8.

Als ik de debian machine als enige een gpu geeft gaat alles goed met transcoden ook met HDR, maar zodra een een 2de machine een gpu geef gaat het gelijk bufferen. Als ik de gpu uit de 2de machine haat gaat alles goed.

Iemand een idee waar dit fout kan gaan?

Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

TheMystery schreef op woensdag 8 september 2021 @ 15:56:
[...]


Om hier nog even op terug te komen, ik heb inmiddels een test opstelling gemaakt, proxmox geinstalleerd + geconfigureerd voor gpu passthrough.
Ik kan de gpu nu toevoegen en kiezen voor 1x i915-GVTg_V5_4 of 2x i915-GVTg_V5_8.

Ik heb nu 2 vm's gemaakt, 1 debian 11 install met plex en een i915-GVTg_V5_8
en 1x HA OS met ook een i915-GVTg_V5_8.

Als ik de debian machine als enige een gpu geeft gaat alles goed met transcoden ook met HDR, maar zodra een een 2de machine een gpu geef gaat het gelijk bufferen. Als ik de gpu uit de 2de machine haat gaat alles goed.

Iemand een idee waar dit fout kan gaan?
Zie deze blogpost die beschrijft waarom Intel GVTg toch niet zo lekker werkt: https://blog.ktz.me/why-i...g-intel-gvt-g-on-proxmox/

https://dontasktoask.com/


  • TheMystery
  • Registratie: Februari 2004
  • Laatst online: 07:42
orvintax schreef op woensdag 8 september 2021 @ 23:04:
[...]

Zie deze blogpost die beschrijft waarom Intel GVTg toch niet zo lekker werkt: https://blog.ktz.me/why-i...g-intel-gvt-g-on-proxmox/
Oke, helaas dan misschien toch maar 1 vm met ha supervised

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

TheMystery schreef op woensdag 8 september 2021 @ 15:56:
Om hier nog even op terug te komen, ik heb inmiddels een test opstelling gemaakt, proxmox geinstalleerd + geconfigureerd voor gpu passthrough.
Ik kan de gpu nu toevoegen en kiezen voor 1x i915-GVTg_V5_4 of 2x i915-GVTg_V5_8.

Ik heb nu 2 vm's gemaakt, 1 debian 11 install met plex en een i915-GVTg_V5_8
en 1x HA OS met ook een i915-GVTg_V5_8.

Als ik de debian machine als enige een gpu geeft gaat alles goed met transcoden ook met HDR, maar zodra een een 2de machine een gpu geef gaat het gelijk bufferen. Als ik de gpu uit de 2de machine haat gaat alles goed.

Iemand een idee waar dit fout kan gaan?
Voor één videokaart (of een LAN NIC of zo) in meerdere VM's heb je toch SR-IOV nodig en volgens mij kan die iGPU dat helemaal niet :?

Of zeg ik nou wat geks ?! :$

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

nero355 schreef op donderdag 9 september 2021 @ 15:19:
[...]

Voor één videokaart (of een LAN NIC of zo) in meerdere VM's heb je toch SR-IOV nodig en volgens mij kan die iGPU dat helemaal niet :?

Of zeg ik nou wat geks ?! :$
Ik had snel even opgezocht in het (b)leek dat die igpu Intel GVTg ondersteunde, daarmee zou dat ook moeten kunnen. Ben er zelf ook onbekend mee hoor. :P

https://dontasktoask.com/


  • ComTech
  • Registratie: November 2002
  • Laatst online: 29-06 18:30
Ik krijg hier IOMMU voor PCI passtrough maar niet aan de praat.

Ik heb dit toegevoegd aan /etc/default/grub

GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on"

In /etc/modules
vfio
vfio_iommu_type1
vfio_pci
vfio_virqfd


dmesg | grep -e DMAR -e IOMMU geeft geen IOMMU enabled aan
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
[    0.007865] ACPI: DMAR 0x000000008A2DDD10 0000A8 (v01 INTEL  EDK2     00000002      01000013)
[    0.007891] ACPI: Reserving DMAR table memory at [mem 0x8a2ddd10-0x8a2dddb7]
[    0.116261] DMAR: Host address width 39
[    0.116263] DMAR: DRHD base: 0x000000fed90000 flags: 0x0
[    0.116267] DMAR: dmar0: reg_base_addr fed90000 ver 1:0 cap 1c0000c40660462 ecap 19e2ff0505e
[    0.116270] DMAR: DRHD base: 0x000000fed91000 flags: 0x1
[    0.116274] DMAR: dmar1: reg_base_addr fed91000 ver 1:0 cap d2008c40660462 ecap f050da
[    0.116276] DMAR: RMRR base: 0x0000008a9a8000 end: 0x0000008abf1fff
[    0.116278] DMAR: RMRR base: 0x0000008b800000 end: 0x0000008fffffff
[    0.116280] DMAR-IR: IOAPIC id 2 under DRHD base  0xfed91000 IOMMU 1
[    0.116282] DMAR-IR: HPET id 0 under DRHD base 0xfed91000
[    0.116284] DMAR-IR: Queued invalidation will be enabled to support x2apic and Intr-remapping.
[    0.117855] DMAR-IR: Enabled IRQ remapping in x2apic mode


Ik wil een SATA controller doorgeven aan een VM maar telkens als ik hem wil toevoegen geeft hij No IOMMU detected, please activate it.See Documentation for further information.

In de bios staat VT-D ingeschakeld.
Het gaat hier om een Intel core i3 8100 met MSI B360M Pro-VDH moederbord.
Iemand tips ?

  • TheMystery
  • Registratie: Februari 2004
  • Laatst online: 07:42
ComTech schreef op zaterdag 11 september 2021 @ 16:58:
Ik krijg hier IOMMU voor PCI passtrough maar niet aan de praat.

Ik heb dit toegevoegd aan /etc/default/grub

GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on"

In /etc/modules
vfio
vfio_iommu_type1
vfio_pci
vfio_virqfd


dmesg | grep -e DMAR -e IOMMU geeft geen IOMMU enabled aan
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
[    0.007865] ACPI: DMAR 0x000000008A2DDD10 0000A8 (v01 INTEL  EDK2     00000002      01000013)
[    0.007891] ACPI: Reserving DMAR table memory at [mem 0x8a2ddd10-0x8a2dddb7]
[    0.116261] DMAR: Host address width 39
[    0.116263] DMAR: DRHD base: 0x000000fed90000 flags: 0x0
[    0.116267] DMAR: dmar0: reg_base_addr fed90000 ver 1:0 cap 1c0000c40660462 ecap 19e2ff0505e
[    0.116270] DMAR: DRHD base: 0x000000fed91000 flags: 0x1
[    0.116274] DMAR: dmar1: reg_base_addr fed91000 ver 1:0 cap d2008c40660462 ecap f050da
[    0.116276] DMAR: RMRR base: 0x0000008a9a8000 end: 0x0000008abf1fff
[    0.116278] DMAR: RMRR base: 0x0000008b800000 end: 0x0000008fffffff
[    0.116280] DMAR-IR: IOAPIC id 2 under DRHD base  0xfed91000 IOMMU 1
[    0.116282] DMAR-IR: HPET id 0 under DRHD base 0xfed91000
[    0.116284] DMAR-IR: Queued invalidation will be enabled to support x2apic and Intr-remapping.
[    0.117855] DMAR-IR: Enabled IRQ remapping in x2apic mode


Ik wil een SATA controller doorgeven aan een VM maar telkens als ik hem wil toevoegen geeft hij No IOMMU detected, please activate it.See Documentation for further information.

In de bios staat VT-D ingeschakeld.
Het gaat hier om een Intel core i3 8100 met MSI B360M Pro-VDH moederbord.
Iemand tips ?
Heb je ook een grub update uitgevoerd?

  • ComTech
  • Registratie: November 2002
  • Laatst online: 29-06 18:30
TheMystery schreef op zaterdag 11 september 2021 @ 17:20:
[...]


Heb je ook een grub update uitgevoerd?
Dat heb ik gedaan en dan geeft ie aan dat ik via systemd-boot en gaat hij
proxmox-boot-tool refresh uitvoeren.
Kan alleen niet uit de documentatie halen wat ik dan anders in moet stellen als je via systemd-boot boot.

Acties:
  • +1 Henk 'm!

  • TheMystery
  • Registratie: Februari 2004
  • Laatst online: 07:42
ComTech schreef op zaterdag 11 september 2021 @ 18:01:
[...]


Dat heb ik gedaan en dan geeft ie aan dat ik via systemd-boot en gaat hij
proxmox-boot-tool refresh uitvoeren.
Kan alleen niet uit de documentatie halen wat ik dan anders in moet stellen als je via systemd-boot boot.
Dan moet je het volgens mij in /etc/kernel/cmdline zetten en niet in de grub file.
En dan dit commando uitvoeren /etc/kernel/postinst.d/zz-pve-efiboot

[ Voor 7% gewijzigd door TheMystery op 11-09-2021 19:19 ]


  • Cyphax
  • Registratie: November 2000
  • Laatst online: 07:52

Cyphax

Moderator LNX
ComTech schreef op zaterdag 11 september 2021 @ 16:58:
Ik wil een SATA controller doorgeven aan een VM maar telkens als ik hem wil toevoegen geeft hij No IOMMU detected, please activate it.See Documentation for further information.

In de bios staat VT-D ingeschakeld.
Het gaat hier om een Intel core i3 8100 met MSI B360M Pro-VDH moederbord.
Iemand tips ?
Wil je echt de controller doorgeven of een device als /dev/sda? Dat laatste zou je gewoon moeten kunnen doen:
qm set 100 -ide0 /dev/sdaX

Ik heb een LVM-groep verdeeld over twee schijven in mijn server, en beide schijven op deze manier aan een VM met OMV gegeven en daarbinnen de LVM-groep geimporteerd.

Saved by the buoyancy of citrus


Acties:
  • +3 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

ComTech schreef op zaterdag 11 september 2021 @ 18:01:
[...]


Dat heb ik gedaan en dan geeft ie aan dat ik via systemd-boot en gaat hij
proxmox-boot-tool refresh uitvoeren.
Kan alleen niet uit de documentatie halen wat ik dan anders in moet stellen als je via systemd-boot boot.
Je gebruikt dus geen grub, dus dan heeft het ook geen nut als je daarin iets aanpast. Op dezelfde pagina staat wat je moet doen als je systemd gebruikt.

https://dontasktoask.com/


Acties:
  • +2 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

ComTech schreef op zaterdag 11 september 2021 @ 16:58:
Ik krijg hier IOMMU voor PCI passtrough maar niet aan de praat.

Ik heb dit toegevoegd aan /etc/default/grub

GRUB_CMDLINE_LINUX_DEFAULT="quiet intel_iommu=on"

In /etc/modules
vfio
vfio_iommu_type1
vfio_pci
vfio_virqfd


dmesg | grep -e DMAR -e IOMMU geeft geen IOMMU enabled aan
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
[    0.007865] ACPI: DMAR 0x000000008A2DDD10 0000A8 (v01 INTEL  EDK2     00000002      01000013)
[    0.007891] ACPI: Reserving DMAR table memory at [mem 0x8a2ddd10-0x8a2dddb7]
[    0.116261] DMAR: Host address width 39
[    0.116263] DMAR: DRHD base: 0x000000fed90000 flags: 0x0
[    0.116267] DMAR: dmar0: reg_base_addr fed90000 ver 1:0 cap 1c0000c40660462 ecap 19e2ff0505e
[    0.116270] DMAR: DRHD base: 0x000000fed91000 flags: 0x1
[    0.116274] DMAR: dmar1: reg_base_addr fed91000 ver 1:0 cap d2008c40660462 ecap f050da
[    0.116276] DMAR: RMRR base: 0x0000008a9a8000 end: 0x0000008abf1fff
[    0.116278] DMAR: RMRR base: 0x0000008b800000 end: 0x0000008fffffff
[    0.116280] DMAR-IR: IOAPIC id 2 under DRHD base  0xfed91000 IOMMU 1
[    0.116282] DMAR-IR: HPET id 0 under DRHD base 0xfed91000
[    0.116284] DMAR-IR: Queued invalidation will be enabled to support x2apic and Intr-remapping.
[    0.117855] DMAR-IR: Enabled IRQ remapping in x2apic mode


Ik wil een SATA controller doorgeven aan een VM maar telkens als ik hem wil toevoegen geeft hij No IOMMU detected, please activate it.See Documentation for further information.

In de bios staat VT-D ingeschakeld.
Het gaat hier om een Intel core i3 8100 met MSI B360M Pro-VDH moederbord.
Iemand tips ?
Lees effe dit verhaal terug : haborym in "Het grote Proxmox VE topic" :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
Ik draai inmiddels ruim anderhalf jaar Proxmox. Voordat ik mijn server naar Proxmox 7 ga migreren leek het mij handig om een subscription toe te voegen, zodat ik van de stabiele enterprise-repository kan downloaden.

Maar dat gaat nog niet helemaal zoals ik dacht....

Subscription-key is toegevoegd en is ook actief.
Ik heb in /apt/sources.lists.d de pve-nosubscription.list die ik er tot nu toe had staan weggegooid en vervangen door een pve-enterprise.list met als inhoud:
code:
1
deb https://enterprise.proxmox.com/debian/pve buster pve-enterprise

Vervolgens apt update gedaan, maar dat geeft:
code:
1
2
3
4
5
6
7
8
9
# cat pve-enterprise.list 
deb https://enterprise.proxmox.com/debian/pve buster pve-enterprise
root@pve:/etc/apt/sources.list.d# apt update
Hit:1 http://security.debian.org buster/updates InRelease
Hit:2 http://ftp.nl.debian.org/debian buster InRelease                                              
Hit:3 http://ftp.nl.debian.org/debian buster-updates InRelease                                      
Get:4 https://enterprise.proxmox.com/debian/pve buster InRelease [2,080 B]
Fetched 2,080 B in 1s (2,252 B/s)        
Reading package lists... Done

2080 B(yte) lijkt me wel een erg korte lijst. Ook zie ik bij de te updaten packages geen pve-packages meer staan (en ik zit nog op PVE 6.3, dus daar zou de upgrade PVE 6.4 bij moeten staan)

Ga ik kijken in /var/lib/apt/lists dan staat er wel een bestand "enterprise.proxmox.com_debian_pve_dists_buster_InRelease", maar dat bestand heeft een datum/tijd van gisteren en in dat bestand staat: "Components: pve-no-subscription".
Lijkt er dus op dat apt update niet goed gewerkt heeft?

Meest logische lijkt mij dat ik de verkeerde repository heb opgenomen in de pve-enterprise.list. Daar is de documentatie niet heel consequent in, op de repository-pagina staat:
deb https://enterprise.proxmox.com/debian buster pve-enterprise , maar in de V6-documentatie staat:
deb https://enterprise.proxmox.com/debian/pve buster pve-enterprise

Als ik die eerste URL gebruik zonder de /pve) dan krijg ik een foutmelding van apt update:
code:
1
2
3
4
5
6
7
8
# apt update
Hit:1 http://security.debian.org buster/updates InRelease
Hit:2 http://ftp.nl.debian.org/debian buster InRelease                              
Hit:3 http://ftp.nl.debian.org/debian buster-updates InRelease                      
Err:4 https://enterprise.proxmox.com/debian buster InRelease                        
  401  Unauthorized [IP: 2a01:7e0:0:424::249 443]
Reading package lists... Done                                 
E: Failed to fetch https://enterprise.proxmox.com/debian/dists/buster/InRelease  401  Unauthorized [IP: 2a01:7e0:0:424::249 443]


Iemand enig idee hoe ik dit kan fixen?
Kan iemand met een subscription mij verklappen wat erin de pve-enterprise.list moet staan (voor Proxmox 6 / buster)?

Acties:
  • 0 Henk 'm!

  • BlaBla1973
  • Registratie: Februari 2001
  • Laatst online: 26-06 12:46
Hi, na jaren een bare metal setup met xpenology te hebben gebruikt ben ik nu alles over aan het zetten op nieuwe hardware, naar een nieuwe Proxmox 7 (pve-manager/7.0-8/b1dbf562 (running kernel: 5.11.22-1-pve)).
Een van de redenen om dit te doen is, leuk lekker prutsen, maar ik wil voornamenlijk mijn 1050 GTX gebruiken voor Plex.
De Xpenology VM is gemaakt en gebruikt nu mijn raid controller in passthrough en werkt zonder problemen.
Plex heb ik in een Ubuntu 20.04 server VM geinstalleerd, deze werkt goed ik krijg alleen mijn GPU niet aan de praat.
Ik heb deze guide gebruikt : https://forum.proxmox.com...tutorial-reference.34303/
en deze : https://www.reddit.com/r/...guide_to_gpu_passthrough/

En krijg nu op mijn pve deze lspci -v output:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
02:00.0 VGA compatible controller: NVIDIA Corporation GP107 [GeForce GTX 1050] (rev a1) (prog-if 00 [VGA controller])
        Subsystem: Micro-Star International Co., Ltd. [MSI] GP107 [GeForce GTX 1050]
        Flags: bus master, fast devsel, latency 0, IRQ 17, IOMMU group 15
        Memory at de000000 (32-bit, non-prefetchable) [size=16M]
        Memory at c0000000 (64-bit, prefetchable) [size=256M]
        Memory at d0000000 (64-bit, prefetchable) [size=32M]
        I/O ports at d000 [size=128]
        Expansion ROM at 000c0000 [disabled] [size=128K]
        Capabilities: [60] Power Management version 3
        Capabilities: [68] MSI: Enable- Count=1/1 Maskable- 64bit+
        Capabilities: [78] Express Legacy Endpoint, MSI 00
        Capabilities: [100] Virtual Channel
        Capabilities: [250] Latency Tolerance Reporting
        Capabilities: [128] Power Budgeting <?>
        Capabilities: [420] Advanced Error Reporting
        Capabilities: [600] Vendor Specific Information: ID=0001 Rev=1 Len=024 <?>
        Capabilities: [900] Secondary PCI Express
        Kernel driver in use: vfio-pci
        Kernel modules: nvidiafb, nouveau

Dat lijkt dus goed te gaan(Kernel driver in use: vfio-pci), in de VM heb ik dit :

code:
1
2
3
4
5
6
7
8
9
10
11
12
00:10.0 VGA compatible controller: NVIDIA Corporation GP107 [GeForce GTX 1050] (rev a1) (prog-if 00 [VGA controller])
        Subsystem: Micro-Star International Co., Ltd. [MSI] GP107 [GeForce GTX 1050]
        Physical Slot: 16
        Flags: bus master, fast devsel, latency 0, IRQ 11
        Memory at fd000000 (32-bit, non-prefetchable) [size=16M]
        Memory at e0000000 (64-bit, prefetchable) [size=256M]
        Memory at f0000000 (64-bit, prefetchable) [size=32M]
        I/O ports at e000 [size=128]
        Expansion ROM at fe440000 [virtual] [disabled] [size=128K]
        Capabilities: <access denied>
        Kernel driver in use: nvidia
        Kernel modules: nvidiafb, nouveau, nvidia_drm, nvidia

Daar zie ik Capabilities: <access denied> ?
code:
1
2
root@plex1050:~$ nvidia-smi
No devices were found

Nu is mijn vraag.. De videokaart is met een driver beschikbaar , maar niet bruikbaar. Waar moet ik nu naar kijken, want ik zit een beetje op een dood spoor.. :)

Computer nr 486 denk ik..


Acties:
  • +1 Henk 'm!

  • oltk
  • Registratie: Augustus 2007
  • Laatst online: 25-06 07:58
ocaj schreef op dinsdag 14 september 2021 @ 21:21:

.... Enterprise subscription ...
Ik zou niet precies weten hoe dit moet. Maar in proxmox 7 zit het toevoegen en wijzigen van repositories als onderdeel van een subscription in de GUI.

Afbeeldingslocatie: https://tweakers.net/i/COOdqbL6j8T5gNVjpYvOct-vzN4=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/Qk0PWEJ5EoywIUVmNFUpxSeM.png?f=user_large

Acties:
  • +1 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
oltk schreef op dinsdag 14 september 2021 @ 22:07:
[...]


Ik zou niet precies weten hoe dit moet. Maar in proxmox 7 zit het toevoegen en wijzigen van repositories als onderdeel van een subscription in de GUI.
Ik las inderdaad dat dat een nieuwe feature is van proxmox 7. Maar ik wil graag over naar de enterprise-repositories vóórdat ik migreer naar proxmox 7.

De configuratie staat normaal gesproken in een bestand in /etc/apt/sources.lists.d
(daar heb ik ook anderhalf jaar geleden de aanpassing gedaan van enterprise -> no-subscription , maar verzuimd een backup te maken van de oorspronkelijke configuratie)

Update: Vreeeeemd! Hij doet het nu. Wat heb ik gedaan?
Ik heb de enterprise-repository weggehaald en de no-subscription teruggezet. Toen apt update gedaan.
Vervolgens de no-subscription weggehaald en de enterprise weer teruggezet. Nog een keer apt update en nu werkt het wel...

Nou ja, problem solved. Binnenkort maar eens gaan upgraden, eerst naar 6.4 en dan migreren naar 7.

[ Voor 21% gewijzigd door ocaj op 14-09-2021 22:57 ]


Acties:
  • +1 Henk 'm!

  • oltk
  • Registratie: Augustus 2007
  • Laatst online: 25-06 07:58
ocaj schreef op dinsdag 14 september 2021 @ 22:48:
[...]

Ik las inderdaad dat dat een nieuwe feature is van proxmox 7. Maar ik wil graag over naar de enterprise-repositories vóórdat ik migreer naar proxmox 7.

De configuratie staat normaal gesproken in een bestand in /etc/apt/sources.lists.d
(daar heb ik ook anderhalf jaar geleden de aanpassing gedaan van enterprise -> no-subscription , maar verzuimd een backup te maken van de oorspronkelijke configuratie)
Ik had dit staan (ik had het weg gecomment)
/etc/apt/sources.list.d/pve.enterprise.proxmox.com

Afbeeldingslocatie: https://tweakers.net/i/abWUM6ogmPktQ5KWtm62_4m4TqQ=/800x/filters:strip_exif()/f/image/T4xuLQ208jO9qQkSJhNfJh47.png?f=fotoalbum_large

[ Voor 21% gewijzigd door oltk op 14-09-2021 23:47 ]


  • ocaj
  • Registratie: Juli 2011
  • Niet online
Dat ziet er overzichtelijk uit. Handig dat dat vanaf PVE7 ook in de GUI terug te vinden is.

Inmiddels is het hier ook weer gaan werken (ik had mijn vorige bericht ge-update, maar dat had jouw laatste bericht gekruist zie ik nu).

Ik bedacht me net dat het misschien zo kan zijn dat de subscription nog niet overal actief was.
In de begeleidende mail stond dat de subscription na maximaal 5 minuten geactiveerd zou zijn. Dat was hij ook (eigenlijk direct nadat ik de key invoerde), maar wellicht dat de enterprise-repository er pas na een paar uur achter kwam en ik daarom tot die tijd de "Unauthorized" kreeg.

Anyway, het werkt. Bedankt voor het meedenken!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 25-06 12:52
Ik heb de update naar 7 nog uitgesteld omdat er problemen waren wanneer je Docker in een LXC hebt draaien. Is daar ondertussen al een oplossing voor?

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +2 Henk 'm!

  • roeleboel
  • Registratie: Maart 2006
  • Niet online

roeleboel

en zijn beestenboel

A1AD schreef op woensdag 15 september 2021 @ 11:20:
Ik heb de update naar 7 nog uitgesteld omdat er problemen waren wanneer je Docker in een LXC hebt draaien. Is daar ondertussen al een oplossing voor?
Ik ben recent naar 7 gegaan, ook met tig dockers in (ubuntu) lxc's.
Hoe ik het heb aangepakt:
- update/dist-upgrade al uw lxc's, en zeker ook de docker versie daarin
- check met de tool die proxmox levert voor de upgrade (naam even kwijt)
- het kan zijn dat ergens in de conf files nog ne cgroup naar cgroup2 moet hernoemd worden, de probleemgevallen worden aangegeven door die upgradetool
- als alles opgelost is kan je zonder probleem upgraden (allé, dat ging hier toch)

Acties:
  • +3 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 25-06 12:52
roeleboel schreef op woensdag 15 september 2021 @ 12:04:
[...]


Ik ben recent naar 7 gegaan, ook met tig dockers in (ubuntu) lxc's.
Hoe ik het heb aangepakt:
- update/dist-upgrade al uw lxc's, en zeker ook de docker versie daarin
- check met de tool die proxmox levert voor de upgrade (naam even kwijt)
- het kan zijn dat ergens in de conf files nog ne cgroup naar cgroup2 moet hernoemd worden, de probleemgevallen worden aangegeven door die upgradetool
- als alles opgelost is kan je zonder probleem upgraden (allé, dat ging hier toch)
Werkt als een trein. De tool noemt: pve6to7

- Deze advertentie is geblokkeerd door Pi-Hole -


  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 08:49
roeleboel schreef op woensdag 15 september 2021 @ 12:04:
- update/dist-upgrade al uw lxc's, en zeker ook de docker versie daarin
Heb je de containers dan ook geüpgrade naar de nieuwste versie? Ik draai nu Debian Buster in LXC, ik gok dat ik die dan eerst naar Bullseye moet updaten voordat ik aan Proxmox zelf begin. Vraag is dan alleen of de Bullseye LXC containers nog werken op Proxmox 6 / Buster.

  • roeleboel
  • Registratie: Maart 2006
  • Niet online

roeleboel

en zijn beestenboel

RobertMe schreef op woensdag 15 september 2021 @ 15:53:
[...]

Heb je de containers dan ook geüpgrade naar de nieuwste versie? Ik draai nu Debian Buster in LXC, ik gok dat ik die dan eerst naar Bullseye moet updaten voordat ik aan Proxmox zelf begin. Vraag is dan alleen of de Bullseye LXC containers nog werken op Proxmox 6 / Buster.
Dat heb ik idd gedaan, maar zoals aangegeven was het bij mij ubuntu.
Er waren nog een paar 18.04 lxc's die ik dan maar ineens heb doorgetrokken naar 20.04 (laatste lts van ubuntu momenteel), en dan binnen 20.04 alle updates doen. Dat was voor mij genoeg.
Zat ondertussen dus wel binnen de container met een andere versie van docker, ik vermoed dat het belangrijkste is dat die docker-binnen-de-container recent genoeg is om met 7 om te kunnen. (nu draait er docker version 20.10)
Vermits die lxc's bij mij eigenlijk niks anders doen dan docker-host spelen maakte dat voor mij niet zoveel uit, maar dat kan eventueel anders liggen bij jou, dus best even uitkijken...

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

A1AD schreef op woensdag 15 september 2021 @ 11:20:
Ik heb de update naar 7 nog uitgesteld omdat er problemen waren wanneer je Docker in een LXC hebt draaien. Is daar ondertussen al een oplossing voor?
RobertMe schreef op woensdag 15 september 2021 @ 15:53:
Heb je de containers dan ook geüpgrade naar de nieuwste versie? Ik draai nu Debian Buster in LXC, ik gok dat ik die dan eerst naar Bullseye moet updaten voordat ik aan Proxmox zelf begin. Vraag is dan alleen of de Bullseye LXC containers nog werken op Proxmox 6 / Buster.
Dat is hiermee in feite gefixt : smesjz in "Het grote Proxmox VE topic"

Als de boel niet met elkaar compatible is zou je dus een error moeten krijgen! :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • Harmen
  • Registratie: Oktober 1999
  • Nu online

Harmen

⭐⭐⭐⭐⭐⭐

Maak al tijden gebruik van proxmox, draait prima op een dual core celeron 3900t.

Heb voor een mooie prijs een Sophos SG115 op de kop getikt. (Intel E3827 dual core, 4GB, 64GB ssd). Wil hier wel proxmox op zetten zodat ik met verschillende firewalls kan testen. Heeft een extra virtualisatie laag grote impact? Heb een Ziggo 75/10 verbinding.

Whatever.


Acties:
  • +1 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 22:00

Zenix

BOE!

Ik denk dat je het gewoon moet gaan testen, niet veel mensen draaien proxmox op zo'n machine.

Gisteren proxmox een upgrade gegeven naar 7.0 de LXC met Docker werkte niet helemaal goed meer tot ik Debian daar ook ging upgraden en docker, daarna werkte het perfect.

Acties:
  • +2 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

Harmen schreef op woensdag 15 september 2021 @ 22:55:
Maak al tijden gebruik van proxmox, draait prima op een dual core celeron 3900t.

Heb voor een mooie prijs een Sophos SG115 op de kop getikt. (Intel E3827 dual core, 4GB, 64GB ssd). Wil hier wel proxmox op zetten zodat ik met verschillende firewalls kan testen. Heeft een extra virtualisatie laag grote impact? Heb een Ziggo 75/10 verbinding.
Proxmox gebruikt KVM voor virtualisatie. Uit mijn hoofd hebben VMs dan iets van 90 tot 95% van de native performance. Ik denk dus niet dat het veel impact gaat hebben.

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Nu online

Harmen

⭐⭐⭐⭐⭐⭐

Thanks Orvintax, bij nader inzien heb ik mijn keuze al gemaakt. Zet er opnsense op, heeft ook veel plugins etc. :)

@KeK, klopt. 4GB is krap inderdaad. Eerst maar eens goed testen of opnsense gaat werken. Hou iig de oude router bij de hand. (Edgerouter X) :+

[ Voor 39% gewijzigd door Harmen op 17-09-2021 10:13 ]

Whatever.


Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 22:22

Kek

3flix

Harmen schreef op vrijdag 17 september 2021 @ 09:41:
Thanks Orvintax, bij nader inzien heb ik mijn keuze al gemaakt. Zet er opnsense op, heeft ook veel plugins etc. :)
let wel dat Proxmox wel een goede hap uit je werkgeheugen neemt. Dus de 4GB die je eerder noemde zal krap zijn als je daar eerst proxmox op zet en dan bijv. opnsense of pfsense

Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

Kek schreef op vrijdag 17 september 2021 @ 10:11:
[...]


let wel dat Proxmox wel een goede hap uit je werkgeheugen neemt. Dus de 4GB die je eerder noemde zal krap zijn als je daar eerst proxmox op zet en dan bijv. opnsense of pfsense
Voor testen is 1GB genoeg, maar Proxmox zelf recommend minimaal 2GB RAM. Maar opzich gebruiken routers niet veel RAM (tenzij je gekke dingen gaat doen natuurlijk :) ).

https://dontasktoask.com/


Acties:
  • +2 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 25-06 12:52
RobertMe schreef op woensdag 15 september 2021 @ 15:53:
[...]

Heb je de containers dan ook geüpgrade naar de nieuwste versie? Ik draai nu Debian Buster in LXC, ik gok dat ik die dan eerst naar Bullseye moet updaten voordat ik aan Proxmox zelf begin. Vraag is dan alleen of de Bullseye LXC containers nog werken op Proxmox 6 / Buster.
Ik draai nog Buster op al de LXC's, geen probleem dus.
Kek schreef op vrijdag 17 september 2021 @ 10:11:
[...]


let wel dat Proxmox wel een goede hap uit je werkgeheugen neemt. Dus de 4GB die je eerder noemde zal krap zijn als je daar eerst proxmox op zet en dan bijv. opnsense of pfsense
Dan zeker geen ZFS als FS gebruiken :o

[ Voor 26% gewijzigd door A1AD op 17-09-2021 13:03 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +1 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Het is een hardnekkige misvatting dat je bakken RAM nodig hebt voor ZFS. Wil je veel performance uit een storageserver halen is het wel aan te raden om ZFS veel ruimte te geven, maar voor een paar VM's en/of een paar containers die geen zware disk I/O doen valt dat best mee.

Acties:
  • +2 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

@Harmen @dcm360
Maar dat betekent niet dat het een goed idee is in dit geval! :)

ZFS gaat "throttlen" onder de 4 GB RAM en als je dan ook nog eens het OS + wat VM's daarmee moet draaien dan wordt het effect daarvan alleen maar nog erger en dus veel te goed merkbaar! :/

Ik zou zeggen zorg ervoor dat het gekke kastje minstens 8 GB RAM heeft als je ZFS wilt draaien :
- 4 GB RAM voor ZFS.
- 4 GB RAM voor de rest.

Daarmee wil ik niet zeggen dat het optimaal is, want dat zou eerder 12 of 16 GB RAM zijn, maar je kan dan een beetje ermee vooruit zonder gelijk aan 24/32/64 GB of zelfs nog meer RAM te denken, terwijl je dat eerder NIET dan WEL nodig hebt in een dergelijke situatie! :)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

nero355 schreef op vrijdag 17 september 2021 @ 17:06:
@Harmen @dcm360
Maar dat betekent niet dat het een goed idee is in dit geval! :)

ZFS gaat "throttlen" onder de 4 GB RAM en als je dan ook nog eens het OS + wat VM's daarmee moet draaien dan wordt het effect daarvan alleen maar nog erger en dus veel te goed merkbaar! :/

Ik zou zeggen zorg ervoor dat het gekke kastje minstens 8 GB RAM heeft als je ZFS wilt draaien :
- 4 GB RAM voor ZFS.
- 4 GB RAM voor de rest.

Daarmee wil ik niet zeggen dat het optimaal is, want dat zou eerder 12 of 16 GB RAM zijn, maar je kan dan een beetje ermee vooruit zonder gelijk aan 24/32/64 GB of zelfs nog meer RAM te denken, terwijl je dat eerder NIET dan WEL nodig hebt in een dergelijke situatie! :)
Daarnaast is ZFS voor zoiets als dit ook niet cruciaal, verre van. :)

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

@nero355 Oké, dan verschillen we daar van mening!

Het doel is geloof ik om netwerkappliances te gaan draaien. Dat is weinig disk I/O, en in de basis ook niet eens veel geheugen. Als ik kijk naar het kastje wat ik als router gebruik, zit pfSense op een geheugengebruik van iets minder dan 450MB. 2 andere VM's en een container (die iets meer I/O-load hebben) nemen daarbij nog eens 2GB in. Proxmox en overige zaken vullen dat aan tot 3.3GB in totaal, en ZFS pakt van de resterende hoeveelheid geheugen ongeveer de helft voor ARC, wat bij mij 2.3GB is. Met tactisch de zwaarste VM wegbezuinigen zou ik met 4GB wel moeten toekomen, zeker omdat ik dan ook de grootste veroorzaker van disk I/O wegneem.

Maargoed, ZFS wordt blijkbaar als zwaar en overkill gezien voor dergelijk situaties. En dat terwijl pfSense tegenwoordig ook gewoon vanaf ZFS draait.

Acties:
  • +1 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

dcm360 schreef op vrijdag 17 september 2021 @ 17:50:
@nero355 Oké, dan verschillen we daar van mening!
:)
Het doel is geloof ik om netwerkappliances te gaan draaien. Dat is weinig disk I/O, en in de basis ook niet eens veel geheugen. Als ik kijk naar het kastje wat ik als router gebruik, zit pfSense op een geheugengebruik van iets minder dan 450MB. 2 andere VM's en een container (die iets meer I/O-load hebben) nemen daarbij nog eens 2GB in. Proxmox en overige zaken vullen dat aan tot 3.3GB in totaal, en ZFS pakt van de resterende hoeveelheid geheugen ongeveer de helft voor ARC, wat bij mij 2.3GB is. Met tactisch de zwaarste VM wegbezuinigen zou ik met 4GB wel moeten toekomen, zeker omdat ik dan ook de grootste veroorzaker van disk I/O wegneem.
Erg krapjes allemaal qua RAM :)
Maargoed, ZFS wordt blijkbaar als zwaar en overkill gezien voor dergelijk situaties. En dat terwijl pfSense tegenwoordig ook gewoon vanaf ZFS draait.
Stiekem ook wel logisch, want FreeBSD als basis en laat dat nou HET ZFS OS zijn geweest een hele lange tijd, totdat OpenZFS on Linux een beetje stabiel werd! :*)

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

@dcm360 Ik kon het niet terugvinden in de datasheet maar ik twijfel of dat ding ECC RAM bevat. Dan is ZFS sowieso onhandiger.

https://dontasktoask.com/


Acties:
  • +2 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

nero355 schreef op vrijdag 17 september 2021 @ 17:57:
[...]

Erg krapjes allemaal qua RAM :)
Krap, maar het past wel :)
orvintax schreef op vrijdag 17 september 2021 @ 18:01:
@dcm360 Ik kon het niet terugvinden in de datasheet maar ik twijfel of dat ding ECC RAM bevat. Dan is ZFS sowieso onhandiger.
Dat is een drogreden. ZFS heeft net zo hard ECC nodig als elk ander bestandssysteem voor correcte werking.

Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

Dat is een drogreden. ZFS heeft net zo hard ECC nodig als elk ander bestandssysteem voor correcte werking.
Ben ik het niet mee eens, ZFS gebruikt het RAM als cache, ext4 bijvoorbeeld niet (of in veel mindere maten).

https://dontasktoask.com/


Acties:
  • +2 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

orvintax schreef op vrijdag 17 september 2021 @ 18:21:
[...]

Ben ik het niet mee eens, ZFS gebruikt het RAM als cache, ext4 bijvoorbeeld niet (of in veel mindere maten).
Dat is dan onder de aanname dat alles wat je voor de rest in het RAM zet niet boeit. Fundamenteel is er naar mijn idee geen verschil tussen geheugen dat ZFS gebruikt of het geheugen van een applicatie. Je wil meer garantie dat alles correct blijft, of je neemt een risico. Op mijn databaseservers zou een bitflip net zo goed vervelend kunnen uitpakken.

Acties:
  • +2 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Volgens mij is de scrub of death de meest voorname reden waarom je met ZFS ECC wil. (hoewel de kans daarop klein schijnt te zijn)

[ Voor 12% gewijzigd door ocf81 op 17-09-2021 19:43 ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | <X> as a Service --> making you a poor & dependent slave


Acties:
  • +1 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
RobertMe schreef op woensdag 15 september 2021 @ 15:53:
[...]

Heb je de containers dan ook geüpgrade naar de nieuwste versie? Ik draai nu Debian Buster in LXC, ik gok dat ik die dan eerst naar Bullseye moet updaten voordat ik aan Proxmox zelf begin. Vraag is dan alleen of de Bullseye LXC containers nog werken op Proxmox 6 / Buster.
Ik heb eerst alle containers geupgrade naar bullseye. Daarna Proxmox naar v7. Bullseye-containers deden het in principe prima op Proxmox6

Enige waar ik tegenaanliep is dat na de upgrade van de containers naar bullseye de ssh-login zo'n 30 seconde bleef hangen, maar daarna werkte alles wel gewoon.
Dat probleem ging niet weg na de proxmox7-upgrade (waarbij de host dus ook naar bullseye gaat).

Wat wél werkte is om de "nesting"-feature aan te zetten voor de containers, gevolgd door een reboot van de container. Daarna kun je weer normaal snel inloggen via ssh.

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 22:43
Volgens de documentatie word als vuistregel voor ZFS minimaal 8GB gebruikt en voor elk opvolgende TB 1 extra GB.

Ps. Kan zijn dat het inmiddels verandert is.

Acties:
  • +1 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
powerboat schreef op vrijdag 17 september 2021 @ 20:02:
Ps. Kan zijn dat het inmiddels verandert is.
:Y

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 25-06 12:52
dcm360 schreef op vrijdag 17 september 2021 @ 17:50:
@nero355 Oké, dan verschillen we daar van mening!

Het doel is geloof ik om netwerkappliances te gaan draaien. Dat is weinig disk I/O, en in de basis ook niet eens veel geheugen. Als ik kijk naar het kastje wat ik als router gebruik, zit pfSense op een geheugengebruik van iets minder dan 450MB. 2 andere VM's en een container (die iets meer I/O-load hebben) nemen daarbij nog eens 2GB in. Proxmox en overige zaken vullen dat aan tot 3.3GB in totaal, en ZFS pakt van de resterende hoeveelheid geheugen ongeveer de helft voor ARC, wat bij mij 2.3GB is. Met tactisch de zwaarste VM wegbezuinigen zou ik met 4GB wel moeten toekomen, zeker omdat ik dan ook de grootste veroorzaker van disk I/O wegneem.

Maargoed, ZFS wordt blijkbaar als zwaar en overkill gezien voor dergelijk situaties. En dat terwijl pfSense tegenwoordig ook gewoon vanaf ZFS draait.
Wordt de ARC op zo een pfSense install dan niet zwaar beperkt? Ik geef meestal 8GB aan ZFS en de rest voor de VM's. Maar ik heb dan ook een RAIDZ2 voor mijn bulk data naast de mirror waar Proxmox op draait.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +1 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

A1AD schreef op zaterdag 18 september 2021 @ 19:47:
[...]


Wordt de ARC op zo een pfSense install dan niet zwaar beperkt? Ik geef meestal 8GB aan ZFS en de rest voor de VM's. Maar ik heb dan ook een RAIDZ2 voor mijn bulk data naast de mirror waar Proxmox op draait.
Volgens mij geef je eigenlijk zelf al een antwoord na de vraag: het is gewoon niet nodig als je geen dingen met storage gaat doen. Voor storage en zwaarder virtualisatie- en rekenwerk staat er bij mij een machine naast met een 3700X, 64GB RAM en nvme-SSD's in RAID naast nog een stapel HDD's die een datacenter-SSD voor L2ARC en ZIL gebruikt. De router op een zuinig losstaand doosje (met een A2SAV-L er in) draaien heeft echter ook weer zijn voordelen, zoals dat ik kan prutsen wat ik wil aan de grote machine zonder dat de internetlijn wegvalt. Dat is niet alleen fijn voor mijzelf, maar ook voor de anderen hier in huis :)

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 25-06 12:52
dcm360 schreef op zaterdag 18 september 2021 @ 20:01:
[...]

Volgens mij geef je eigenlijk zelf al een antwoord na de vraag: het is gewoon niet nodig als je geen dingen met storage gaat doen. Voor storage en zwaarder virtualisatie- en rekenwerk staat er bij mij een machine naast met een 3700X, 64GB RAM en nvme-SSD's in RAID naast nog een stapel HDD's die een datacenter-SSD voor L2ARC en ZIL gebruikt. De router op een zuinig losstaand doosje (met een A2SAV-L er in) draaien heeft echter ook weer zijn voordelen, zoals dat ik kan prutsen wat ik wil aan de grote machine zonder dat de internetlijn wegvalt. Dat is niet alleen fijn voor mijzelf, maar ook voor de anderen hier in huis :)
Mijn vraag was eerder of Netgate zelf de ARC beperkt of hem gewoon zijn gang laat gaan?

- Deze advertentie is geblokkeerd door Pi-Hole -


  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

powerboat schreef op vrijdag 17 september 2021 @ 20:02:
Volgens de documentatie word als vuistregel voor ZFS minimaal 8GB gebruikt en voor elk opvolgende TB 1 extra GB.

Ps. Kan zijn dat het inmiddels verandert is.
Nee.
Dat is al heel lang geleden afgedaan als urban legend. Het is niet waar. Het staat niet in de documentatie.

Voor de ene ZFS setup heb je zwaar te kort aan 1G per 1T storage, voor de andere is het overkill. In alle gevallen is het niet eens een rule of thumb.

Leesvoer:
https://pthree.org/2013/1...ue-cost-of-deduplication/

Ná Scaoll. - Don’t Panic.


Acties:
  • +1 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

ocf81 schreef op vrijdag 17 september 2021 @ 19:09:
Volgens mij is de scrub of death de meest voorname reden waarom je met ZFS ECC wil. (hoewel de kans daarop klein schijnt te zijn)
Hier staat wel wat nuttige info over het hoe en waarom:
https://pthree.org/2013/1...y-you-should-use-ecc-ram/

Ná Scaoll. - Don’t Panic.


Acties:
  • +2 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

A1AD schreef op zaterdag 18 september 2021 @ 20:10:
[...]


Mijn vraag was eerder of Netgate zelf de ARC beperkt of hem gewoon zijn gang laat gaan?
Als ik even spiek, staat vfs.zfs.arc_max op ongeveer 600MB in een VM die 1GB RAM heeft. Volgens zichzelf is het geheugengebruik in totaal 350MB, volgens Proxmox echter iets minder, zo rond de 220MB. Overigens zou de gehele root-disk van pfSense op die machine in de ARC kunnen passen, want daar staat net iets minder dan 600MB op.

Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 26-06 09:43

zeroday

There is no alternative!

iemand een idee wat mijn denkfout of config fout zou kunnen zijn

ik heb op node1 een LXC gemaakt met een fixed IP
ik heb deze een HA state gegeven en ik replicate deze container naar node2 en node3

Nu gebeuren er 2 dingen: Proxmox migreert nu automatisch de LXC naar node3

Nu geef ik aan dat ik de LXC weer naar node 1 of node2 wil hebben, ik zie de migratie starten en op het moment dat ik denk dat deze klaar is staat deze weer op node3 te spinnen ..

Nu snap ik dat HA een migratie doet als de gehele node zou failen, maar ik dacht dat ik wel zelf kon bepalen op welke node deze LXC zou kunnen draaien ..

Waar gaat het mis?
update ..
ah priority binnen de HA group ..

[ Voor 3% gewijzigd door zeroday op 24-09-2021 09:42 ]

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • Babirusa
  • Registratie: Oktober 2017
  • Laatst online: 20-03 19:25
Graag jullie hulp! Ik wil een proxmox (32GB ECC RAM Ryzen 5) server gaan inrichten voor kleinzakelijk gebruik, vooral voor videobewaking, NAS en een paar Win10/Linux desktop/kantoorapplicatie VM’s. Idee is:
• Het Proxmox OS en de VM’s op een SSD
• Alle (gebruikers)data op NAS-opslag (3 NAS HDD’s in ZFS RaidZ-1)
• De videobeelden (24/7 streams) komen op een speciale surveillance HDD (WD purple), backup niet nodig.
• Snapshots van de VM’s opslaan op de NAS; crasht de SSD dan herinstalleer ik Proxmox + snapshots.
• Cloud backup voor alle gebruikersdata op de NAS (VM snapshots niet, zijn te groot).

De SSD biedt zo snelheid voor de VM’s en het ZFS Raid1 NAS biedt veiligheid (zelfcorrigerend ZFS, zeker icm het ECC geheugen) aan de data en snapshots. In een plaatje:
Afbeeldingslocatie: https://tweakers.net/i/N4gtdVuQYb5WJkdokE0TGQOM79Q=/800x/filters:strip_exif()/f/image/JEMuqwXMXN4GXma0QWV8SvHP.png?f=fotoalbum_large

Mijn vragen:
1. Is dit een goede inrichting of kan/moet er iets anders?
2. Zijn de filesystems goed gekozen (EXT4 voor SSD en surveillance disk, ZFS RAID-Z1 voor 3 NAS schijven)

Acties:
  • 0 Henk 'm!

  • Rayures
  • Registratie: Oktober 2001
  • Laatst online: 27-06 20:46
EXT4 -> ZFS

Nas kan ook direct op proxmox host?
of een lxc welke de zfs array doorkrijgt en shared via smb/ etc

Acties:
  • +2 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

Babirusa schreef op maandag 27 september 2021 @ 10:00:
Graag jullie hulp! Ik wil een proxmox (32GB ECC RAM Ryzen 5) server gaan inrichten voor kleinzakelijk gebruik, vooral voor videobewaking, NAS en een paar Win10/Linux desktop/kantoorapplicatie VM’s. Idee is:
• Het Proxmox OS en de VM’s op een SSD
• Alle (gebruikers)data op NAS-opslag (3 NAS HDD’s in ZFS RaidZ-1)
• De videobeelden (24/7 streams) komen op een speciale surveillance HDD (WD purple), backup niet nodig.
• Snapshots van de VM’s opslaan op de NAS; crasht de SSD dan herinstalleer ik Proxmox + snapshots.
• Cloud backup voor alle gebruikersdata op de NAS (VM snapshots niet, zijn te groot).

De SSD biedt zo snelheid voor de VM’s en het ZFS Raid1 NAS biedt veiligheid (zelfcorrigerend ZFS, zeker icm het ECC geheugen) aan de data en snapshots. In een plaatje:
[Afbeelding]

Mijn vragen:
1. Is dit een goede inrichting of kan/moet er iets anders?
2. Zijn de filesystems goed gekozen (EXT4 voor SSD en surveillance disk, ZFS RAID-Z1 voor 3 NAS schijven)
Ik zou alles op ZFS gooien (dus ook je Proxmox SSD) en dan die surveillance HDD bij die ZFS array doorgeven en er dan een RAIDZ-2 van maken ipv RAIDZ-1. Ik zou ook niet weten waarom je die HDD apart wilt houden.

Verder ben ik zelf meer een fan van TrueNAS dan OMV. Dit omdat TrueNAS gebouwd is voor gebruikt met ZFS en het in mijn ogen ook robuuster is aangezien er ook een serieus bedrijf achter zit. Dit in tegenstelling tot OMV.

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

Rayures schreef op maandag 27 september 2021 @ 10:07:
[...]

EXT4 -> ZFS

Nas kan ook direct op proxmox host?
of een lxc welke de zfs array doorkrijgt en shared via smb/ etc
Het kan wel maar ik zou (en doe zelf ook) je hypervisor en NAS apart houden. Laat elk stukje software doen waar ze goed in zijn.

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • Babirusa
  • Registratie: Oktober 2017
  • Laatst online: 20-03 19:25
Dank voor je antwoorden!
Ik zou alles op ZFS gooien (dus ook je Proxmox SSD) en dan die surveillance HDD bij die ZFS array doorgeven en er dan een RAIDZ-2 van maken ipv RAIDZ-1.
Ik ken ZFS nog niet maar heb begrepen dat het niet heel flexibel is vwb het toevoegen/aanpassen van schijven. De benodige NAS ruimte (3x4TB, netto dus 8TB) zal vrij constant blijven, maar het kan goed zijn dat ik er nog een tweede of grotere SSD bij zet. Daarnaast vind ik het vanwege mijn onbekendheid met ZFS wat spannend om meteen alles (dus ook de OS/VM SSD) in ZFS onder te brengen.
Ik zou ook niet weten waarom je die HDD apart wilt houden.
De surveillance disk (speciale Purple ipv Red variant van WD) neemt 24/7 video streams op (continu en zelfoverschrijvend). De hele dag HDD activiteit dus, terwijl de NAS bestanden vrij statisch zijn, daar heeft ZFS qua checken veel minder werk aan. Bovendien is data consistentie controle totaal niet nodig op de surveillance schijf, die beelden mogen best foutjes hebben, 99,9% wordt nooit bekeken en word daarna weer overschreven. De overhead van ZFS lijkt me dus zonde…

Acties:
  • 0 Henk 'm!

  • CAP-Team
  • Registratie: April 2000
  • Laatst online: 25-06 17:33

CAP-Team

XBL: CAPTeam

ik kan ineens niet meer inloggen op de web GUI (Login failed).
Via Putty en WinSCP kan ik nog wel inloggen.

Microsoft Surface Pro 6 | Samsung Galaxy S21FE | XBOX Series X


Acties:
  • +1 Henk 'm!

  • itcouldbeanyone
  • Registratie: Augustus 2014
  • Laatst online: 29-06 16:46
orvintax schreef op maandag 27 september 2021 @ 10:22:
[...]

Ik zou alles op ZFS gooien (dus ook je Proxmox SSD) en dan die surveillance HDD bij die ZFS array doorgeven en er dan een RAIDZ-2 van maken ipv RAIDZ-1. Ik zou ook niet weten waarom je die HDD apart wilt houden.
Net zij je nog hypervisor en Nas apart.
Voor surveillance is ZFS ondergeschikt, je hdd zal een stuk sneller slijten.
Daarnaast is een enkele ssd als zfs cache alleen handig onder bepaalde omstandigheden.
SLOG of ZIL bescherming tegen stroom uitval (mits sync dus geen SMB )
L2ARC in de praktijk is meer ram beter , de cache moet zichzelf inleren , is bedoelt voor reads, leuk voor als je elke dag de zelfde database opent verder weinig tot geen inpact op performance.

ZFS is uitstekend als je je data goed wilt beschermen, relatief korte rebuild tijden.
Nadeel is een hoger stroom verbruik door extra cpu load, vereist een hoop geheugen.

Wil je perfomance ga dan voor HW raid 10 met battery backed cache.

Wat @Babirusa voorstelt is opzich niet heel verkeerd.

surveillance appart. ZFS voor data , ssd voor de VM’s (welke je zou kunnen backuppen naar de pool )
Je zou ZFS kunnen implementeren voor je ssd vanwege snapshots, echter zo ik dan we wat bij tunen zodat je niet onnodige bottlenecks vormt.
Je kan inplaats van EXT4 ook uitwijken naar XFS of BTRFS enz net wat voor jouwn toepassing het beste is.

Zelf draai ik me hypervisors vanaf een fibre-channel SAN, hw raid 10.
Me NAS is ZFS TrueNas & Solaris (kost veel moeite om met ZFS me 40Gbe vol te trekken, SAN heeft daar geen moeite mee)

Kortom gebruik ZFS of wat dan ook alleen als het zin heeft anders gebruik iets anders.

Ben niet slim, maar wel dom


Acties:
  • +2 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
@itcouldbeanyone HW raid efficienter dan ZFS betwijfel ik. Ik ben benieuwd naar je bronnen. En je kan ZFS ook tunen. Als je synced writes uit zet dan heb je al een stap richting EXT4 gezet, maar met nog steeds de andere voordelen van ZFS. Ik denk alleen dat je in de praktijk niks gaat merken van je beschreven nadelen van ZFS.

Sinds de 2 dagen regel reageer ik hier niet meer


  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

itcouldbeanyone schreef op dinsdag 28 september 2021 @ 23:38:
[...]


Net zij je nog hypervisor en Nas apart.
Voor surveillance is ZFS ondergeschikt, je hdd zal een stuk sneller slijten.
Daarnaast is een enkele ssd als zfs cache alleen handig onder bepaalde omstandigheden.
SLOG of ZIL bescherming tegen stroom uitval (mits sync dus geen SMB )
L2ARC in de praktijk is meer ram beter , de cache moet zichzelf inleren , is bedoelt voor reads, leuk voor als je elke dag de zelfde database opent verder weinig tot geen inpact op performance.

ZFS is uitstekend als je je data goed wilt beschermen, relatief korte rebuild tijden.
Nadeel is een hoger stroom verbruik door extra cpu load, vereist een hoop geheugen.

Wil je perfomance ga dan voor HW raid 10 met battery backed cache.

Wat @Babirusa voorstelt is opzich niet heel verkeerd.

surveillance appart. ZFS voor data , ssd voor de VM’s (welke je zou kunnen backuppen naar de pool )
Je zou ZFS kunnen implementeren voor je ssd vanwege snapshots, echter zo ik dan we wat bij tunen zodat je niet onnodige bottlenecks vormt.
Je kan inplaats van EXT4 ook uitwijken naar XFS of BTRFS enz net wat voor jouwn toepassing het beste is.

Zelf draai ik me hypervisors vanaf een fibre-channel SAN, hw raid 10.
Me NAS is ZFS TrueNas & Solaris (kost veel moeite om met ZFS me 40Gbe vol te trekken, SAN heeft daar geen moeite mee)

Kortom gebruik ZFS of wat dan ook alleen als het zin heeft anders gebruik iets anders.
Ik was waarschijnlijk niet duidelijk genoeg, maar ik bedoelde twee aparte arrays.

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • oltk
  • Registratie: Augustus 2007
  • Laatst online: 25-06 07:58
CAP-Team schreef op dinsdag 28 september 2021 @ 22:47:
ik kan ineens niet meer inloggen op de web GUI (Login failed).
Via Putty en WinSCP kan ik nog wel inloggen.
Heb ik ook een keer gehad. Maar elke situatie kan anders zijn. Kijk even naar:
https://www.ideaminetech....roxmox-host-failed-error/

en/of

https://forum.proxmox.com/threads/login-failed.24215/

wie weet zit ertussen wat jou ook dwars zit.

  • itcouldbeanyone
  • Registratie: Augustus 2014
  • Laatst online: 29-06 16:46
CurlyMo schreef op woensdag 29 september 2021 @ 07:17:
@itcouldbeanyone HW raid efficienter dan ZFS betwijfel ik. Ik ben benieuwd naar je bronnen. En je kan ZFS ook tunen. Als je synced writes uit zet dan heb je al een stap richting EXT4 gezet, maar met nog steeds de andere voordelen van ZFS. Ik denk alleen dat je in de praktijk niks gaat merken van je beschreven nadelen van ZFS.
Elk file systeem heeft zijn voor en nadelen en daarmee zijn bestaansrecht.
Je kan heel wat hardware in ZFS gooien en zo betere performance halen dan HW raid vendor x (battery backed) (done it, ik satureer 40Gbe )
Maar dat kost je in verhouding meer energie. (Hw raid schaalt aardig liniear per disk, zfs per vdev)
Dat ZFS andere voordelen heeft daar heb je volkomen gelijk in.
daarnaast hw raid kun je ook tunen of file compressie toevoegen.

Je zou moeten kijken welke optie het best is voor je applicatie, google.nl geeft genoeg voorbeelden van vergelijking in diverse situaties.

Ben niet slim, maar wel dom


Acties:
  • +2 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
itcouldbeanyone schreef op woensdag 29 september 2021 @ 09:26:
[...]
Maar dat kost je in verhouding meer energie. (Hw raid schaalt aardig liniear per disk, zfs per vdev)
Waarbij ik dus benieuwd ben naar bronnen die dit onderbouwen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • CAP-Team
  • Registratie: April 2000
  • Laatst online: 25-06 17:33

CAP-Team

XBL: CAPTeam

oltk schreef op woensdag 29 september 2021 @ 08:34:
[...]
Heb ik ook een keer gehad. Maar elke situatie kan anders zijn. Kijk even naar:
https://www.ideaminetech....roxmox-host-failed-error/

en/of

https://forum.proxmox.com/threads/login-failed.24215/

wie weet zit ertussen wat jou ook dwars zit.
Ik heb de host even compleet uitgeschakeld, en daarna opnieuw opgestart, nu kan ik wel weer inloggen d:)b

Microsoft Surface Pro 6 | Samsung Galaxy S21FE | XBOX Series X


Acties:
  • +3 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

itcouldbeanyone schreef op dinsdag 28 september 2021 @ 23:38:
[...]
Voor surveillance is ZFS ondergeschikt, je hdd zal een stuk sneller slijten.
Dan ben ik wel benieuwd waarom dat zo is. Ik zou juist zeggen dat een CoW bestandssysteem ruim geschikter is voor surveillance dan een bestandssysteem met journal.

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 06:48

Damic

Tijd voor Jasmijn thee

Iemand het volgende al eens voorgehad?
Krijg een time-out op als ik naar de gui surf (https://ip:8006)

ik ben deze post een beetje aan't doorspitten https://forum.proxmox.com...ebpage.22278/#post-192175 maar tot heden geen verandering :(

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • Zorian
  • Registratie: Maart 2010
  • Laatst online: 00:24

Zorian

What the fox?

Damic schreef op vrijdag 1 oktober 2021 @ 20:48:
Iemand het volgende al eens voorgehad?
Krijg een time-out op als ik naar de gui surf (https://ip:8006)

ik ben deze post een beetje aan't doorspitten https://forum.proxmox.com...ebpage.22278/#post-192175 maar tot heden geen verandering :(
Draaien alle services die benodigd zijn?
Weet zo even niet welke het zijn maar er zal vast ergens een lijstje wezen welke services voor de webgui nodig zijn.
Je kan sowieso proberen de pve-manager service te rebooten.

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 06:48

Damic

Tijd voor Jasmijn thee

@Zorian zat daarjusit vast en heb met ctrl alt + delete blijkbaar de server herstart, dus in principe zou dat moeten draaien, maar zal eens zien..

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • Zorian
  • Registratie: Maart 2010
  • Laatst online: 00:24

Zorian

What the fox?

Damic schreef op vrijdag 1 oktober 2021 @ 20:56:
@Zorian zat daarjusit vast en heb met ctrl alt + delete blijkbaar de server herstart, dus in principe zou dat moeten draaien, maar zal eens zien..
Waar zat je vast dan?

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 06:48

Damic

Tijd voor Jasmijn thee

Dat ik het niet meer weet :'( ergens een commando en dan was de shell aan't wachten op externe input lijkt wel

*Edit: heb afsplitsing gevraagd voor een eigen topic*
Edit2: mmmh als ik apt-get install net-tools dan
Reading package lists... Done
Building dependency tree... Done
Reading state information... Done
The following NEW packages will be installed:
net-tools
0 upgraded, 1 newly installed, 0 to remove and 0 not upgraded.
Need to get 250 kB of archives.
After this operation, 1,015 kB of additional disk space will be used.
Err:1 http://ftp.be.debian.org/debian bullseye/main amd64 net-tools amd64 1.60+git20181103.0eebece-1
Temporary failure resolving 'ftp.be.debian.org'
E: Failed to fetch http://ftp.be.debian.org/...81103.0eebece-1_amd64.deb Temporary failure resolving 'ftp.be.debian.org'
E: Unable to fetch some archives, maybe run apt-get update or try with --fix-missing?
geraakt proxmox niet buiten, mmmh even gaan zien in de config van opnsense

Edit2: Mmh SSH gaat en dan ping naar 1.1.1.1 / 8.8.8.8 is geen probleem maar zodra je DNS nodig hebt is het noppes.

[ Voor 97% gewijzigd door Damic op 03-10-2021 01:05 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +1 Henk 'm!

  • RubenDJ
  • Registratie: Februari 2000
  • Laatst online: 08:48
Vandaag heb ik een disk bijgeplaatst in mijn NUC proxmox servertje en sindsdien doet de web UI het niet meer en ook SSH kan ik niet meer bij. Dus even een scherm aangesloten en aan het troubleshooten geslagen. De services, LXC containers en VM's draaien allemaal prima, en ook als ik bijvoorbeeld
code:
1
curl -s -k https://localhost:8006 | grep title
uitvoer heb ik gewoon resultaat.

Het IP van de server is 192.168.2.1, maar nu zie ik dat als ik het volgende doe
code:
1
tcpdump -i vmbr0 port 8006
dan zie ik dat hij de requests afkomen van mijn pc. Zelfde verhaal met poort 22 voor SSH.

Hoe kan dit en heeft iemand een idee hoe dit is op te lossen ?

Edit:
Argh, de KPN Experiabox stond in 1 of andere error, daar kon ik ook niet meer bij. Na een reset van dat ding werkt alles weer gewoon. Tijd om dat ding te ditchen :X

Edit2:
Te vroeg gejuicht. Het werkte *even*, maar na enkele minuten stopt alles met werken: ping, ssh, web ui.

[ Voor 25% gewijzigd door RubenDJ op 03-10-2021 14:23 ]

specs


Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

Is het dan niet weer de experiabox?

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • RubenDJ
  • Registratie: Februari 2000
  • Laatst online: 08:48
orvintax schreef op zondag 3 oktober 2021 @ 14:38:
Is het dan niet weer de experiabox?
Daar lijkt het sterk op, de verbinding lijkt ook echt te klapperen. Soms lukt het ineens om te pingen/ssh, even later lig ik er weer uit. Echter alleen naar de proxmox console, een ssh naar een vm blijft gewoon up.

Is er verder nog tooling om dit te checken?

specs


Acties:
  • 0 Henk 'm!

  • Cyphax
  • Registratie: November 2000
  • Laatst online: 07:52

Cyphax

Moderator LNX
RubenDJ schreef op zondag 3 oktober 2021 @ 15:17:
[...]

Daar lijkt het sterk op, de verbinding lijkt ook echt te klapperen. Soms lukt het ineens om te pingen/ssh, even later lig ik er weer uit. Echter alleen naar de proxmox console, een ssh naar een vm blijft gewoon up.

Is er verder nog tooling om dit te checken?
Gaat het ook mis als je je guests even stillegt?

Saved by the buoyancy of citrus


Acties:
  • 0 Henk 'm!

  • RubenDJ
  • Registratie: Februari 2000
  • Laatst online: 08:48
Cyphax schreef op zondag 3 oktober 2021 @ 15:33:
[...]

Gaat het ook mis als je je guests even stillegt?
Ja, dit maakt geen verschil.

specs


Acties:
  • 0 Henk 'm!

  • RubenDJ
  • Registratie: Februari 2000
  • Laatst online: 08:48
Ik heb ook even het IP van de server veranderd naar 192.168.2.10, en ook nu blijven de issues bestaan.

specs


Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

Hoe ziet jouw netwerkomgeving er voor de rest uit? Dat maakt het ons wat makkelijker :)

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • netvista
  • Registratie: September 2005
  • Laatst online: 15-06 09:18
Ik heb zojuist proxmox geinstalleeerd om te kijken ik er mijn huidige truenas server mee kan virtualizeren.

De systeem hardware opzet is als volgt:

AMD 5600x
32 GB mem
2 x 4 TB HGST drives ( deze zijn momenteel geconfigureerd ( ZFS ) in truenas.)
2 x 256 GB nvme samsung SSD drives. 1 van de ze drives gebruikt ik voor het truenas OS. Op de andere heb ik nu proxmox geinstalleeerd.

Tijdens de proxmox installatie heb ik een partitie laten maken van 50 GB voor het proxmos OS> De overige disk space heb ik opgedeeld in een partitie voor ISO’s en een partitie voor VM’s.\\

Het probleem:

In disk -> LVM’s zie ik de partities, maar ik kan ze niet gebruiken om storage te added. Wsl mis ik wat, Kan iemand me uitleggen hoe ik de vrije partities beschikbaar kan maken in proxmox en kan gebruiken voor data ?

Acties:
  • +1 Henk 'm!

  • oltk
  • Registratie: Augustus 2007
  • Laatst online: 25-06 07:58
netvista schreef op zondag 3 oktober 2021 @ 19:18:
Ik heb zojuist proxmox geinstalleeerd om te kijken ik er mijn huidige truenas server mee kan virtualizeren.

De systeem hardware opzet is als volgt:

AMD 5600x
32 GB mem
2 x 4 TB HGST drives ( deze zijn momenteel geconfigureerd ( ZFS ) in truenas.)
2 x 256 GB nvme samsung SSD drives. 1 van de ze drives gebruikt ik voor het truenas OS. Op de andere heb ik nu proxmox geinstalleeerd.

Tijdens de proxmox installatie heb ik een partitie laten maken van 50 GB voor het proxmos OS> De overige disk space heb ik opgedeeld in een partitie voor ISO’s en een partitie voor VM’s.\\

Het probleem:

In disk -> LVM’s zie ik de partities, maar ik kan ze niet gebruiken om storage te added. Wsl mis ik wat, Kan iemand me uitleggen hoe ik de vrije partities beschikbaar kan maken in proxmox en kan gebruiken voor data ?
Ik weet niet precies wat je wil. Maar het werkt allemaal net anders dan je zou denken (even een schijf gebruiken). Je moet het (zover ik weet) echt expliciet assignen.
Zo kan je een lokale schijf mounten via
datacenter > storage > add
je Id is de naam van de mount
Als je directory kiest: de locatie van de disk of map
je kan zo ook allerlei netwerkschijven mounten etc

Zie screenshot van een SMB map die op een andere server wordt aangeboden
Kies wel voor waarvoor je het wil gebruiken! Als je het niet aanvinkt, kan je het niet gebruiken voor het doel dat je wil (dropdown menu, je kan meerdere doelen kiezen).
Afbeeldingslocatie: https://tweakers.net/i/PXnPFuhF0zHA2oJ_vkJGf4017nI=/800x/filters:strip_exif()/f/image/TtV8YjGuyusFRwXgvgyG82w7.png?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

netvista schreef op zondag 3 oktober 2021 @ 19:18:
Ik heb zojuist proxmox geinstalleeerd om te kijken ik er mijn huidige truenas server mee kan virtualizeren.

De systeem hardware opzet is als volgt:

AMD 5600x
32 GB mem
2 x 4 TB HGST drives ( deze zijn momenteel geconfigureerd ( ZFS ) in truenas.)
2 x 256 GB nvme samsung SSD drives. 1 van de ze drives gebruikt ik voor het truenas OS. Op de andere heb ik nu proxmox geinstalleeerd.

Tijdens de proxmox installatie heb ik een partitie laten maken van 50 GB voor het proxmos OS> De overige disk space heb ik opgedeeld in een partitie voor ISO’s en een partitie voor VM’s.\\

Het probleem:

In disk -> LVM’s zie ik de partities, maar ik kan ze niet gebruiken om storage te added. Wsl mis ik wat, Kan iemand me uitleggen hoe ik de vrije partities beschikbaar kan maken in proxmox en kan gebruiken voor data ?
Is er een reden dat je aparte partities hebt gemaakt? In Proxmox werkt alles op een enkele partitie zetten gewoon goed.

https://dontasktoask.com/


Acties:
  • +1 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

oltk schreef op zondag 3 oktober 2021 @ 20:08:
[...]


Ik weet niet precies wat je wil. Maar het werkt allemaal net anders dan je zou denken (even een schijf gebruiken). Je moet het (zover ik weet) echt expliciet assignen.
Zo kan je een lokale schijf mounten via
datacenter > storage > add
je Id is de naam van de mount
Als je directory kiest: de locatie van de disk of map
je kan zo ook allerlei netwerkschijven mounten etc

Zie screenshot van een SMB map die op een andere server wordt aangeboden
Kies wel voor waarvoor je het wil gebruiken! Als je het niet aanvinkt, kan je het niet gebruiken voor het doel dat je wil (dropdown menu, je kan meerdere doelen kiezen).
[Afbeelding]
Je moet inderdaad echt roles voor je storage assignen. Als je dat doet maakt Proxmox ook de nodige structuur aan op je storage device. :)

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • netvista
  • Registratie: September 2005
  • Laatst online: 15-06 09:18
orvintax schreef op zondag 3 oktober 2021 @ 20:52:
[...]

Is er een reden dat je aparte partities hebt gemaakt? In Proxmox werkt alles op een enkele partitie zetten gewoon goed.VMDATA
De reden is dat proxmox nu op een 256 GB ssd geïnstalleerd is terwijl proxmox zelf maar 8 GB nodig heeft volgens de specs. Ik heb nu bij de installatie een partitie aangemaakt van 50 GB voor proxmox. Er is dus nog 200 GB over op die ssd en deze probeer ik nu te verdelen in 2 partities. 1 voor de ISO images en 1 voor de VM data.

Als ik kijk bij Disks => LVM zie ik de partities staan , maar het is me niet duidelijk hoe ik hier bruikbare storage van kan maken.

Acties:
  • 0 Henk 'm!

  • orvintax
  • Registratie: Maart 2018
  • Laatst online: 28-06 19:01

orvintax

www.fab1an.dev

Maar wat is het voordeel om alles onder te brengen in aparte partities wanneer het ook gewoon op eentje kan?

https://dontasktoask.com/


Acties:
  • 0 Henk 'm!

  • RubenDJ
  • Registratie: Februari 2000
  • Laatst online: 08:48
orvintax schreef op zondag 3 oktober 2021 @ 16:49:
Hoe ziet jouw netwerkomgeving er voor de rest uit? Dat maakt het ons wat makkelijker :)
Wel, vrij simpel. Ik heb alleen een Experiabox v10a, die ook dhcp doet. Voor de rest alleen een paar unmanaged switches. Op proxmox draai ik zaken als home assistant, nginx proxy manager en adguard.

Ik denk echt dat het probleem ergens in Proxmox zit, aangezien er aan het netwerk verder ook niets is veranderd. Aan de nuc heb ik dus alleen een schijf toegevoegd en is dus het ding herstart voor het eerst in iets van 150 dagen. En temeer omdat ik dus de requests gewoon zie binnenkomen via
code:
1
2
tcpdump -i vmbr0 port 8006
tcpdump -i vmbr0 port 22

[ Voor 5% gewijzigd door RubenDJ op 04-10-2021 09:52 ]

specs


Acties:
  • +3 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
orvintax schreef op zondag 3 oktober 2021 @ 23:23:
Maar wat is het voordeel om alles onder te brengen in aparte partities wanneer het ook gewoon op eentje kan?
Ik heb hier ook twee partities. Eentje voor de Proxmox installatie en eentje voor de VM's en LXC containers. Dat maakt de failure recovery een stuk makkelijker. Bij herinstallatie geen gedoe hebben met je data en makkelijker snapshots kunnen maken en terugzetten.

Sinds de 2 dagen regel reageer ik hier niet meer

Pagina: 1 ... 21 ... 58 Laatste