Acties:
  • +1 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
zeroday schreef op dinsdag 20 oktober 2020 @ 10:00:
[...]


klopt, maar zfs mist een disk en die fout wordt dan initieel door proxmox gemaakt (kuch .. ik bedoel jezelf) omdat je in de frontend een disk kan initialiseren die niet de layout van de partities gebruikt die voor de andere disken bij de installatie is gebruikt.

Dus dit is eerder een opmerking richting gebruikers met ervaring zoals ik: net geen newbie maar ook geen expert op het gebied van het vervangen van disks in een proxmox ZFS omgeving.
Nee

Hiermee copieer je de juiste partitie layout naar je nieuwe disk.
code:
1
2
3
# sgdisk <healthy bootable device> -R <new device>
# sgdisk -G <new device>
# zpool replace -f <pool> <old zfs partition> <new zfs partition>


Dan moet je weten of je UEFI of Legacy boot.

UEFI met system-boot:
code:
1
2
# pve-efiboot-tool format <new disk's ESP>
# pve-efiboot-tool init <new disk's ESP>


of legacy boot:
code:
1
# grub-install <new disk>

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 10:09
A1AD schreef op dinsdag 20 oktober 2020 @ 10:00:
[...]


Begrijp ik het goed dat je 1 van de rpool disken vervangen hebt in ZFS en erna GRUB vergeten te installeren bent op die nieuwe disk waardoor er dan pas problemen waren bij het opstarten?
Dan nog steeds snap ik niet goed waarop grub niet doorstart. Want van 1 van de schijven is de bootloader waarschijnlijk in tact. Die kan ZFS vertellen van welke pool hij moet booten. Vanaf daar neemt ZFS het over en die snapt hoe de pool layout eruit ziet.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
CurlyMo schreef op dinsdag 20 oktober 2020 @ 10:11:
[...]

Dan nog steeds snap ik niet goed waarop grub niet doorstart. Want van 1 van de schijven is de bootloader waarschijnlijk in tact. Die kan ZFS vertellen van welke pool hij moet booten. Vanaf daar neemt ZFS het over en die snapt hoe de pool layout eruit ziet.
Kwestie van de juiste schijf te selecteren in de bios (zoals je aangaf) ik heb dit al verschillende keren voorgehad.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • smesjz
  • Registratie: Juli 2002
  • Niet online
Ik weet niet of dit nu een beperking is van LXC of Proxmox.

1) Installeer alle updates via proxmox UI
2) Nieuwe container (LXC) gemaakt met Ubuntu 20.04 template
3) Upgrade gedaan in container via do-release-upgrade -d naar ubuntu 20.10
4) Reboot
5) Container wil niet meer booten.


Relevante logs na gebruikt pct start:

code:
1
2
3
4
5
6
7
8
9
lxc-start 102 20201021084335.153 INFO     lsm - lsm/lsm.c:lsm_init:29 - LSM security driver AppArmor
lxc-start 102 20201021084335.154 INFO     conf - conf.c:run_script_argv:340 - Executing script "/usr/share/lxc/hooks/lxc-pve-prestart-hook" for container "102", config section "lxc"
lxc-start 102 20201021084335.354 DEBUG    conf - conf.c:run_buffer:312 - Script exec /usr/share/lxc/hooks/lxc-pve-prestart-hook 102 lxc pre-start produced output: unsupported Ubuntu version '20.10'

lxc-start 102 20201021084335.360 ERROR    conf - conf.c:run_buffer:323 - Script exited with status 255
lxc-start 102 20201021084335.360 ERROR    start - start.c:lxc_init:797 - Failed to run lxc.hook.pre-start for container "102"
lxc-start 102 20201021084335.360 ERROR    start - start.c:__lxc_start:1896 - Failed to initialize container "102"
lxc-start 102 20201021084335.360 INFO     conf - conf.c:run_script_argv:340 - Executing script "/usr/share/lxcfs/lxc.reboot.hook" for container "102", config section "lxc"
lxc-start 102 20201021084335.861 INFO     conf - conf.c:run_script_argv:340 - Executing script "/usr/share/lxc/hooks/lxc-pve-poststop-hook" for container "102", config section "lxc"


unsupported Ubuntu version '20.10' is dus oorzaak en pveam available laat zoals verwacht 20.10 niet zien omdat ie niet released is.

Op basis van https://pve.proxmox.com/wiki/Linux_Container had ik niet de indruk dat een dergelijke upgrade niet zo werken. Is dit een beperking van LXC of Proxmox?

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 10:09
smesjz schreef op woensdag 21 oktober 2020 @ 10:54:
Op basis van https://pve.proxmox.com/wiki/Linux_Container had ik niet de indruk dat een dergelijke upgrade niet zo werken. Is dit een beperking van LXC of Proxmox?
Ergens in de Proxmox config staat vermeld welke guest versies er ondersteund zijn. Kan zijn dat deze Ubuntu versie er niet bij staat.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • smesjz
  • Registratie: Juli 2002
  • Niet online
CurlyMo schreef op woensdag 21 oktober 2020 @ 11:29:
[...]

Ergens in de Proxmox config staat vermeld welke guest versies er ondersteund zijn. Kan zijn dat deze Ubuntu versie er niet bij staat.
Ik was al zo’n lijstje aan het zoeken maar kon nergens iets vinden. Toch maar een poging wagen om container disk te mounted en /etc/release te wijzigen van 20.10 naar 20.04 om te zien of dat verschil maakt.

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 10:09
smesjz schreef op woensdag 21 oktober 2020 @ 20:00:
[...]


Ik was al zo’n lijstje aan het zoeken maar kon nergens iets vinden.
Die is er ook alleen weet ik niet meer waar en kon het ook zo snel niet vinden :)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • smesjz
  • Registratie: Juli 2002
  • Niet online
CurlyMo schreef op woensdag 21 oktober 2020 @ 20:01:
[...]

Die is er ook alleen weet ik niet meer waar en kon het ook zo snel niet vinden :)
Na wat beter Googlen (zonder 20.10) vond ik /usr/share/perl5/PVE/LXC/Setup/Ubuntu.pm met een whitelist van versies.
Container start nu wel na het toevoegen van 20.10, maar online heb ik het (nog) niet gevonden. Andere distros hebben ook versie checks ingebouwd dus het zal wel met een reden zijn.

Acties:
  • 0 Henk 'm!

  • cvgansewinkel
  • Registratie: Oktober 2018
  • Laatst online: 17-06 19:08
Iemand toevallig de correcte manier om een bestaande proxmox cluster te migreren naar een 10 gbit netwerk? Alle nodes in de cluster worden onderling verbonden dmv DAC kabels

Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 08:57
Ik heb proxmox nu een maand of twee draaien en het werkt aardig goed (iets minder out of the box als Esxi echter)

Nu zie ik op mijn nvme ssd een wearout van 4 %. Klinkt als best veel na 2 maanden. En ik zie dat er ongeveer 10 TB is geschreven!

Op die ssd staan als containers: pihole, wireguard, roon, plex, hassos en linux kvm. Dat kan volgens mij nooit 10 TB zijn. (films en muziek staan op HDD). Nu zie ik op internet meer mensen met hoge wearout. Er wordt gesproken dat swap het probleem kan zijn. Ik heb dat nooit aangepast bij de LXC containers en zie dat pihole bijvoorbeeld 2 gb ram heeft en 2 gb swap. Moet ik alle swaps aanpassen naar 0? Ik heb 32 Gb ram in het systeem

Acties:
  • 0 Henk 'm!

  • TurboTon1973
  • Registratie: September 2010
  • Laatst online: 21-06 20:58
Ik ben een leek op het gebied van Linux en Proxmox. Maar wel lerende en heb veel geleerd. Ik heb nu een kleine 2 maanden ongeveer een Proxmox draaien met hassos. De eerste 1.5 maand draaide het allemaal goed. Voor het eerst 2 weken geleden was zowel Proxmox als Home Assistant niet bereikbaar en moest ik de Proxmox handmatig met de aan uit knop uit en daarna weer in schakelen. En dan werkte het een tijdje goed. Aangezien dit een proefopstelling is weet ik niet precies hoelang het duurde voordat het niet meer werkte. Als ik in de router keek was de link wel op. Op het ingestelde vaste ip adres. Maar Proxmox en Hassos zijn dan onbereikbaar. Na een herstart werkt het weer.

na opstarten dacht ik laat ik bij de syslog kijken of ik kan vinden waarom ineens dit probleem ontstaan is. Maar daar staan enkel de gegevens van vandaag. Ik kan wel timespan selecteren maar daar staan geen gegevens in. Ik zoek denk ik op de verkeerde plek, maar ik ben op zoek waar ik moet instellen dat logboeken opgeslagen worden zodat ik bij problemen deze later kan terug kijken. Net zoals bij Windows.

De computer die ik nu gebruik is een oude DELL met een i3 3220 en 32GB intern geheugen. Proxmox is geïnstalleerd op een nieuwe Samsung 850 evo 120GB. Deze SSD is wel oud, maar nog nooit gebruikt voordat deze ingebouwd werd in de deze computer. Voor data heb ik WD 80EFAX 8 TB schijf.
Proxmox VE 6.2-15 heb ik geïnstalleerd en alle updates zijn geïnstalleerd.

Als ik dit deze opzet stabiel draaiende krijg dan wil ik een tweede vm voor file server opzet. Ter vervanging van mijn Synology nas. En kijken voor energiezuiniger hardware zoals in de diy raid nas en energiezuinige nas draadjes. Als vm denk ik aan OMV of Nextcloud. Iets wat relatief gezien lijkt of in de buurt komt van de Synology beleving zonder dat ik Xpenology ga gebruiken.

Acties:
  • 0 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 09:50
TurboTon1973 schreef op zondag 8 november 2020 @ 11:57:
Ik ben een leek op het gebied van Linux en Proxmox. Maar wel lerende en heb veel geleerd. Ik heb nu een kleine 2 maanden ongeveer een Proxmox draaien met hassos. De eerste 1.5 maand draaide het allemaal goed. Voor het eerst 2 weken geleden was zowel Proxmox als Home Assistant niet bereikbaar en moest ik de Proxmox handmatig met de aan uit knop uit en daarna weer in schakelen. En dan werkte het een tijdje goed. Aangezien dit een proefopstelling is weet ik niet precies hoelang het duurde voordat het niet meer werkte. Als ik in de router keek was de link wel op. Op het ingestelde vaste ip adres. Maar Proxmox en Hassos zijn dan onbereikbaar. Na een herstart werkt het weer.

na opstarten dacht ik laat ik bij de syslog kijken of ik kan vinden waarom ineens dit probleem ontstaan is. Maar daar staan enkel de gegevens van vandaag. Ik kan wel timespan selecteren maar daar staan geen gegevens in. Ik zoek denk ik op de verkeerde plek, maar ik ben op zoek waar ik moet instellen dat logboeken opgeslagen worden zodat ik bij problemen deze later kan terug kijken. Net zoals bij Windows.

De computer die ik nu gebruik is een oude DELL met een i3 3220 en 32GB intern geheugen. Proxmox is geïnstalleerd op een nieuwe Samsung 850 evo 120GB. Deze SSD is wel oud, maar nog nooit gebruikt voordat deze ingebouwd werd in de deze computer. Voor data heb ik WD 80EFAX 8 TB schijf.
Proxmox VE 6.2-15 heb ik geïnstalleerd en alle updates zijn geïnstalleerd.

Als ik dit deze opzet stabiel draaiende krijg dan wil ik een tweede vm voor file server opzet. Ter vervanging van mijn Synology nas. En kijken voor energiezuiniger hardware zoals in de diy raid nas en energiezuinige nas draadjes. Als vm denk ik aan OMV of Nextcloud. Iets wat relatief gezien lijkt of in de buurt komt van de Synology beleving zonder dat ik Xpenology ga gebruiken.
toon volledige bericht
In het Hass draadje is gesproken over een memory leak in de 0.117.x versie. Mogelijk zit je ram vol en daardoor geen responsief systeem meer.
Heb jij monitoring op je host of de VM/CT waarin Hass draait?
Interresant is Cpu usage, mem usage en swap.
Indien kan je ook influxdb opzetten en Telegraf installeren op je proxmox host. Telegraf heeft tegenwoordig een collector plugin voor Proxmox

Acties:
  • +1 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 09:50
tomdh76 schreef op zondag 8 november 2020 @ 10:40:
Ik heb proxmox nu een maand of twee draaien en het werkt aardig goed (iets minder out of the box als Esxi echter)

Nu zie ik op mijn nvme ssd een wearout van 4 %. Klinkt als best veel na 2 maanden. En ik zie dat er ongeveer 10 TB is geschreven!

Op die ssd staan als containers: pihole, wireguard, roon, plex, hassos en linux kvm. Dat kan volgens mij nooit 10 TB zijn. (films en muziek staan op HDD). Nu zie ik op internet meer mensen met hoge wearout. Er wordt gesproken dat swap het probleem kan zijn. Ik heb dat nooit aangepast bij de LXC containers en zie dat pihole bijvoorbeeld 2 gb ram heeft en 2 gb swap. Moet ik alle swaps aanpassen naar 0? Ik heb 32 Gb ram in het systeem
Welk bestandssysteem gebruik je op die SSD?
ZFS voert veel writes uit en is over het algemeen niet aangeraden op consumer-level SSD's.
Misschien kan je in de SMART data terug vinden wat de waarde is voor de "Total Bytes Written"

Acties:
  • 0 Henk 'm!

  • TurboTon1973
  • Registratie: September 2010
  • Laatst online: 21-06 20:58
maxxie85 schreef op zondag 8 november 2020 @ 13:30:
[...]


In het Hass draadje is gesproken over een memory leak in de 0.117.x versie. Mogelijk zit je ram vol en daardoor geen responsief systeem meer.
Heb jij monitoring op je host of de VM/CT waarin Hass draait?
Interresant is Cpu usage, mem usage en swap.
Indien kan je ook influxdb opzetten en Telegraf installeren op je proxmox host. Telegraf heeft tegenwoordig een collector plugin voor Proxmox
Ik zal influxdb of Telegraf installeren.

Proxmox summery:

CPU usage is erg laag load average is 0.30 mem usage is rond de 50%
Als ik ingelogd ben via de browser dan zit de cpu uasge rond de 3-5%

Total LBAs written is 15710526214

Ik vermoed dat ik de schijven geformatteerd heb in ext4 dat is zichtbaar bij storage in de Proxmox node overview. De SSD is wel zichtbaar bij de LVM.

Dank je voor je tips daar ga ik mij van de week verder in lezen.

Acties:
  • 0 Henk 'm!

  • tomdh76
  • Registratie: Maart 2015
  • Laatst online: 08:57
maxxie85 schreef op zondag 8 november 2020 @ 13:33:
[...]


Welk bestandssysteem gebruik je op die SSD?
ZFS voert veel writes uit en is over het algemeen niet aangeraden op consumer-level SSD's.
Misschien kan je in de SMART data terug vinden wat de waarde is voor de "Total Bytes Written"
Ja ik heb zfs gebruikt. Wist niet dat dat zo slecht was..
Ik zie geen total bytes written in smart wel:

Data Units Written: 20,582,301 [10.5 TB]

Dus jouw advies zou zijn om ZFS om te zetten naar LVM of zo? Hoop dat me dat lukt me alle containers etc erop zonder dataverlies

Acties:
  • +1 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 09:50
tomdh76 schreef op zondag 8 november 2020 @ 14:43:
[...]


Ja ik heb zfs gebruikt. Wist niet dat dat zo slecht was..
Ik zie geen total bytes written in smart wel:

Data Units Written: 20,582,301 [10.5 TB]

Dus jouw advies zou zijn om ZFS om te zetten naar LVM of zo? Hoop dat me dat lukt me alle containers etc erop zonder dataverlies
Wat je kan doen is backup maken van je containers en VM's naar een NAS of externe harde schijf. En dan proxmox opnieuw installeren met LVM op Ext4. Je verliest wel de mogelijkheid voor snapshots, maar je SSD wordt gespaard.

ZFS schrijft voor elk data blok ook een redundancy weg, verder worden er verschillende caches bijgehouden wst voor nog meer writes zorgt

Acties:
  • 0 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 09:50
TurboTon1973 schreef op zondag 8 november 2020 @ 14:38:
[...]


Ik zal influxdb of Telegraf installeren.

Proxmox summery:

CPU usage is erg laag load average is 0.30 mem usage is rond de 50%
Als ik ingelogd ben via de browser dan zit de cpu uasge rond de 3-5%

Total LBAs written is 15710526214

Ik vermoed dat ik de schijven geformatteerd heb in ext4 dat is zichtbaar bij storage in de Proxmox node overview. De SSD is wel zichtbaar bij de LVM.

Dank je voor je tips daar ga ik mij van de week verder in lezen.
toon volledige bericht
Ja, wat in zou doen is een CT opzetten met influxdb.
Dan kan Telegraf op je host schrijven naar die database

Acties:
  • 0 Henk 'm!

  • TurboTon1973
  • Registratie: September 2010
  • Laatst online: 21-06 20:58
maxxie85 schreef op zondag 8 november 2020 @ 15:06:
[...]


Wat je kan doen is backup maken van je containers en VM's naar een NAS of externe harde schijf. En dan proxmox opnieuw installeren met LVM op Ext4. Je verliest wel de mogelijkheid voor snapshots, maar je SSD wordt gespaard.

ZFS schrijft voor elk data blok ook een redundancy weg, verder worden er verschillende caches bijgehouden wst voor nog meer writes zorgt
Dat zal ik doen, want het zou zonden zijn als de SSD defect gaat. _/-\o_ .

Acties:
  • 0 Henk 'm!

  • DRAFTER86
  • Registratie: April 2002
  • Laatst online: 08:54
Zijn er mensen die docker in een LXC (Debian 9 in mijn geval) aan de praat hebben met de overlay2 storage driver?
Ik heb aufs en overlay toegevoegd aan /etc/modules-load.d/modules.conf en volgens lsmod zijn ze beschikbaar op zowel de host als de container.
Ik gebruik nu de volgende LXC config:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
arch: amd64
cores: 2
features: keyctl=1,nesting=1
hostname: docker.local
memory: 8192
net0: name=eth0,bridge=vmbr0,firewall=1,hwaddr=76:2E:11:F3:8E:47,ip=dhcp,type=veth
ostype: debian
rootfs: local-zfs:subvol-115-disk-0,size=16G
swap: 512
lxc.apparmor.raw: mount,
lxc.apparmor.profile: unconfined
lxc.cgroup.devices.allow: a
lxc.cap.drop:


Als ik echter docker run met de overlay2 storage driver krijg ik:
code:
1
failed to mount overlay: invalid argument     storage-driver=overlay2


Ik zag dat @CurlyMo een ext4 ZFS volume aanmaakte om de docker data op te stallen, is dat nodig om dit te laten werken?

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 10:09
DRAFTER86 schreef op dinsdag 10 november 2020 @ 10:40:
Ik zag dat @CurlyMo een ext4 ZFS volume aanmaakte om de docker data op te stallen, is dat nodig om dit te laten werken?
Ja

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • DRAFTER86
  • Registratie: April 2002
  • Laatst online: 08:54
Ok, dat werkt, en ik denk dat ik het snap, het onderliggende filesystem van een LXC is gewoon ZFS, en overlay werkt (in een LXC) niet op ZFS?
Dat is wel een beetje omslachtig toch? Vziw werken quota en snapshots dan niet?
Of zie ik nog opties over het hoofd?

Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
DRAFTER86 schreef op dinsdag 10 november 2020 @ 11:03:
[...]


Ok, dat werlt, en ik denk dat ik het snap, het onderliggende filesystem van een LXC is gewoon ZFS, en overlay werkt (in een LXC) niet op ZFS?
Dat is wel een beetje omslachtig toch? Vziw werken quota en snapshots dan niet?
Of zie ik nog opties over het hoofd?
Je kunt in ZFS een volume aanmaken, dat ext4 formatteren en dan in de LXC container plaatsen (als /var/lib/docker). Dat is hoe ik het gebruik. En het volume kun je dan gewoon snapshotten, een max grote aangeven, etc. (uiteraard bij resizen wel rekening houden met dat je voor of achteraf (voor resp kleiner en groter maken) ook je ext4 partitie moet resizen).

Acties:
  • 0 Henk 'm!

  • DRAFTER86
  • Registratie: April 2002
  • Laatst online: 08:54
RobertMe schreef op dinsdag 10 november 2020 @ 11:04:
[...]

Je kunt in ZFS een volume aanmaken, dat ext4 formatteren en dan in de LXC container plaatsen (als /var/lib/docker). Dat is hoe ik het gebruik. En het volume kun je dan gewoon snapshotten, een max grote aangeven, etc. (uiteraard bij resizen wel rekening houden met dat je voor of achteraf (voor resp kleiner en groter maken) ook je ext4 partitie moet resizen).
Thanks voor de hulp, docker draait inmiddels!
Volgende stap is docker swarm, om het op de uiteindelijke doel infrastructuur te laten lijken.
Aanmaken van de swarm en deployen van de stacks gaat goed, maar services in een stack lijken geen onderlinge network connectivity te hebben.
Ik heb deze thread gevolgd, daar meent iemand dat het zit in een probleem met de iptables rules, nog geen succes helaas.
Hier mensen die een Docker Swarm in LXC hebben draaien?

edit:
Hm het wordt nog gekker, een Portainer stack met een portainer en portainer-agent service werkt wel (die twee kunnen met elkaar praten over TCP/IP. In eenzelfde soort stack met Graylog en MongoDB: MongoDB onbereikbaar op TCP/IP 27017. Pingen werkt dan weer wel... 8)7

[ Voor 11% gewijzigd door DRAFTER86 op 15-11-2020 13:51 ]


Acties:
  • 0 Henk 'm!

Anoniem: 1180372

Hi all,

Een misschien wel domme vraag, maar die bestaan niet zeggen ze altijd.
Ik ben erg aan het stoeien met Proxmox en kom er eigenlijk niet uit, heb verschillende dingen gelezen en YouTube filmpjes gekeken.

Mijn probleem;

Ik heb een Dell R720 draaien Ik heb 3x 8tb schijven 2x 240 ssd en 1x een 120gb ssd.

Wat ik wil;

Ik wil een Windows VM en ik wil een Ubuntu server waar ik Plex op draai, en wellicht in de toekomst meer dingen.
Nu weet ik hoe ik een VM moet maken en ISOs moet toewijzen ect. Ik kom er niet uit hoe die shares precies werken, ik wil namelijk dat mijn 3x 8tb schijven in Raid0 (content is totaal niet belangrijk) beschikbaar zijn over beide VMs maar op internet word ik niet veel wijzer.

Wellicht kan iemand mij een duwtje in de juiste richting geven!

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 21-06 23:24
Anoniem: 1180372 schreef op maandag 16 november 2020 @ 21:30:
Hi all,

Een misschien wel domme vraag, maar die bestaan niet zeggen ze altijd.
Ik ben erg aan het stoeien met Proxmox en kom er eigenlijk niet uit, heb verschillende dingen gelezen en YouTube filmpjes gekeken.

Mijn probleem;

Ik heb een Dell R720 draaien Ik heb 3x 8tb schijven 2x 240 ssd en 1x een 120gb ssd.

Wat ik wil;

Ik wil een Windows VM en ik wil een Ubuntu server waar ik Plex op draai, en wellicht in de toekomst meer dingen.
Nu weet ik hoe ik een VM moet maken en ISOs moet toewijzen ect. Ik kom er niet uit hoe die shares precies werken, ik wil namelijk dat mijn 3x 8tb schijven in Raid0 (content is totaal niet belangrijk) beschikbaar zijn over beide VMs maar op internet word ik niet veel wijzer.

Wellicht kan iemand mij een duwtje in de juiste richting geven!
toon volledige bericht
je zou opzich een mooie opstelling met raidz :9 3x8TB hdd's en die 2x 240TB ssd's als cach een mooie data disk kunnen bouwen. Door de HDD's en SSD's te combineer je size, speed en redundantie.

Die 120GB kan als bootdisk dienen maar is niet noodzakelijk.

Je kan dit via de installatie doen. Mocht je als bootdisk die 120Gb hebben gebruikt dan kun je vanuit de GUI een lvm volume aanmaken of een zfs volume. (via host, disks in het 2e linkermenu. daarna mounten via datacenter, storage)

Acties:
  • 0 Henk 'm!

Anoniem: 1180372

powerboat schreef op maandag 16 november 2020 @ 21:40:
[...]


je zou opzich een mooie opstelling met raidz :9 3x8TB hdd's en die 2x 240TB ssd's als cach een mooie data disk kunnen bouwen. Door de HDD's en SSD's te combineer je size, speed en redundantie.

Die 120GB kan als bootdisk dienen maar is niet noodzakelijk.

Je kan dit via de installatie doen. Mocht je als bootdisk die 120Gb hebben gebruikt dan kun je vanuit de GUI een lvm volume aanmaken of een zfs volume. (via host, disks in het 2e linkermenu. daarna mounten via datacenter, storage)
Bedankt voor je reactie! Nu de volgende vraag. Hoe kan ik deze benaderen dus sharen via proxmox naar mijn VM's? De pool staat nu bij storage onder datacenter

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 21-06 23:24
Anoniem: 1180372 schreef op maandag 16 november 2020 @ 23:19:
[...]


Bedankt voor je reactie! Nu de volgende vraag. Hoe kan ik deze benaderen dus sharen via proxmox naar mijn VM's? De pool staat nu bij storage onder datacenter
Oh ... je bedoelt dat je die pool wilt benaderen vanuit de VM's? Het is geen NAS ;).
Wat je nu kan doen is een virtual disk aanmaken voor je vm en eventueel toevoegen aan je virtuele machine.

Wil je netwerk share maken ala CIFS (Windows) dan moet je een virtual nas maken. Ik heb er net eentje gemaakt in proxmox voor het delen van bestanden i.c.m. rockstor.

Acties:
  • 0 Henk 'm!

  • n0ss
  • Registratie: Mei 2013
  • Laatst online: 03-04 10:57

n0ss

⭐⭐⭐

Zou iemand mij kunnen adviseren in de aanschaf van een Nuc? Draai nu een Raspberry Pi 4 2GB met Hassos maar zou graag willen uitbreiden naar een Nuc en zo doende meer willen virtualiseren:

-Proxmox
- Hassos
- Motion Eye
- PiHole

En nog meer leuks, ben nog aan het rondkijken dus benieuwd wat er nog meer mogelijk is in een home lab. Zou graag wel qua hardware iets ruimer in het jasje zitten zodat ik iets over aantal maanden al weer voor iets anders moet kijken.

Zijn er nog leuke Black Friday deals?

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 10:09
n0ss schreef op maandag 23 november 2020 @ 20:38:
Zou iemand mij kunnen adviseren in de aanschaf van een Nuc? Draai nu een Raspberry Pi 4 2GB met Hassos maar zou graag willen uitbreiden naar een Nuc en zo doende meer willen virtualiseren:

-Proxmox
- Hassos
- Motion Eye
- PiHole

En nog meer leuks, ben nog aan het rondkijken dus benieuwd wat er nog meer mogelijk is in een home lab. Zou graag wel qua hardware iets ruimer in het jasje zitten zodat ik iets over aantal maanden al weer voor iets anders moet kijken.

Zijn er nog leuke Black Friday deals?
Wat heb je zelf al gevonden?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • n0ss
  • Registratie: Mei 2013
  • Laatst online: 03-04 10:57

n0ss

⭐⭐⭐

CurlyMo schreef op maandag 23 november 2020 @ 20:42:
[...]

Wat heb je zelf al gevonden?
Zat zelf te denken aan een I5 variant met 500GB SSD en 32GB ram.

Echter zie ik dat er meerdere versies van de I5 zijn dus vandaar dat ik hier om jullie ervaringen/meningen vraag.

pricewatch: Intel NUC Kit NUC8i5BEK

pricewatch: Intel NUC Kit NUC8i5BEH (EU stroomkabel)

[ Voor 45% gewijzigd door n0ss op 23-11-2020 20:47 ]


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 10:09
n0ss schreef op maandag 23 november 2020 @ 20:44:
[...]


Zat zelf te denken aan een I5 variant met 500GB SSD en 32GB ram.

Echter zie ik dat er meerdere versies van de I5 zijn dus vandaar dat ik hier om jullie ervaringen/meningen vraag.
Alles wat je wil kan volgens mij met elke willekeurige NUC. Het gaat dus om de specifieke eisen die je misschien nog hebt. Anders raad ik je gewoon de goedkoopste aan. Het draait nu immers ook al goed op een RPi.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • n0ss
  • Registratie: Mei 2013
  • Laatst online: 03-04 10:57

n0ss

⭐⭐⭐

CurlyMo schreef op maandag 23 november 2020 @ 20:47:
[...]

Alles wat je wil kan volgens mij met elke willekeurige NUC. Het gaat dus om de specifieke eisen die je misschien nog hebt. Anders raad ik je gewoon de goedkoopste aan. Het draait nu immers ook al goed op een RPi.
Dat klopt immers zie ik wel dat mijn Pi al wel de helft van het Ram gebruikt met Hassos en een aantal add ons (ad Guard, Motion Eye) + een camera.

Zou graag uitbreiden met camera's en verder de wereld van proxmox en home lab willen verkennen. Vandaar mijn vraag :)

Wat is dus een goed instap model die voor mijn wensen nog goed meegaat voor een x aantal jaar?

Acties:
  • +2 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 10:09
n0ss schreef op maandag 23 november 2020 @ 20:51:
[...]


Dat klopt immers zie ik wel dat mijn Pi al wel de helft van het Ram gebruikt met Hassos en een aantal add ons (ad Guard, Motion Eye) + een camera.

Zou graag uitbreiden met camera's en verder de wereld van proxmox en home lab willen verkennen. Vandaar mijn vraag :)

Wat is dus een goed instap model die voor mijn wensen nog goed meegaat voor een x aantal jaar?
Met de beperkte informatie die je geeft zal waarschijnlijk elke i3 met 16GB ram voldoen. Deze bijv. pricewatch: Intel NUC Kit NUC8i3BEH (met EU-stroomadapter)

Kan je ook nog efficiënt virtualiseren i.p.v. enkel containers.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • MsG
  • Registratie: November 2007
  • Laatst online: 09:51

MsG

Forumzwerver

Ik heb een Intel Nuc met Proxmox geïnstalleerd. Daarbinnen draai ik momenteel 1 VM, namelijk HassOS.

Ik heb destijds alles geïnstalleerd op een 128GB M2 SSD, waarbij ik alle schijfindeling lekker overliet aan Proxmox zelf.

Nu heb ik een 256GB M2 SSD gekregen. Wat is eigenlijk the way to go om zo eenvoudig mogelijk hier op over te stappen? Als ik het kloon met bijv. Clonezilla weet ik niet hoe eenvoudig ik de boel kan uitbreiden? Iemand ervaring met later overstappen op een grotere schijf?

Denk om uw spatiegebruik. Dit scheelt Tweakers.net kostbare databaseruimte! | Groninger en geïnteresseerd in Domotica? Kom naar DomoticaGrunn


Acties:
  • 0 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 09:50
MsG schreef op woensdag 25 november 2020 @ 19:40:
Ik heb een Intel Nuc met Proxmox geïnstalleerd. Daarbinnen draai ik momenteel 1 VM, namelijk HassOS.

Ik heb destijds alles geïnstalleerd op een 128GB M2 SSD, waarbij ik alle schijfindeling lekker overliet aan Proxmox zelf.

Nu heb ik een 256GB M2 SSD gekregen. Wat is eigenlijk the way to go om zo eenvoudig mogelijk hier op over te stappen? Als ik het kloon met bijv. Clonezilla weet ik niet hoe eenvoudig ik de boel kan uitbreiden? Iemand ervaring met later overstappen op een grotere schijf?
Ik heb dit jaar nog deze gids gebruikt om de disk van Debian VM uit te breiden.

https://serverfault.com/q...size-debian-in-virtualbox

Acties:
  • 0 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 09:50
maxxie85 schreef op woensdag 25 november 2020 @ 19:48:
[...]


Ik heb dit jaar nog deze gids gebruikt om de disk van Debian VM uit te breiden.

https://serverfault.com/q...size-debian-in-virtualbox
Edit.
Sorry ik las het verkeerd. Het gaat echt om de schijf.
Ik zou al het kan je VM's en Containers back-uppen naar externe opslag.

Schijf wisselen en PVE opnieuw installeren. Dan de backups terugzetten.

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 10:09
@A1AD Kan je iets meer vertellen over het upgraden van OpenWRT in je LXC container zonder je configuratie te verliezen?

Sinds de 2 dagen regel reageer ik hier niet meer


  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-06 21:27

unezra

Ceci n'est pas un sous-titre.

MsG schreef op woensdag 25 november 2020 @ 19:40:
Ik heb een Intel Nuc met Proxmox geïnstalleerd. Daarbinnen draai ik momenteel 1 VM, namelijk HassOS.

Ik heb destijds alles geïnstalleerd op een 128GB M2 SSD, waarbij ik alle schijfindeling lekker overliet aan Proxmox zelf.

Nu heb ik een 256GB M2 SSD gekregen. Wat is eigenlijk the way to go om zo eenvoudig mogelijk hier op over te stappen? Als ik het kloon met bijv. Clonezilla weet ik niet hoe eenvoudig ik de boel kan uitbreiden? Iemand ervaring met later overstappen op een grotere schijf?
In de basis is dat goed te doen met rsync. Upgrade je PVE tot de laatste versie, installeer een verse PVE op de nieuwe disk, rsync in de basis *alles* naar die nieuwe disk en klaar.

Maar als je config niet al te ingewikkeld is zou ik het eerder met backup en restore doen. Dat is cleaner. Backup je vm naar disk, hang de disk om, hang je oude disk via USB oid aan je PVE installatie en import de backup.

Ná Scaoll. - Don’t Panic.


Acties:
  • +2 Henk 'm!

  • 3raser
  • Registratie: Mei 2008
  • Laatst online: 20-06 22:47

3raser

⚜️ Premium member

Proxmox VE 6.3 is uit (release notes).
Ik had gehoopt op een nieuwe kernel met Wireguard support maar dat zit er zo te zien nog niet in.

Acties:
  • 0 Henk 'm!

  • Polderviking
  • Registratie: Augustus 2020
  • Laatst online: 21-06 00:31
Promox 6.3 brengt zo te zien hoofzakelijk "final" support voor hun Backup Server.

Heb dat ding sinds vorige week in het rack hangen om backups uit ons cluster naartoe te schijven.
Mooi pakketje wel.

KVM dirty bitmaps zijn nu bijvoorbeeld een ding, scheelt aanzienlijk in backup tijden.

Acties:
  • 0 Henk 'm!

  • Foxdelta-mods
  • Registratie: Mei 2009
  • Laatst online: 23-04 19:44
Ik krijg sinds een aantal weken regelmatig in mijn transmission webgui de melding: Error: unable to save resume file: too many files.

Als ik dit vervolgens opzoek op google kom ik vanalles tegen over file discriptors etc. etc. waarbij ik ook al zo'n beetje alles geprobeerd hebt. Echter blijft deze melding terug komen.

Tranmission draait in een unpriviliged ubuntu 18.04 container.

Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 21-06 23:24
Foxdelta-mods schreef op woensdag 2 december 2020 @ 11:42:
Ik krijg sinds een aantal weken regelmatig in mijn transmission webgui de melding: Error: unable to save resume file: too many files.

Als ik dit vervolgens opzoek op google kom ik vanalles tegen over file discriptors etc. etc. waarbij ik ook al zo'n beetje alles geprobeerd hebt. Echter blijft deze melding terug komen.

Tranmission draait in een unpriviliged ubuntu 18.04 container.
Probeer dit eens heb dat probleem ook eens gehad.

https://forum.proxmox.com...-in-lxc-containers.40236/

Acties:
  • 0 Henk 'm!

  • MsG
  • Registratie: November 2007
  • Laatst online: 09:51

MsG

Forumzwerver

Ik ben toch even eigenwijs met CloneZilla aan de slag gegaan om mijn SSD's te klonen naar elkaar toe. Maar helaas struikelde hij de hele tijd over de partities. Dus toch maar Proxmox kaal geïnstalleerd en eenvoudig de backup teruggezet. Alleen even handmatig moeten mounten met de externe schijf, maar dat stelt weinig voor.

Zit nu te denken aan RancherOS als docker-host binnen proxmox, maar ik weet niet of dat te hardcore is? Ik wil de docker containers het liefst met zo min mogelijk overhead, maar rechtstreeks in proxmox voelt een beetje bad practice.

Denk om uw spatiegebruik. Dit scheelt Tweakers.net kostbare databaseruimte! | Groninger en geïnteresseerd in Domotica? Kom naar DomoticaGrunn


Acties:
  • 0 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 09:50
MsG schreef op woensdag 2 december 2020 @ 22:50:
Ik ben toch even eigenwijs met CloneZilla aan de slag gegaan om mijn SSD's te klonen naar elkaar toe. Maar helaas struikelde hij de hele tijd over de partities. Dus toch maar Proxmox kaal geïnstalleerd en eenvoudig de backup teruggezet. Alleen even handmatig moeten mounten met de externe schijf, maar dat stelt weinig voor.

Zit nu te denken aan RancherOS als docker-host binnen proxmox, maar ik weet niet of dat te hardcore is? Ik wil de docker containers het liefst met zo min mogelijk overhead, maar rechtstreeks in proxmox voelt een beetje bad practice.
Ik ben niet bekend met RancherOS. Het is mogelijk om in een Debian lxc Docker te installeren. Hierdoor heb je wel de lage overhead die een lxc biedt.

Acties:
  • 0 Henk 'm!

  • Foxdelta-mods
  • Registratie: Mei 2009
  • Laatst online: 23-04 19:44
@powerboat Bedankt voor je reactie echter heb ik dat ook al geprobeerd. Sterker nog mijn nofile staat al hoog en toch krijg ik iedere keer dezelfde melding. Voorheen nooit last van gehad. Geen idee waar ik het nog kan zoeken.

Acties:
  • 0 Henk 'm!

  • BroWnStaR
  • Registratie: September 2003
  • Laatst online: 03-06 06:54
Ik ben van plan om een Proxmox VE server als volgt in te richten:

Host configuratie:
Proxmox Virtual Environment
4 cores (Intel Core i3-9100)
16GB
500GB SSD

Beoogde VM configuratie:
VMOSCPUsGeheugen (max/min)SchijfruimteDoel
ubuntu1Ubuntu 20.0422GB/1GB25GBDocker containers:
portainer
watchtower
traefik
oauth
pihole
openvpn-as
guacamole
ubuntu2Ubuntu 20.0448GB/6GB100GBDocker containers:
portainer
watchtower
mariadb
nextcloud
transmission
samba
radarr
sonarr
plexmediaserver
firefly
apache webserver
phpmyadmin
win10Windows 1048GB/6GB250GBWerkstation (via RDP)
hassHass.OS24GB/2GB25GBHome Assistant
----100GBreserve


Ik wil de cruciale containers op een aparte vm draaien (ubuntu1) zodat deze geen hinder ondervinden van issues/reboots/onderhoud van de andere vms.
Uiteindelijk wil ik ook een NAS met ZFS RAIDZ-1 op basis van 3 2,5" hdds. Ik zit te denken aan OpenMediaVault als server. Doel is backups en media storage.

Ik zou wat advies willen hebben over het volgende:
  1. Wat vinden jullie van deze indeling van VMs? Hebben jullie tips en/of aandachtsputnen? Wat kan ik beter doen?
  2. Is de verdeling van resources OK zo (CPU, RAM, disk space)?
  3. Wat zijn best-practices mbt netwerk (VLANs) met een dergelijke indeling?
  4. Is het verstandig om een deel van de SDD gereserveerd te houden voor toekomstige vms? Of kan ik tzt eenvoudig afsnoepen van andere vms?
  5. IS OpenMediaVault een goede keuze in deze opstelling? Is het verstandig om de NAS op een aparte VM te draaien? Of kan dit bij op de ubuntu2 vm? Of kan het direct direct op PVE (want Debian las ik ergens)?

Acties:
  • 0 Henk 'm!

  • Miki
  • Registratie: November 2001
  • Nu online
BroWnStaR schreef op vrijdag 4 december 2020 @ 12:23:
Ik ben van plan om een Proxmox VE server als volgt in te richten:

Host configuratie:
Proxmox Virtual Environment
4 cores (Intel Core i3-9100)
16GB
500GB SSD

Beoogde VM configuratie:
VMOSCPUsGeheugen (max/min)SchijfruimteDoel
ubuntu1Ubuntu 20.0422GB/1GB25GBDocker containers:
portainer
watchtower
traefik
oauth
pihole
openvpn-as
guacamole
ubuntu2Ubuntu 20.0448GB/6GB100GBDocker containers:
portainer
watchtower
mariadb
nextcloud
transmission
samba
radarr
sonarr
plexmediaserver
firefly
apache webserver
phpmyadmin
win10Windows 1048GB/6GB250GBWerkstation (via RDP)
hassHass.OS24GB/2GB25GBHome Assistant
----100GBreserve


Ik wil de cruciale containers op een aparte vm draaien (ubuntu1) zodat deze geen hinder ondervinden van issues/reboots/onderhoud van de andere vms.
Uiteindelijk wil ik ook een NAS met ZFS RAIDZ-1 op basis van 3 2,5" hdds. Ik zit te denken aan OpenMediaVault als server. Doel is backups en media storage.

Ik zou wat advies willen hebben over het volgende:
  1. Wat vinden jullie van deze indeling van VMs? Hebben jullie tips en/of aandachtsputnen? Wat kan ik beter doen?
  2. Is de verdeling van resources OK zo (CPU, RAM, disk space)?
  3. Wat zijn best-practices mbt netwerk (VLANs) met een dergelijke indeling?
  4. Is het verstandig om een deel van de SDD gereserveerd te houden voor toekomstige vms? Of kan ik tzt eenvoudig afsnoepen van andere vms?
  5. IS OpenMediaVault een goede keuze in deze opstelling? Is het verstandig om de NAS op een aparte VM te draaien? Of kan dit bij op de ubuntu2 vm? Of kan het direct direct op PVE (want Debian las ik ergens)?
toon volledige bericht
Wellicht zie ik iets over het hoofd waarom zou je binnen een VM weer met docker containers willen draaien als je gewoon vanuit Proxmox al containers kan draaien. Dan zit je ook kwa onderhoud helemaal niet gebonden aan de Ubuntu VM’s.

Zelf heb ik vrij onorthodox een VM aangemaakt met OMV en die dmv USB passtrough gekoppeld aan een externe hardeschijf zodat deze op gezette tijden binnen PVE een backup maakt van de VM’s en de containers. Het zal niet fantastisch performen maar om 03.00u in de nacht zal het mij een worst wezen hoe lang het systeem erover doet.

Acties:
  • 0 Henk 'm!

  • BroWnStaR
  • Registratie: September 2003
  • Laatst online: 03-06 06:54
Dat is een optie die ik nog niet eerder gezien/overwogen heb. Toch lees ik vrij veel dat men voor een VM kiest met daarin Docker containers. Iemand die hier de voors en tegens van kent? Ik ben bekend met docker-compose op Ubuntu en vind dat erg fijn werken.

Backuppen naar een USB drive wil ik in eerste instantie doen, maar vind ik vrij fragiel, want wat als de schijf kapot gaat? Daarom kies ik in een volgende fase voor een RAIDZ-1 config.

Acties:
  • 0 Henk 'm!

  • scorpion303
  • Registratie: Juni 2002
  • Niet online
Na ongeveer een half jaar stabiel te hebben gelopen, begint mijn Proxmox server kuren te vertonen. Het lijkt erop dat iedere nacht (nadat de vijf VMs zijn gebackupped naar de 'local' storage) de IO delay iedere keer wat toeneemt. Dit herhaalt zich voor enkele dagen/weken, waarna het systeem uiteindelijk compleet vastloopt. Hieronder de IO grafieken op respectievelijk dag-, week- en maandbasis.

Afbeeldingslocatie: https://tweakers.net/i/rnhvg2k3uTdT4lrEi10pIKuZXL0=/800x/filters:strip_exif()/f/image/JFnfm4YierWu49cLUYC8LY1w.png?f=fotoalbum_large


Afbeeldingslocatie: https://tweakers.net/i/l5JU5P_GdWbenxpvc8Rn0M7Z9z4=/800x/filters:strip_exif()/f/image/rzOM5BydrKnMnM9jkCSUby8O.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/W5km6ME2qfUbpScK6stYkyt7E7Q=/800x/filters:strip_exif()/f/image/H5C0RftJnh6JRYWnJ1JXsmun.png?f=fotoalbum_large


Weet iemand wat hier aan de hand kan zijn of hoe ik dit verder zou kunnen onderzoeken/verhelpen? Mijn setup is vrij basic: Intel NUC (D54250WYK), 16GB RAM, 256GB SSD, 4 VMs (1x Home Assistant / HassOS, 3x Debian voor docker-host, pi-hole, unifi-controller & dsmr-reader).

Ik heb op VM niveau zitten zoeken (en deze stuk voor stuk uit- en aangezet) maar kan hier niets relevants vinden.

Ik zie wel fouten mbt een 'degraded' ZFS, maar op SMART gebied zijn er geen issues.

[ Voor 17% gewijzigd door scorpion303 op 04-12-2020 17:07 ]


Acties:
  • 0 Henk 'm!

  • DRaakje
  • Registratie: Februari 2000
  • Niet online
Gebruik je ZFS ergens? Dat kan voor delays/oom situaties veroorzaken. Als je ZFS Raid hebt, reserveert dat al 8gb geheugen.

[ Voor 28% gewijzigd door DRaakje op 04-12-2020 17:09 ]


Acties:
  • 0 Henk 'm!

  • scorpion303
  • Registratie: Juni 2002
  • Niet online
DRaakje schreef op vrijdag 4 december 2020 @ 17:08:
Gebruik je ZFS ergens? Dat kan voor delays/oom situaties veroorzaken. Als je ZFS Raid hebt, reserveert dat al 8gb geheugen.
ZFS wordt door alle VM's gebruikt. Vooralsnog is (volgens mij) de enige meerwaarde dat ik snel snapshots van de VMs kan maken. Ik snap dat ZFS relatief veel RAM geheugen gebruikt, maar vooralsnog zou de aanwezige 16GB aan RAM toch voldoende moeten zijn?

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 10:09
DRaakje schreef op vrijdag 4 december 2020 @ 17:08:
Gebruik je ZFS ergens? Dat kan voor delays/oom situaties veroorzaken. Als je ZFS Raid hebt, reserveert dat al 8gb geheugen.
Dat geheugengebruik begint echt een urban mythe te worden. ZFS werkt prima met minder geheugen.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 09:50
scorpion303 schreef op vrijdag 4 december 2020 @ 17:49:
[...]

ZFS wordt door alle VM's gebruikt. Vooralsnog is (volgens mij) de enige meerwaarde dat ik snel snapshots van de VMs kan maken. Ik snap dat ZFS relatief veel RAM geheugen gebruikt, maar vooralsnog zou de aanwezige 16GB aan RAM toch voldoende moeten zijn?
De ZFS ARC vult ongebruikt RAM geheugen tot ongeveer 90%. Als RAM dan nodig is voor applicaties geeft de ARC dat weer vrij om de 90% te hanteren.
Ongebruikt RAM is zonde.

IO delay is een indicatie dat er random read write acces is op je ZFS Pool. Dit zal waarschijnlijk komen door iets binnen je VM's.

Als dit gebeurt kan je met IOTOP binnen je VM's, LXC containers kijken wat aan het schrijven/lezen is. Als je niks kan vinden kan je ook IOTOP gebruiken in je PVE host.

Wat is de status van je ZFS pool?
code:
1
zpool status -l

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Vraagje; ik heb een Synology DS918+ met Docker ondersteuning, hierop heb ik een 15 tal containers draaien. Ik wil eigenlijk naar een situatie dat ik Docker afhandel op een ander systeem, en de NAS puur als fileserver laat fungeren. Hiervoor had ik Proxmox in gedachten, volgens mij doet dat alles wat ik wil. Buiten die Docker containers wil ik er nog een W10 VM op draaien.

Lukt dat goed op een Lenovo M710Q? 256GB NVME en 16GB DDR4. CPU is een i5-6500T.

Ik heb namelijk nog een NUC (8i5beh) met een i5-8259U, die beter is (meer threads en sneller), maar dat ding klinkt af en toe alsof ie wil opstijgen, vandaar de voorkeur voor de Lenovo. Wat zouden jullie doen?

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • 0 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 09:50
Sp33dFr34k schreef op maandag 7 december 2020 @ 11:04:
Vraagje; ik heb een Synology DS918+ met Docker ondersteuning, hierop heb ik een 15 tal containers draaien. Ik wil eigenlijk naar een situatie dat ik Docker afhandel op een ander systeem, en de NAS puur als fileserver laat fungeren. Hiervoor had ik Proxmox in gedachten, volgens mij doet dat alles wat ik wil. Buiten die Docker containers wil ik er nog een W10 VM op draaien.

Lukt dat goed op een Lenovo M710Q? 256GB NVME en 16GB DDR4. CPU is een i5-6500T.

Ik heb namelijk nog een NUC (8i5beh) met een i5-8259U, die beter is (meer threads en sneller), maar dat ding klinkt af en toe alsof ie wil opstijgen, vandaar de voorkeur voor de Lenovo. Wat zouden jullie doen?
Ik denk dat jouw dat prima moet lukken op die Lenovo M710Q. Het is natuurlijk wel een beetje de vraag wat je wensen zijn met die W10 VM en wat je draait in die 15 containers.

Voorbeeld config zou zijn:
ID - Type - Omschrijving
100 - VM - W10VM - 4 (of alle cores) - 8 GB RAM
110 - LXC - Debian (hierin Docker installeren) - 4 cores - 6 GB RAM.

Ikzelf draait thuis op mijn zelfbouw proxmox server met een i3-4130 en 16GB DDR3
1 linux VM (4 cores - 12GB) met daarin 52 docker containers en nog 2 LXC containers.

Acties:
  • 0 Henk 'm!

  • GioStyle
  • Registratie: Januari 2010
  • Laatst online: 09:43
-

[ Voor 100% gewijzigd door GioStyle op 30-10-2022 07:14 ]


Acties:
  • +2 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 09:50
GioStyle schreef op maandag 7 december 2020 @ 12:49:
@maxxie85

52 containers... Wat draai je dan zoal als ik vragen mag? :D
Ja... het is een beetje uit de hand gelopen :P

Algemeen

  • Portainer
  • Pihole
  • Watchtower
  • Duplicati

Domotica

  • Home-Assistant
  • Postgress (HassDB)
  • Node-RED
  • Mosquitto
  • DSMR_reader
  • Tasmoadmin
  • InfluxDB
  • Kapacitor
  • Chronograf
  • Grafana

Media

  • Plex Media Server
  • Sickrage
  • Couchpotato
  • TransmissionVPN & Proxy

Hosting

  • Traefik
  • Wireguard
  • Bitwarden + PostgressDB
  • 2x Grav website
  • Wordpress + Database
  • Mailcow stack (19 containers)
  • Prive GIT + database
  • StandardNotes + database + webinterface

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

maxxie85 schreef op maandag 7 december 2020 @ 11:34:
[...]


Ik denk dat jouw dat prima moet lukken op die Lenovo M710Q. Het is natuurlijk wel een beetje de vraag wat je wensen zijn met die W10 VM en wat je draait in die 15 containers.

Voorbeeld config zou zijn:
ID - Type - Omschrijving
100 - VM - W10VM - 4 (of alle cores) - 8 GB RAM
110 - LXC - Debian (hierin Docker installeren) - 4 cores - 6 GB RAM.

Ikzelf draait thuis op mijn zelfbouw proxmox server met een i3-4130 en 16GB DDR3
1 linux VM (4 cores - 12GB) met daarin 52 docker containers en nog 2 LXC containers.
Thanks, dat klinkt geruststellend, dan ga ik mooi dat pad bewandelen :)

De W10 VM is voor RDP en dev toepassingen, niets zwaars. De containers zijn voornamelijk de *arr applicaties, met dingen als nzbget, transmission, pihole, unifi, home assistant, plex, etc.

Nu komt mijn volgende vraag n.a.v. jouw suggestie, op Proxmox kun je zelf al Docker containers draaien, wat is het voordeel om dit in een Debian VM te doen?

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • +1 Henk 'm!

  • Hmmbob
  • Registratie: September 2001
  • Nu online
Sp33dFr34k schreef op maandag 7 december 2020 @ 17:11:
Nu komt mijn volgende vraag n.a.v. jouw suggestie, op Proxmox kun je zelf al Docker containers draaien, wat is het voordeel om dit in een Debian VM te doen?
Ok, dit roept iedereen altijd, MAAR HOE DAN 8)7 :> O+

Ik krijg het maar niet gevonden. Heb nu ook een Debian VM als docker-host draaien.... Adguard draait dan weer wel in een (debian) CT.

Sometimes you need to plan for coincidence


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Hmmbob schreef op maandag 7 december 2020 @ 17:17:
[...]

Ok, dit roept iedereen altijd, MAAR HOE DAN 8)7 :> O+

Ik krijg het maar niet gevonden. Heb nu ook een Debian VM als docker-host draaien.... Adguard draait dan weer wel in een (debian) CT.
Ah, ik had gelezen dat dit zou kunnen, maar niet dus? Opzich geen probleem hoor, one way or another komen we er wel.

EDIT: Ben nog aan het leren, lees (of eigenlijk kijk ik een video) dat de Proxmox OS disk niet gebruikt kan worden om VM's op te storen. Klopt dat? Ik heb 1 M2 slot, en 1 SATA slot in die PC. Kan ik dan het beste de SATA SSD gebruiken voor Proxmox OS en de M2 NVME voor VM storage? Of maakt het in de praktijk weinig uit?

[ Voor 27% gewijzigd door Sp33dFr34k op 07-12-2020 17:53 ]

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • 0 Henk 'm!

  • Miki
  • Registratie: November 2001
  • Nu online
Hmmbob schreef op maandag 7 december 2020 @ 17:17:
[...]

Ok, dit roept iedereen altijd, MAAR HOE DAN 8)7 :> O+

Ik krijg het maar niet gevonden. Heb nu ook een Debian VM als docker-host draaien.... Adguard draait dan weer wel in een (debian) CT.
Waarom zou je Adguard home in vredesnaam in docker willen draaien :? Als er één app is die prima in een LXC kan draaien is het deze app wel. Updaten gaat super eenvoudig dmv interne update functie van Adguard zelf.

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 10:09
Miki schreef op maandag 7 december 2020 @ 18:30:
[...]

Waarom zou je Adguard home in vredesnaam in docker willen draaien :? Als er één app is die prima in een LXC kan draaien is het deze app wel. Updaten gaat super eenvoudig dmv interne update functie van Adguard zelf.
pihole net zo goed :)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Miki
  • Registratie: November 2001
  • Nu online
True, en vergeet de UniFi controller ook niet, met Glen’s script prima bij te werken :)

[ Voor 9% gewijzigd door Miki op 07-12-2020 18:41 ]


Acties:
  • +1 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 09:50
Sp33dFr34k schreef op maandag 7 december 2020 @ 17:11:
[...]
Thanks, dat klinkt geruststellend, dan ga ik mooi dat pad bewandelen :)

De W10 VM is voor RDP en dev toepassingen, niets zwaars. De containers zijn voornamelijk de *arr applicaties, met dingen als nzbget, transmission, pihole, unifi, home assistant, plex, etc.

Nu komt mijn volgende vraag n.a.v. jouw suggestie, op Proxmox kun je zelf al Docker containers draaien, wat is het voordeel om dit in een Debian VM te doen?
Hmmbob schreef op maandag 7 december 2020 @ 17:17:
[...]
Ok, dit roept iedereen altijd, MAAR HOE DAN 8)7 :> O+
Ik heb mijn "oude" bare-metal server omgezet naar PVE omdat ik gebruik wil maken van de flexibiliteit van VM's en de extra backup-strategie die het biedt. Ja, van docker-configs en de persistent data maak ik een backup. Maar om de VM disk / LXC "disk" als geheel te kunnen back-uppen en snapshotten geeft een snellere herstel strategie voor het geval ik het een keer verkloot.
Het is vooral om mijn onderbuikgevoel van dist-upgrades veilig te stellen. In het verleden zijn Ubuntu dist-upgrades altijd wel goed gegaan, maar ook niet. Denk dat sommige wel begrijpen wat ik bedoel. Het werkt, er zijn geen crashes, maar toch zitten er gekke fouten in de UI en tijdens het upgraden zijn er ook warnings en errors voorbijgekomen.

Toen debian 10 uitkwam heb ik mijn bare-metal debian 9 server omgezet naar een VM.

Als ik het nu weer zou moeten doen zou ik ipv een VM een LXC pakken omdat je dan beter je resources kan managen in mijn optiek. Ook zou ik het meer opsplitsen over meerde LXC containers heen. In groepen die logisch bij elkaar passen.

Op de vraag docker in Proxmox is heel simpel. Proxmox is Debian based met een custom-ubuntu kernel. Je kan gewoon Docker installeren in je host zoals je dat ook op Debian zou doen. e.g. sources list aanpassen voor de docker repositories, key toevoegen aan je trusted keys, apt update && apt install docker-ce.

Ik zou het alleen niet doen. Want als je direct Docker in je Proxmox host gaat installeren, kan je net zo goed gewoon Debian op je machine zetten, en alles wat Proxmox bied achter je laten. Want daar maak je dan toch geen gebruik van.

edit: typfoutje

Acties:
  • 0 Henk 'm!

  • Hmmbob
  • Registratie: September 2001
  • Nu online
Miki schreef op maandag 7 december 2020 @ 18:30:
[...]

Waarom zou je Adguard home in vredesnaam in docker willen draaien :? Als er één app is die prima in een LXC kan draaien is het deze app wel. Updaten gaat super eenvoudig dmv interne update functie van Adguard zelf.
Euh, dat zeg ik toch ook?

Sometimes you need to plan for coincidence


Acties:
  • +1 Henk 'm!

  • Hmmbob
  • Registratie: September 2001
  • Nu online
maxxie85 schreef op maandag 7 december 2020 @ 19:35:
Ik zou het alleen niet doen. Want als je direct Docker in je Proxmox host gaat installeren, kan je net zo goed gewoon Debian op je machine zetten, en alles wat Proxmox bied achter je laten. Want daar maak je dan toch geen gebruik van.
Precies, dit was mijn begrip ervan ook. Dank voor je uitgebreide antwoord (y)

Sometimes you need to plan for coincidence


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Ik zou bij enkel docker gebruik inderdaad wat @maxxie85 zegt doen. Proxmox is bij puur docker gebruik niet zo interessant. Als je een cluster wil is een orchestrator zoals swarm of kubernetes interessanter.
Je kan er altijd nog een wat minder overheersende web UI bij installeren die puur gericht is op Docker, zoals Portainer.

[ Voor 80% gewijzigd door ocf81 op 07-12-2020 20:30 . Reden: quote verwijderd, sloot niet zo goed aan op mijn verhaal. ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | <X> as a Service --> making you a poor & dependent slave


Acties:
  • 0 Henk 'm!

  • Koepert
  • Registratie: Augustus 2013
  • Laatst online: 21-06 19:46
Hmmbob schreef op maandag 7 december 2020 @ 17:17:
[...]

Ok, dit roept iedereen altijd, MAAR HOE DAN 8)7 :> O+

Ik krijg het maar niet gevonden. Heb nu ook een Debian VM als docker-host draaien.... Adguard draait dan weer wel in een (debian) CT.
Ik begrijp dit ook nooit zo goed, of dit nu oost-indisch spraakverwarring is of iets anders.

Ik dacht dat ipv docker containers dat je dus voor elke 'container' en LXC aanmaakt (evt op basis van template of turnkey image) en op die manier een vergelijkbaar landschap creëert met Proxmox als Portainer zo je wil. Of dat je juist je LXC als VM inzet (Debian er bijvoorbeeld op) en dan daarop diverse (Docker?) containers op/in installeert. Maar ik krijg dat ook niet echt helder..

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Is het nu eigenlijk "ok" om een single drive setup te maken? Ik heb een machine waar een m2 en een sata drive in kan. Beste dan een mini sata ssd te gebruiken voor het os en een aparte nvme voor storage? Want je kunt wel 1 drive gebruiken voor het os en de storage, maar dat wordt niet aangeraden blijkbaar?

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • +2 Henk 'm!

  • DRAFTER86
  • Registratie: April 2002
  • Laatst online: 08:54
Sp33dFr34k schreef op maandag 7 december 2020 @ 22:33:
Is het nu eigenlijk "ok" om een single drive setup te maken? Ik heb een machine waar een m2 en een sata drive in kan. Beste dan een mini sata ssd te gebruiken voor het os en een aparte nvme voor storage? Want je kunt wel 1 drive gebruiken voor het os en de storage, maar dat wordt niet aangeraden blijkbaar?
Draait hier al jaren prima met 1x128GB SSD in een i5 NUC. Als je gewoon zorgt voor goede off-site backups (moet je m.i sowieso) is er niks aan de hand. De eventuele performance nadelen heb ik me niet in verdiept. Ook kan het gebeuren dat je containers/VM's de disk laten vollopen, dat vind je OS niet leuk. Volgens mij heb ik dat 1x gehad, gewoon even van USB booten en de ZFS pool opruimen. (Ik ga er vanuit dat je ZFS wil draaien)

Acties:
  • +2 Henk 'm!

  • Miki
  • Registratie: November 2001
  • Nu online
Sp33dFr34k schreef op maandag 7 december 2020 @ 22:33:
Is het nu eigenlijk "ok" om een single drive setup te maken? Ik heb een machine waar een m2 en een sata drive in kan. Beste dan een mini sata ssd te gebruiken voor het os en een aparte nvme voor storage? Want je kunt wel 1 drive gebruiken voor het os en de storage, maar dat wordt niet aangeraden blijkbaar?
Het ligt eraan wat je ermee wilt gaan doen natuurlijk. Voor huis, tuin en keukengebruik kun je prima uit de voeten met een single drive setup in Ext4 en eventueel een externe hardeschijf om een backup te maken van je VM’s en containers.

Zo’n setup zal geen snelheidsrecords breken maar als je ziet wat je op een eenvoudige raspberry pi icm docker al kunt draaien dan kun je je voorstellen dat een eenvoudige server setup ruimschoots zal voldoen voor thuissituaties.

Acties:
  • 0 Henk 'm!

  • BroWnStaR
  • Registratie: September 2003
  • Laatst online: 03-06 06:54
BroWnStaR schreef op vrijdag 4 december 2020 @ 12:23:
Ik ben van plan om een Proxmox VE server als volgt in te richten:

Host configuratie:
Proxmox Virtual Environment
4 cores (Intel Core i3-9100)
16GB
500GB SSD

Beoogde VM configuratie:
VMOSCPUsGeheugen (max/min)SchijfruimteDoel
ubuntu1Ubuntu 20.0422GB/1GB25GBDocker containers:
portainer
watchtower
traefik
oauth
pihole
openvpn-as
guacamole
ubuntu2Ubuntu 20.0448GB/6GB100GBDocker containers:
portainer
watchtower
mariadb
nextcloud
transmission
samba
radarr
sonarr
plexmediaserver
firefly
apache webserver
phpmyadmin
win10Windows 1048GB/6GB250GBWerkstation (via RDP)
hassHass.OS24GB/2GB25GBHome Assistant
----100GBreserve


Ik wil de cruciale containers op een aparte vm draaien (ubuntu1) zodat deze geen hinder ondervinden van issues/reboots/onderhoud van de andere vms.
Uiteindelijk wil ik ook een NAS met ZFS RAIDZ-1 op basis van 3 2,5" hdds. Ik zit te denken aan OpenMediaVault als server. Doel is backups en media storage.

Ik zou wat advies willen hebben over het volgende:
  1. Wat vinden jullie van deze indeling van VMs? Hebben jullie tips en/of aandachtsputnen? Wat kan ik beter doen?
  2. Is de verdeling van resources OK zo (CPU, RAM, disk space)?
  3. Wat zijn best-practices mbt netwerk (VLANs) met een dergelijke indeling?
  4. Is het verstandig om een deel van de SDD gereserveerd te houden voor toekomstige vms? Of kan ik tzt eenvoudig afsnoepen van andere vms?
  5. IS OpenMediaVault een goede keuze in deze opstelling? Is het verstandig om de NAS op een aparte VM te draaien? Of kan dit bij op de ubuntu2 vm? Of kan het direct direct op PVE (want Debian las ik ergens)?
toon volledige bericht
Kan iemand mij nog wat advies geven over mijn situatie. Ik ben er wat vraag 1 betreft wel uit (ik ga eerst mijn voorgestelde VM indeling proberen), maar voor de andere vragen heb ik nog geen idee.

Acties:
  • 0 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 21-06 09:03

Harmen

⭐⭐⭐⭐⭐⭐

Draai zelf al een tijdje Proxmox, ideaal! Groot voordeel vind ik de linux containers.
Host: Dell 3040M, Intel G3900T, 8GB en 500GB SSD, trekt 7-8Watt.

Zelf heb ik een aantal containers, meer spielerij.
-2 x AdGuardHome
-Energiemeter voor mn HS110
-Plexserver
-Smokeping

@BroWnStaR Is het niet handiger om aparte containers aan te maken, lxc containers? Deze heb je in 30sec klaar staan. :)

[ Voor 9% gewijzigd door Harmen op 08-12-2020 14:45 ]

Whatever.


Acties:
  • 0 Henk 'm!

  • BroWnStaR
  • Registratie: September 2003
  • Laatst online: 03-06 06:54
Ik lees op verschillende fora dat men voor application containers een aparte VM met docker adviseert, zie ook de officiële Proxmox wiki: https://pve.proxmox.com/wiki/Linux_Container
If you want to run application containers, for example, Docker images, it is recommended that you run them inside a Proxmox Qemu VM. This will give you all the advantages of application containerization, while also providing the benefits that VMs offer, such as strong isolation from the host and the ability to live-migrate, which otherwise isn’t possible with containers.
Of bedoel je LXC containers voor de Ubuntus en OpenMediaVault? Ik vind het nogal verwarrend, zoals je merkt... :?

Acties:
  • 0 Henk 'm!

  • Harmen
  • Registratie: Oktober 1999
  • Laatst online: 21-06 09:03

Harmen

⭐⭐⭐⭐⭐⭐

Sorry, daar kan ik je niet mee helpen. Docker heb ik geen ervaring mee. ;)
Gebruik lxc voor simpele dingen zoals een adblocker etc.

Whatever.


Acties:
  • 0 Henk 'm!

  • BroWnStaR
  • Registratie: September 2003
  • Laatst online: 03-06 06:54
Hierbij nog een Tweak blog die een soortgelijke situatie beschrijft als waar ik op doel: K-Jay's knutselavonturen: Home Assistant op je NUC met Proxmox
Proxmox met hierop een HassOS VM en een aparte Ubuntu "container" voor Docker. Ik vermoed dat met de Ubuntu "container" een LXC container wordt bedoeld.

Wellicht ontstaat door het dubbele gebruik van het woord "container" de verwarring... Er bestaat toch niet zoiets als een LXC application container (e.g. een apache2 LXC container)? Een LXC container is toch altijd een compleet OS? Of begrijp ik dit verkeerd?

Acties:
  • +1 Henk 'm!

  • Miki
  • Registratie: November 2001
  • Nu online
BroWnStaR schreef op dinsdag 8 december 2020 @ 14:55:
Ik lees op verschillende fora dat men voor application containers een aparte VM met docker adviseert, zie ook de officiële Proxmox wiki: https://pve.proxmox.com/wiki/Linux_Container


[...]


Of bedoel je LXC containers voor de Ubuntus en OpenMediaVault? Ik vind het nogal verwarrend, zoals je merkt... :?
Wellicht verschaft dit filmpje je meer duidelijkheid:

Toestemming nodig voor bekijken van YouTube

Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.

Bekijk op YouTube
Virtualize vs. Containerize (Which should I choose?)


Naar mijn mening kun je een deel van je beoogde applicaties direct als LXC draaien ipv in een VM icm met docker. Het voegt in mijn ogen weinig toe dan een extra laag. Tenzij je echt niet zonder Docker kunt leven zou ik een deel van je applicaties als LXC draaien direct op je Proxmox Node.

[ Voor 11% gewijzigd door Miki op 08-12-2020 15:41 ]


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

DRAFTER86 schreef op dinsdag 8 december 2020 @ 01:21:
[...]


Draait hier al jaren prima met 1x128GB SSD in een i5 NUC. Als je gewoon zorgt voor goede off-site backups (moet je m.i sowieso) is er niks aan de hand. De eventuele performance nadelen heb ik me niet in verdiept. Ook kan het gebeuren dat je containers/VM's de disk laten vollopen, dat vind je OS niet leuk. Volgens mij heb ik dat 1x gehad, gewoon even van USB booten en de ZFS pool opruimen. (Ik ga er vanuit dat je ZFS wil draaien)
Miki schreef op dinsdag 8 december 2020 @ 07:54:
[...]

Het ligt eraan wat je ermee wilt gaan doen natuurlijk. Voor huis, tuin en keukengebruik kun je prima uit de voeten met een single drive setup in Ext4 en eventueel een externe hardeschijf om een backup te maken van je VM’s en containers.

Zo’n setup zal geen snelheidsrecords breken maar als je ziet wat je op een eenvoudige raspberry pi icm docker al kunt draaien dan kun je je voorstellen dat een eenvoudige server setup ruimschoots zal voldoen voor thuissituaties.
Goed om te weten, het is voor huis, tuin en keuken gebruik idd en er zal een backup gemaakt worden naar de NAS. Ik heb in de tussentijd nog een nutteloos Kingston 60GB SATA SSD'tje gevonden die ik dan maar voor het OS in ga zetten.

Qua filesystem, met een single disk in een storage pool zat ik te twijfelen tussen XFS en ZFS, moet me nog een beetje verdiepen in de verschillen. EXT4 is volgens mij een bak langzamer als ik me dat herinner van vroegere tijden, of is dat inmiddels een achterhaalde gedachtegang? Anyways, ik heb weer wat om me over in te lezen. Naast de discussie betreft LXC van hierboven :)

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • 0 Henk 'm!

  • BroWnStaR
  • Registratie: September 2003
  • Laatst online: 03-06 06:54
[quote]Miki schreef op dinsdag 8 december 2020 @ 15:36:
[...]

Het filmpje heb ik bekeken en bevestigt wat ik al begreep van bare-metal, virtualisatie en containers. Echter, met het filmpje wordt mij nog steeds niet duidelijk welke rol(len) LXCs kunnen betekenen.

Bedankt voor het advies om de optie voor LXC containers te overwegen. Hier ga ik mij meer in verdiepen.

Acties:
  • +1 Henk 'm!

  • zx9r_mario
  • Registratie: Oktober 2004
  • Laatst online: 21-06 23:00
Sp33dFr34k schreef op dinsdag 8 december 2020 @ 15:45:
[...]


[...]

Qua filesystem, met een single disk in een storage pool zat ik te twijfelen tussen XFS en ZFS, moet me nog een beetje verdiepen in de verschillen. EXT4 is volgens mij een bak langzamer als ik me dat herinner van vroegere tijden, of is dat inmiddels een achterhaalde gedachtegang? Anyways, ik heb weer wat om me over in te lezen. Naast de discussie betreft LXC van hierboven :)
ZFS heeft paar voordelen:

- Live snapshots en backups maken met LXC
- LZ4 compressie
- ZFS snapshot replicatie

Acties:
  • 0 Henk 'm!

  • zamaz
  • Registratie: November 2004
  • Laatst online: 12-06-2024
Na het opzetten van een Proxmox PVE 6.3 om testen te vielen de prestaties van de netwerkverbinding tegen. Na wat testen met iperf3 werd dit bevestigd:

[ ID] Interval Transfer Bandwidth
[ 5] 0.00-10.00 sec 219 MBytes 22.0 MBytes/sec sender
[ 5] 0.00-10.00 sec 220 MBytes 22.0 MBytes/sec receiver

Zelfde test uitgevoerd met PVE 6.2 waren de resultaten al wat beter maar nog steeds niet wat je van een gigabite verbinding mag verwachten:

[ ID] Interval Transfer Bandwidth
[ 5] 0.00-10.00 sec 589 MBytes 58.8 MBytes/sec sender
[ 5] 0.00-10.00 sec 588 MBytes 58.8 MBytes/sec receiver

Ook heb ik dit getest met Debian met ongeveer het zelfde resultaat. Ubuntu lag op lijn met PVE6.2
Nadat ik het gevoel kreeg dat het zich voordeed bij op Debian gebaseerde distros, heb ik de zelfde test gedaan met Fedora en Centos. Hierbij werd wel de volle Gigabite snelheid gehaald als ook bij Windows 10.

Dit is allemaal op zowel beide onboard als met de HP netwerkkaart getest, maar dat maakte geen verschil.

Iemand enig idee wat hier speelt of waarin dit kan liggen. Het lijkt mij een driver ding.

Hardware:
Fujitsu TX300 S8
2x Xeon E5-2670v2
64GB ram
2x Intel Corporation I350 Gigabit Network Connection (onboard)
1x HP NC350T netwerk kaart 4 poorten
2x Samsung EVO 850 SSD 250GB

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Nog een vraag; ik lees op verschillende plaatsen dat het gebruik van een consumenten SSD een (behoorlijk volgens sommigen) risico met zich meebrengt in de vorm van wearout. Hoe erg is dit in de praktijk? En wat zou een goede datacenter grade (NVME) SSD zijn?

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • +2 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 10:09
Sp33dFr34k schreef op woensdag 9 december 2020 @ 09:05:
Nog een vraag; ik lees op verschillende plaatsen dat het gebruik van een consumenten SSD een (behoorlijk volgens sommigen) risico met zich meebrengt in de vorm van wearout. Hoe erg is dit in de praktijk? En wat zou een goede datacenter grade (NVME) SSD zijn?
Ik zou me er niet druk om maken.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +2 Henk 'm!

  • krijn1985
  • Registratie: Januari 2006
  • Laatst online: 11:15
Sp33dFr34k schreef op woensdag 9 december 2020 @ 09:05:
Nog een vraag; ik lees op verschillende plaatsen dat het gebruik van een consumenten SSD een (behoorlijk volgens sommigen) risico met zich meebrengt in de vorm van wearout. Hoe erg is dit in de praktijk? En wat zou een goede datacenter grade (NVME) SSD zijn?
Ik heb nu iets meer dan 3 jaar een Crucial MX300 m.2 van 500GB in gebruik en wearout is volgens Proxmox 11%. Ding staat 24/7 aan en zowel desktop als Docker vm's staan hier gewoon op.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
CurlyMo schreef op donderdag 26 november 2020 @ 17:53:
@A1AD Kan je iets meer vertellen over het upgraden van OpenWRT in je LXC container zonder je configuratie te verliezen?
Dit heb ik bij de opzet getest en neergeschreven:
Enigste "nadeel" is dat de sysupgrade niet werkt, maar dat heb ik eenvoudig kunnen oplossen door mijn build script dat op en Debian LXC staat zo aan te passen dat hij eerst al de config files gaat halen via SCP van de huidige live OpenWRT LXC en zo een versie build met de laatste wijzigingen. Eens de build ok, maak je hiermee dan en nieuwe LXC aan (1 commando), stop je de oude en start je de nieuwe.
Ik ben nog niet van .3 > .4 gegaan, als ik is tijd heb zal ik direct upgraden naar .5

Heb jij ondertussen een beter upgrade strategie gevonden?

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 10:09
A1AD schreef op woensdag 9 december 2020 @ 11:01:
[...]


Dit heb ik bij de opzet getest en neergeschreven
Klopt, wil je misschien ook de scripts delen?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
CurlyMo schreef op woensdag 9 december 2020 @ 11:05:
[...]

Klopt, wil je misschien ook de scripts delen?
Dat is heel rudimentair:

code:
1
2
3
4
5
6
7
8
9
scp -P 2222 root@192.168.1.1:/etc/haproxy.cfg /root/openwrt/lxd-openwrt/files/etc
scp -P 2222 root@192.168.1.1:/etc/ethers /root/openwrt/lxd-openwrt/files/etc
scp -P 2222 root@192.168.1.1:/etc/passwd /root/openwrt/lxd-openwrt/files/etc
scp -P 2222 root@192.168.1.1:/etc/shadow /root/openwrt/lxd-openwrt/files/etc
scp -P 2222 root@192.168.1.1:/etc/config/* /root/openwrt/lxd-openwrt/files/etc/config
scp -P 2222 root@192.168.1.1:/etc/dropbear/* /root/openwrt/lxd-openwrt/files/etc/dropbear
scp -P 2222 root@192.168.1.1:/etc/openvpn/* /root/openwrt/lxd-openwrt/files/etc/openvpn

./build.sh -a x86_64 -t plain -p "luci-ssl  mc nano curl ipset resolveip ip-full kmod-ipt-ipset iptables vpn-policy-routing luci-app-vpn-policy-routing luci-app-ddns luci-app-sqm luci-app-banip luci-app-wireguard luci-app-https-dns-proxy nmap tcpdump openssh-sftp-server haproxy mini_snmpd"

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +1 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

krijn1985 schreef op woensdag 9 december 2020 @ 10:18:
[...]


Ik heb nu iets meer dan 3 jaar een Crucial MX300 m.2 van 500GB in gebruik en wearout is volgens Proxmox 11%. Ding staat 24/7 aan en zowel desktop als Docker vm's staan hier gewoon op.
Top, ipv een oude 256gb wd black heb ik een verse ssd besteld, 500gb mx500 voor €55 is niet te duur.

Nou, verder met uitzoeken... Portainer vs Rancher/Kubernetes. Zo op het eerste gezicht voldoet Portainer prima en het is een stuk eenvoudiger, even nog wat meer inlezen :)

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • +2 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
CurlyMo schreef op woensdag 9 december 2020 @ 11:05:
[...]

Klopt, wil je misschien ook de scripts delen?
Ik heb net geupgrade van .3 naar .5 zonder problemen. Dit zijn mijn notities:

Op de build server script uitvoeren:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
owrt_build_version=19.07.5
build_path=/root/openwrt/lxd-openwrt
remote_host=192.168.1.1
pve_host=192.168.1.90

rm -rf $build_path/files/*

rsync -aP -e 'ssh -p 2222' root@$remote_host:/etc/haproxy.cfg $build_path/files/etc/
rsync -aP -e 'ssh -p 2222' root@$remote_host:/etc/ethers $build_path/files/etc/
rsync -aP -e 'ssh -p 2222' root@$remote_host:/etc/shadow $build_path/files/etc/
rsync -aP -e 'ssh -p 2222' root@$remote_host:/etc/config/ $build_path/files/etc/config
rsync -aP -e 'ssh -p 2222' root@$remote_host:/etc/dropbear/ $build_path/files/etc/dropbear
rsync -aP -e 'ssh -p 2222' root@$remote_host:/etc/openvpn/ $build_path/files/etc/openvpn
rsync -aP -e 'ssh -p 2222' root@$remote_host:/etc/crontabs/ $build_path/files/etc/crontabs
rsync -aP -e 'ssh -p 2222' root@$remote_host:/root/ $build_path/files/root

rm -rf $build_path/dl/packages/*

$build_path/build.sh -v $owrt_build_version -a x86_64 -t plain -p "luci-ssl  mc nano curl ipset resolveip ip-full kmod-ipt-ipset iptables vpn-policy-routing luci-app-vpn-policy-routing luci-app-ddns luci-app-sqm luci-app-banip luci-app-wireguard luci-app-https-dns-proxy nmap tcpdump openssh-sftp-server haproxy mini_snmpd rsync"

scp $build_path/bin/openwrt-$owrt_build_version-x86-64-plain.tar.gz root@$pve_host:/var/lib/vz/template/cache/


Op de PVE host:

code:
1
pct create 119 openwrt-19.07.5-x86-64-plain.tar.gz --ostype unmanaged --hostname OpenWRT-Main --arch amd64 --cores 2 --memory 256 --swap 0 --storage local-zfs -unprivileged 1


- Inhoud van de oude LXCID.conf copieren van "/etc/pve/lxc/id.conf" naar de nieuwe (behalve het rootfs)
- Oude LXC stoppen
- Nieuwe starten / stoppen
- Backup maken nieuwe > restoren naar unpriv lxc (je kan ook restoren naar de huidige openwrt LXC, maar ik vind het wel prettig om een nieuwe aan te maken en de oude even bij te houden)
- Starten
edit: -unprivileged 1 aan het pct commando toegevoegd.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +1 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Laatst online: 10:09
A1AD schreef op zondag 13 december 2020 @ 23:03:
[...]


Ik heb net geupgrade van .3 naar .5 zonder problemen. Dit zijn mijn notities:
Werkt perfect met wat kleine aanpassingen voor mijn situatie :)

Sinds de 2 dagen regel reageer ik hier niet meer


  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Ok, wellicht een stomme vraag, maar kon geen eenduidig antwoord vinden. Heeft Proxmox baat bij hyperthreading? M.a.w. kun je een VM 1 thread assignen ipv 1 core? Of is dat vrij nutteloos?

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • +1 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 21-06 23:24
Sp33dFr34k schreef op donderdag 17 december 2020 @ 15:33:
Ok, wellicht een stomme vraag, maar kon geen eenduidig antwoord vinden. Heeft Proxmox baat bij hyperthreading? M.a.w. kun je een VM 1 thread assignen ipv 1 core? Of is dat vrij nutteloos?
Zover ik kan beoordelen wel, Proxmox ziet elke thread als een aparte core die je kan inzetten.

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Ok, net Proxmox geïnstalleerd, ik krijg verschillende foutmeldingen en wilde even checken of dat normaal is.

Deze kreeg ik bij het aanmaken van local storage op een nieuwe M2 NVME drive (ZFS):

code:
1
2
3
4
5
# /sbin/zpool create -o ashift=12 Local-Proxmox /dev/disk/by-id/nvme-Samsung_SSD_970_EVO_Plus_500GB_S4EVNX0NB61111Z
# /sbin/zfs set compression=on Local-Proxmox
# systemctl enable zfs-import@Local\x2dProxmox.service
Created symlink /etc/systemd/system/zfs-import.target.wants/zfs-import@Local\x2dProxmox.service -> /lib/systemd/system/zfs-import@.service.
TASK ERROR: 400 Result verification failed config: type check ('object') failed


Deze kreeg (en krijg ik nog steeds) bij het refreshen onder Updates:

code:
1
2
3
4
5
6
7
8
9
10
starting apt-get update
Hit:1 http://ftp.nl.debian.org/debian buster InRelease
Hit:2 http://ftp.nl.debian.org/debian buster-updates InRelease
Hit:3 http://security.debian.org buster/updates InRelease
Err:4 https://enterprise.proxmox.com/debian/pve buster InRelease
  401  Unauthorized [IP: 212.224.123.70 443]
Reading package lists...
E: Failed to fetch https://enterprise.proxmox.com/debian/pve/dists/buster/InRelease  401  Unauthorized [IP: 212.224.123.70 443]
E: The repository 'https://enterprise.proxmox.com/debian/pve buster InRelease' is not signed.
TASK ERROR: command 'apt-get update' failed: exit code 100


Moet ik hier verder iets mee?

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • +2 Henk 'm!

  • Mschamp
  • Registratie: April 2014
  • Laatst online: 09:13
Sp33dFr34k schreef op vrijdag 18 december 2020 @ 19:47:
Ok, net Proxmox geïnstalleerd, ik krijg verschillende foutmeldingen en wilde even checken of dat normaal is.

Deze kreeg ik bij het aanmaken van local storage op een nieuwe M2 NVME drive (ZFS):

code:
1
2
3
4
5
# /sbin/zpool create -o ashift=12 Local-Proxmox /dev/disk/by-id/nvme-Samsung_SSD_970_EVO_Plus_500GB_S4EVNX0NB61111Z
# /sbin/zfs set compression=on Local-Proxmox
# systemctl enable zfs-import@Local\x2dProxmox.service
Created symlink /etc/systemd/system/zfs-import.target.wants/zfs-import@Local\x2dProxmox.service -> /lib/systemd/system/zfs-import@.service.
TASK ERROR: 400 Result verification failed config: type check ('object') failed


Deze kreeg (en krijg ik nog steeds) bij het refreshen onder Updates:

code:
1
2
3
4
5
6
7
8
9
10
starting apt-get update
Hit:1 http://ftp.nl.debian.org/debian buster InRelease
Hit:2 http://ftp.nl.debian.org/debian buster-updates InRelease
Hit:3 http://security.debian.org buster/updates InRelease
Err:4 https://enterprise.proxmox.com/debian/pve buster InRelease
  401  Unauthorized [IP: 212.224.123.70 443]
Reading package lists...
E: Failed to fetch https://enterprise.proxmox.com/debian/pve/dists/buster/InRelease  401  Unauthorized [IP: 212.224.123.70 443]
E: The repository 'https://enterprise.proxmox.com/debian/pve buster InRelease' is not signed.
TASK ERROR: command 'apt-get update' failed: exit code 100


Moet ik hier verder iets mee?
toon volledige bericht
De onderste is voor zover ik weet normaal: de onderste updates zijn enkel voor geregistreerde installaties van daar de 'enterprise.proxmox'

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Mschamp schreef op vrijdag 18 december 2020 @ 19:53:
[...]

De onderste is voor zover ik weet normaal: de onderste updates zijn enkel voor geregistreerde installaties van daar de 'enterprise.proxmox'
Dankje. V.w.b. de andere melding heb ik gegoogled en kwam uit op een topic waar de dev zei dat het puur cosmetisch was die error, en het dus verder geen problemen veroorzaakt. Daar gaan we dan dus maar vanuit :) Momenteel een W10 VM aan het opzetten, ben benieuwd!

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • +1 Henk 'm!

  • Koepert
  • Registratie: Augustus 2013
  • Laatst online: 21-06 19:46
Sp33dFr34k schreef op vrijdag 18 december 2020 @ 20:25:
[...]


Dankje. V.w.b. de andere melding heb ik gegoogled en kwam uit op een topic waar de dev zei dat het puur cosmetisch was die error, en het dus verder geen problemen veroorzaakt. Daar gaan we dan dus maar vanuit :) Momenteel een W10 VM aan het opzetten, ben benieuwd!
Die enterprise error kun je ook uitzetten. Staat wel ergens benoemd. Volgens mij zelfs hier. Volgens mij in je /etc/sources/lists file waar Proxmox dus kijkt welke updates hij checkt. Zie hier. https://www.caretech.io/2...ut-buying-a-subscription/

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Koepert schreef op vrijdag 18 december 2020 @ 22:04:
[...]


Die enterprise error kun je ook uitzetten. Staat wel ergens benoemd. Volgens mij zelfs hier. Volgens mij in je /etc/sources/lists file waar Proxmox dus kijkt welke updates hij checkt. Zie hier. https://www.caretech.io/2...ut-buying-a-subscription/
Thanks!

Nieuwe vraag; hoe reinstall je Windows 10 binnen een VM? Of is de enige optie een nieuwe VM aanmaken? Vraag schoot me even te binnen vanwege het feit dat je een W10 key bind aan een specifieke VM instantie. Dus VM kapot = weg licentie?

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40


Acties:
  • +1 Henk 'm!

  • Zenix
  • Registratie: Maart 2004
  • Laatst online: 02:40

Zenix

BOE!

Hmmbob schreef op maandag 7 december 2020 @ 17:17:
[...]

Ok, dit roept iedereen altijd, MAAR HOE DAN 8)7 :> O+

Ik krijg het maar niet gevonden. Heb nu ook een Debian VM als docker-host draaien.... Adguard draait dan weer wel in een (debian) CT.
Ik heb gewoon een LXC container (Debian) voor Docker, werkt al maanden prima:
https://discuss.linuxcont...container-in-proxmox/3828

Dit heb ik gedaan:

#1 Docker installeren
#2 LXC config aanpasen en dit erbij zetten:
features: keyctl=1,nesting=1
#3 LXC rebooten en testen

[ Voor 13% gewijzigd door Zenix op 19-12-2020 21:51 ]


Acties:
  • +1 Henk 'm!

  • Kraz
  • Registratie: November 2003
  • Nu online

Kraz

Saving the world

Sp33dFr34k schreef op zaterdag 19 december 2020 @ 21:43:
[...]


Thanks!

Nieuwe vraag; hoe reinstall je Windows 10 binnen een VM? Of is de enige optie een nieuwe VM aanmaken? Vraag schoot me even te binnen vanwege het feit dat je een W10 key bind aan een specifieke VM instantie. Dus VM kapot = weg licentie?
Ik denk dat je dan beter dit kunt doen?
How to refresh, reset, or restore your PC

Acties:
  • +1 Henk 'm!

  • ElMacaroni
  • Registratie: November 2012
  • Nu online

ElMacaroni

Laat de zon maar komen!

Sp33dFr34k schreef op zaterdag 19 december 2020 @ 21:43:
[...]

Nieuwe vraag; hoe reinstall je Windows 10 binnen een VM? Of is de enige optie een nieuwe VM aanmaken? Vraag schoot me even te binnen vanwege het feit dat je een W10 key bind aan een specifieke VM instantie. Dus VM kapot = weg licentie?
VM kapot als in?
Als Windows fubar is dan steek je er een ISO tegenaan en doet een reinstall op dezelfde VM, dan activeert 'ie 'm gewoon weer.

Maar de truuk is natuurlijk snapshot voor je gaat experimenteren in je VM en rollback als het mis gaat.
Sanoid is ook leuk!

SE2200+14xSF170S & SE1500M+4xTSM-375

Pagina: 1 ... 13 ... 57 Laatste