Ok duidelijk! Ik probeer het dan via ethernet.
Ik zal ook eens kijken hoe ik mijn proxmox een static IP kan geven.
Ik zal ook eens kijken hoe ik mijn proxmox een static IP kan geven.
Ik heb de forumpost ook nagelezen, maar wat voor DNS servers heb je ingesteld? Want ik zie daar niks van terug in jouw pct output:smeerbartje schreef op woensdag 1 februari 2023 @ 18:42:
Ik heb een probleem met mijn proxmox home servertje. Hierop draaien een drie-tal VMs. Allemaal prima; Ubuntu erop en een aantal docker containers in die VMs.
Alleen nu wil ik een LXC container in het leven roepen; ik heb daarvoor het standaard Ubuntu 22.04 template gebruikt. Maar wat ik ook doe, ik krijg het NIET voor elkaar om de LXC container een verbinding te laten maken met de buitenwereld. De LXC kan wél pingen met de host, met mijn gateway en met andere devices in het netwerk. Echter "naar buiten toe" lukt me simpelweg niet.
Ik heb hiervoor ook een topic aangemaakt in het Proxmox forum zelf, maar daar is weinig response. Ik dacht ik probeer het hier ook even; want ikzelf ben eigenlijk out-of-debug opties.
1
2
3
4
5
6
7
8
9
10
11
| root@pve:~# pct config 113 arch: amd64 cores: 1 features: nesting=1 hostname: unifi memory: 512 net0: name=eth0,bridge=vmbr0,firewall=1,gw=192.168.1.1,hwaddr=0E:34:6B:07:FF:90,ip=192.168.1.13/24,type=veth ostype: ubuntu rootfs: local-lvm:vm-113-disk-0,size=8G swap: 512 unprivileged: 1 |
Ik ben het op een NUC aan het installeren met een ethernet kabel. Wilt dit dan zeggen dat ik hem niet ga kunnen bereiken via het internet als ik bv mijn plex server wil aanroepen ergens anders dan thuis?rachez schreef op vrijdag 3 februari 2023 @ 17:03:
@MakhouT , hij installeert het op een linode cloud server, vandaar dat hij benaderbaar is vanaf het inet. Jij moet gewoon een lan adress opgeven als je proxmox op een pc in je lan installeert.
en ja daar moet je eno1 kiezen en niet je wifi netwerk.
Er zijn meerdere manieren om dat mogelijk te maken, maar bij deze installatiestap moet je gewoon het lokale lan ip opgeven.MakhouT schreef op vrijdag 3 februari 2023 @ 17:07:
[...]
Ik ben het op een NUC aan het installeren met een ethernet kabel. Wilt dit dan zeggen dat ik hem niet ga kunnen bereiken via het internet als ik bv mijn plex server wil aanroepen ergens anders dan thuis?
Als je hem perse van buitenaf beschikbaar wilt maken zou je dat het beste middels vpn kunnen doen.MakhouT schreef op vrijdag 3 februari 2023 @ 16:51:
Ik heb net terug een nieuwe installatie gedaan van proxmox omdat ik het de laatste keer heb gedaan zonder ethernet.
Maar ik zit met het volgende:
Ik ben een course aan het volgen op youtube en op 17:12 heeft die persoon een bepaalde ip adres dat precies beschikbaar is van buitenaf? Terwijl ik enkel een lokaal ip adres toegewezen krijg dat begint met 192.168...
Ik heb een foto getrokken van mijn settings.
Doe ik hier nog iets verkeerd dan?
[Afbeelding]
En bovendien bij management interface, ik veronderstel dat ik eno1 moet kiezen voor ethernet ipv wlp0s20f3
Over het algemeen wil je de proxmox server zeg niet over internet exposen. Als je dat echt wilt, kun je beter een vpn gebruiken. Daarmee kun je ook evt vm en lxc benaderen.Anoniemand schreef op vrijdag 3 februari 2023 @ 17:15:
[...]
Er zijn meerdere manieren om dat mogelijk te maken, maar bij deze installatiestap moet je gewoon het lokale lan ip opgeven.
Eens. Wilde daar alleen nu nog niet te ver op in gaan, gezien het nog om de installatie van Proxmox ging. Maar VPN zou ook mijn voorkeursmogelijkheid zijn om toegang daartoe te verschaffen en Plex idd via een reverse proxy.htca schreef op vrijdag 3 februari 2023 @ 21:32:
[...]
Over het algemeen wil je de proxmox server zeg niet over internet exposen. Als je dat echt wilt, kun je beter een vpn gebruiken. Daarmee kun je ook evt vm en lxc benaderen.
Andere optie is om een proxy manager op te zetten en alleen bepaalde poorten open te zetten (80/443)
Daar kunnen wij geen eenduidig antwoord op geven. Maar... als je geen Proxmox zou gebruiken, zou je dan meerdere servers kopen om op 1 server Plex te zetten, en een volgende server voor Radarr, en nog een server voor Sonarr, en een vierde server voor...? Of zou je dan alles op 1 server zetten? Of zou je bv voor 2 servers gaan waarbij eentje dienst doet als Plex server en eentje als "download server"? Immers moet je een LXC / VM zien als een losse server. Zou je zonder "virtuele server" (middels LXC of VM) ook ervoor kiezen om voor aparte fysieke servers te gaan?MakhouT schreef op zaterdag 4 februari 2023 @ 13:12:
De installatie dus afgerond en nu even verder kijken met die tutorial wat ik moet kiezen voor een container of een VM
Wat ik me wel afvraag als ik plex wil installeren met bv radarr, sonar, medusa etc moet ik dan elke applicatie op zijn eigen vm/container draaien of draai ik alles rondom plex op een eigen container/vm?
*Ik zeg nog "container/vm" omdat ik nog niet weet de welke dat ik ga kiezen, daarvoor ga ik de tutorial video's dit weekend even verder bekijken, dat is les 4
Nee ik zou 1 server kopen en daar alles op draaien. Maar dat doe ik nu toch ook al? Ik heb 1 NUC gekocht om alles daarop te draaien.RobertMe schreef op zaterdag 4 februari 2023 @ 14:37:
[...]
Daar kunnen wij geen eenduidig antwoord op geven. Maar... als je geen Proxmox zou gebruiken, zou je dan meerdere servers kopen om op 1 server Plex te zetten, en een volgende server voor Radarr, en nog een server voor Sonarr, en een vierde server voor...? Of zou je dan alles op 1 server zetten? Of zou je bv voor 2 servers gaan waarbij eentje dienst doet als Plex server en eentje als "download server"? Immers moet je een LXC / VM zien als een losse server. Zou je zonder "virtuele server" (middels LXC of VM) ook ervoor kiezen om voor aparte fysieke servers te gaan?
[ Voor 22% gewijzigd door MakhouT op 04-02-2023 14:43 ]
Ik heb voor de grap een tijdje het volgende gedaan :MakhouT schreef op zaterdag 4 februari 2023 @ 13:12:
De installatie dus afgerond en nu even verder kijken met die tutorial wat ik moet kiezen voor een container of een VM
Wat ik me wel afvraag als ik plex wil installeren met bv radarr, sonar, medusa etc moet ik dan elke applicatie op zijn eigen vm/container draaien of draai ik alles rondom plex op een eigen container/vm?
*Ik zeg nog "container/vm" omdat ik nog niet weet de welke dat ik ga kiezen, daarvoor ga ik de tutorial video's dit weekend even verder bekijken, dat is les 4
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Gebruik zelf de TOTP functionaliteit ism mijn passwordmanager (Bitwarden).ZatarraNL schreef op zaterdag 4 februari 2023 @ 09:17:
Ik heb zelfs een Proxmox cluster over vpn draaien. Dat gaat prima.
Maar het triggert me wel even: mijn Proxmox is alleen via lan bereikbaar, maar gevoelsmatig is inloggen met alleen naam en wachtwoord beperkt veilig. Is er iemand die 2fa gebruikt? Bijvoorbeeld met een yubikey? Ik heb het nog niet aangedurfd.
orvintax schreef op zaterdag 4 februari 2023 @ 15:42:
[...]
Gebruik zelf de TOTP functionaliteit ism mijn passwordmanager (Bitwarden).
Er is geen goed of fout, of eigenlijk het is alleen fout als het niet (lekker) werkt voor jou.... Ik zou vooral een poosje spelen en kijken wat voor jou werkt.RobertMe schreef op zaterdag 4 februari 2023 @ 14:37:
[...]
Daar kunnen wij geen eenduidig antwoord op geven. Maar... als je geen Proxmox zou gebruiken, zou je dan meerdere servers kopen om op 1 server Plex te zetten, en een volgende server voor Radarr, en nog een server voor Sonarr, en een vierde server voor...? Of zou je dan alles op 1 server zetten? Of zou je bv voor 2 servers gaan waarbij eentje dienst doet als Plex server en eentje als "download server"? Immers moet je een LXC / VM zien als een losse server. Zou je zonder "virtuele server" (middels LXC of VM) ook ervoor kiezen om voor aparte fysieke servers te gaan?
Waarom heb je die bewuste splitsing gemaakt?htca schreef op zaterdag 4 februari 2023 @ 17:50:
[...]
Er is geen goed of fout, of eigenlijk het is alleen fout als het niet (lekker) werkt voor jou.... Ik zou vooral een poosje spelen en kijken wat voor jou werkt.
Ik heb een aantal dingen juist in LXC (bijv adguard/Nginx/webcrawler) staan en een aantal bewust als VM staan (bijv. Home assistant/nextcloud).
Bij Home Assistant kan ik mij indenken dat @htca HAOS draait. Dat is gewoon een kant en klaar OS met Home Assistant en verschillende "addons" die je eenvoudig kunt installeren.MakhouT schreef op zaterdag 4 februari 2023 @ 18:11:
[...]
Waarom heb je die bewuste splitsing gemaakt?
Ja hoor werkt prima, mocht je overhoop er problemen mee hebben. Dan kun je dit ongedaan maken via cli als je achter de machine zit of via ilo of zoiets.ZatarraNL schreef op zaterdag 4 februari 2023 @ 09:17:
Ik heb zelfs een Proxmox cluster over vpn draaien. Dat gaat prima.
Maar het triggert me wel even: mijn Proxmox is alleen via lan bereikbaar, maar gevoelsmatig is inloggen met alleen naam en wachtwoord beperkt veilig. Is er iemand die 2fa gebruikt? Bijvoorbeeld met een yubikey? Ik heb het nog niet aangedurfd.
Eigenlijk vanuit de filosofie, het liefst in een LXC als het kan, VM als het moet. Maar voor nextcloud (wilde vanuit een schoon besturingsysteem op zetten en draait nog als proef, had ook al nextcloudpi geprobeerd) en Homeassistant (supervisor) wilde ik wat meer controle wat ik niet of minder in LXC voor elkaar kreeg. Alternatief was geweest om nginx bijv binnen HA te draaien. Zelf nog wel eens bedacht om zigbee2mqtt en mqtt buiten HA te zetten zodat als HA een keer plat ligt de boel middels bindings wel door werkt (is beter voor de WAF)....MakhouT schreef op zaterdag 4 februari 2023 @ 18:11:
[...]
Waarom heb je die bewuste splitsing gemaakt?
Goeie. En dan eigenlijk ook nog cli ssh login met 2fa... Schijnt ook mogelijk te zijn.powerboat schreef op zaterdag 4 februari 2023 @ 19:20:
[...]
Ja hoor werkt prima, mocht je overhoop er problemen mee hebben. Dan kun je dit ongedaan maken via cli als je achter de machine zit of via ilo of zoiets.
Moet volgens mij ook kunnen met een yubikey. Toch maar eens een keer uitzoeken.orvintax schreef op zaterdag 4 februari 2023 @ 15:42:
[...]
Gebruik zelf de TOTP functionaliteit ism mijn passwordmanager (Bitwarden).
@orvintax and @ronjon , ik ben een sukkel.orvintax schreef op woensdag 1 februari 2023 @ 22:22:
[...]
Ik heb de forumpost ook nagelezen, maar wat voor DNS servers heb je ingesteld? Want ik zie daar niks van terug in jouw pct output:
code:
1 2 3 4 5 6 7 8 9 10 11 root@pve:~# pct config 113 arch: amd64 cores: 1 features: nesting=1 hostname: unifi memory: 512 net0: name=eth0,bridge=vmbr0,firewall=1,gw=192.168.1.1,hwaddr=0E:34:6B:07:FF:90,ip=192.168.1.13/24,type=veth ostype: ubuntu rootfs: local-lvm:vm-113-disk-0,size=8G swap: 512 unprivileged: 1
htca schreef op zaterdag 4 februari 2023 @ 19:22:
Zelf nog wel eens bedacht om zigbee2mqtt en mqtt buiten HA te zetten zodat als HA een keer plat ligt de boel middels bindings wel door werkt (is beter voor de WAF).....
QEMU is sowieso VM oplossing toch? Wat dus meteen flink wat overhead geeft ten opzichte van lean & mean LXC waarbij je niet een volledig OS extra draait (maar alleen de software, zonder extra kernel). Uit oogpunt van zuinigheid dus wel een fijne meevaller. En het is meteen een kant en klare Linux distro met first class ZFS support (zonder DKMS vereisten etc om de module te compilen, meteen ondersteund van uit de installer, ...). Iets dat ik zelf ook wel prettig vind dat ik daar zelf niet mee hoef te knutselen.Funga schreef op zaterdag 4 februari 2023 @ 20:21:
Mag ik vragen waarom jullie Proxmox gebruiken en niet aan de slag gaan met QEMU of diens frontends?
Proxmox kan zowel een volledig containerized OS draaien, middels LXC, als VMs, ik meen zelfs via QEMU. Je hebt dus de keuze tussen twee oplossingen waarbij eentje per definitie alleen Linux "guests" kan draaien en veel minder resources vereist. En de ander dus elk OS dat je maar wilt kunt draaien. Waarbij voor thuisgebruik neem ik persoonlijk aan LXC de voorkeur geniet doordat het meer lichtgewicht is (goedkopere CPU is voldoende, net zoals minder RAM etc).Funga schreef op zaterdag 4 februari 2023 @ 20:49:
Oke goede argumenten - ik ben ook vóór ZFS.
Maar Proxmox is toch ook VM? Heb ik iets verkeerd begrepen? Ik ken het principe tussen type1 en type2 hypervisor, ik denk dat je daar op doelt? Maar je kunt QEMU ook command line only draaien en dus een mini-Linux distributie tijdens de boot de VM laten starten die je GPU via PCI passthrough naar de VM stuurt en dat je dan op je monitor het beeld krijgt van de VM die je GPU via zijn eigen drivers aanstuurt en dus als snel/native performance aanvoelt.
Proxmox is dus meer gemak ten opzichte van QEMU maar geen echte voordelen?
Nice, ik moet zelfs geen NAS hebben in mijn geval mijn NUC heeft 2 schijven, 1 van 256BG waar ik proxmox op heb geinstalleerd en dan heb ik nog een SSD SATA erin steken van 2TB. Denk dat het genoeg zal zijn coro nunero355 schreef op zaterdag 4 februari 2023 @ 15:04:
[...]
Ik heb voor de grap een tijdje het volgende gedaan :
- VM aangemaakt met Kubuntu Desktop die te bereiken is met SPICE als Remote Desktop Tool om onderstaande zooi te beheren en bekijken.
- VM's aangemaakt met daarin Ubuntu Server geïnstalleerd.
- Elke VM had vervolgens Radarr/Sonarr/sabNZBd/enz. erin draaien.
- Dit gehele interne netwerkje had voor de grap een pfSense VM als Router
Reden : Puur als een experiment en een beetje rondkijken wat al die meuk nou precies doet en of ik het nog voor elkaar krijg om sabNZBd werkend te krijgen samen met effe de laatste/hedendaagse versie van pfSense te bekijken!
Als je daar nou nog een DIY NAS aan toevoegt die via SMB/NFS bereikbaar is dan kom je een heel eind denk ik zo
LXC's doe ik niks mee net als Docker Containers dus bovenstaande was voor mij sneller en makkelijker![]()
![]()
Wat betreft VM's is Proxmox gebouwd op QEMU, dus de afweging is niet Proxmox versus QEMU, maar QEMU zonder extra tooling en functionaliteit versus QEMU met alle features van ProxmoxFunga schreef op zaterdag 4 februari 2023 @ 20:49:
Oke goede argumenten - ik ben ook vóór ZFS.
Maar Proxmox is toch ook VM? Heb ik iets verkeerd begrepen? Ik ken het principe tussen type1 en type2 hypervisor, ik denk dat je daar op doelt? Maar je kunt QEMU ook command line only draaien en dus een mini-Linux distributie tijdens de boot de VM laten starten die je GPU via PCI passthrough naar de VM stuurt en dat je dan op je monitor het beeld krijgt van de VM die je GPU via zijn eigen drivers aanstuurt en dus als snel/native performance aanvoelt.
Proxmox is dus meer gemak ten opzichte van QEMU maar geen echte voordelen?
I know (vergiste me), maar ik probeer ook zaken met mqtt buiten HA om vanuit python. Maar ik kan misschien beter een extra mosquitto aanmaken daarvoor... maar het is meer voor als ik weer wat tijd krijg...RobertMe schreef op zaterdag 4 februari 2023 @ 19:37:
[...]
offtopic:
Zigbee bindings hebben juist niks met de software te maken maar alles met Zigbee zelf / het protocol. Ook zonder Zigbee2mqtt, en zelfs zonder coördinator stick, werken Zigbee bindings. I.p.v. dat de coördinator (vanuit de software) een berichtje stuurt van "eey lamp 5, ga eens aan" is het met bindings de drukknop / schakelaar die dat berichtje stuurt. En MQTT (neem aan dat je Mosquito bedoeld) heeft weer vrij weinig te maken met Zigbee2mqt en de betrouwbaarheid daar van. Nu met de webinterface van Zigbee2mqtt kun je verlichting etc ook nog schakelen als de MQTT broker onbereikbaar is. Maar uiteraard mis je dan wel de koppeling met het/een domotica platform (Home Assistant dus in dit geval).
Qemu is een hypervisor type 2 en KVM is een hypervisor type 1.Funga schreef op zaterdag 4 februari 2023 @ 20:49:
Oke goede argumenten - ik ben ook vóór ZFS.
Maar Proxmox is toch ook VM? Heb ik iets verkeerd begrepen? Ik ken het principe tussen type1 en type2 hypervisor, ik denk dat je daar op doelt? Maar je kunt QEMU ook command line only draaien en dus een mini-Linux distributie tijdens de boot de VM laten starten die je GPU via PCI passthrough naar de VM stuurt en dat je dan op je monitor het beeld krijgt van de VM die je GPU via zijn eigen drivers aanstuurt en dus als snel/native performance aanvoelt.
Proxmox is dus meer gemak ten opzichte van QEMU maar geen echte voordelen?
KVM bungelt eigenlijk ergens tussen type 1 en type 2 in: KVM zonder de rest van een Linux-systeem erbij zou in theorie wel kunnen, maar is in de praktijk erg ongebruikelijk. QEMU en KVM zijn nog steeds relatief losstaand: je ziet ze vaak gecombineerd met elkaar, maar KVM kan ook wel zonder QEMU (er bestaan wel alternatieven), en QEMU kan ook wel zonder KVM (maar is dan nogal traag). Ze doen ook niet hetzelfde, QEMU is een hardware-emulator en KVM is een abstractielaag voor het gebruiken van de virtualisatiemogelijkheden van de hardware. Proxmox gebruikt specifiek de combinatie QEMU/KVM, een 'bekende' andere combinatie is Firecracker/KVM.powerboat schreef op zondag 5 februari 2023 @ 00:24:
[...]
Qemu is een hypervisor type 2 en KVM is een hypervisor type 1.
Proxmox is om KVM gebouwd, vroegah was kvm een fork van qemu maar nu zit het verweven in de kernel. Vandaar ook qemu-kvm.
[ Voor 5% gewijzigd door dcm360 op 05-02-2023 12:17 ]
Kijk even in je bios van je nuc, daar kan je het uitzetten.MakhouT schreef op zondag 5 februari 2023 @ 14:37:
Huh ik heb iets vreemd aan de hand. Ik geraak niet meer op de webinterface van proxmox?
Na even te zoeken bleek dat mijn NUC in sleep mode is gegaan (of is uitgegaan)? Ik zou verwachten nu dat proxmox geinstalleerd is dat deze blijft 24/7 blijft aanstaan?
Kan het zijn dat die uit is gevallen omdat ik die aangesloten heb aan mijn TV met de HDMI kabel en als ik de TV uitzet dat de NUC ook uitgaat door HDMI CEC?
Dat zou wel jammer zijn, want ideaal gezien had ik mijn NUC ook nog gebruikt als Plex client (ik weet wel nog niet of het mogelijk is)
[ Voor 11% gewijzigd door Koepert op 06-02-2023 14:41 ]
RobertMe schreef op zaterdag 4 februari 2023 @ 15:50:
[...]
offtopic:
Als de Proxmox credentials ook in Bitwarden staan maakt dat het natuurlijk geen 2FA. Iedereen met toegang tot de vault kan dan immers inloggen. En met een sterk wachtwoord (& unieke gebruikersnaam? Of in ieder geval niet "root") vang je ook al 99% van de scenarios af. Blijft dus over "toegang tot de password vault", en als daar de 2FA sectet in staat / TOTP gegenereerd wordt dan beschermd dat niet meer (extra).
orvintax schreef op maandag 6 februari 2023 @ 13:17:
[...]
offtopic:
Euhh 2FA gaat toch totaal niet over de locatie van die twee factoren? Het gaat er om dat je twee manieren van authenticatie hebt. Dat je een single point of failure hebt is wat anders.
RobertMe schreef op maandag 6 februari 2023 @ 13:28:
[...]
offtopic:
Tsja, maar wat is de factor bij TOTP überhaupt? Eigenlijk gewoon kennis, en niet bezit. Het is of kennis van de nu geldige TOTP, of kennis van de secret die gebruikt wordt om de TOTP te genereren. Als je dit stukje kennis (de secret) vervolgens zet op dezelfde plek als waar je ook al iets anders dat onder diezelfde factor valt opslaat... Is het er niet echt veiliger op geworden.
Misschien voor de meesten een open deur - maar toch:RobertMe schreef op maandag 6 februari 2023 @ 13:28:
[...]
offtopic:
Tsja, maar wat is de factor bij TOTP überhaupt? Eigenlijk gewoon kennis, en niet bezit. Het is of kennis van de nu geldige TOTP, of kennis van de secret die gebruikt wordt om de TOTP te genereren. Als je dit stukje kennis (de secret) vervolgens zet op dezelfde plek als waar je ook al iets anders dat onder diezelfde factor valt opslaat... Is het er niet echt veiliger op geworden.
[ Voor 8% gewijzigd door Airw0lf op 06-02-2023 14:58 ]
makes it run like clockwork
Laatste comment van mij erover. Maar ik kan toch mijn login gegevens aan iemand anders geven (/"account delen") en als die ander er om vraagt een code sturen. Dan gaat het toch om kennis van de code en niet bezit van de telefoon. En hetzelfde maakt dit TOTP dus ook onveilig(er) voor phishing. Een code die jij als slachtoffer invult op een phishing site werkt op dat moment ook op de legitieme site. Dus met de kennis van de tijdelijke code kun je inloggen. Zonder dat je fysiek toegang moet hebben tot een apparaat.Airw0lf schreef op maandag 6 februari 2023 @ 14:43:
Degene die misbruik wil maken van jou TOTP generator heeft in ieder geval je foon nodig.
Het is dus echt wel bezit - en geen kennis. En dat maakt het veel veiliger dan alleen een wachtwoord.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
| root@proxmox:/dev# dmesg | grep -e DMAR -e IOMMU [ 0.009270] ACPI: DMAR 0x00000000DAE58118 0000A8 (v01 INTEL SKL 00000001 INTL 00000001) [ 0.009302] ACPI: Reserving DMAR table memory at [mem 0xdae58118-0xdae581bf] [ 0.021702] DMAR: IOMMU enabled [ 0.075034] DMAR: Host address width 39 [ 0.075035] DMAR: DRHD base: 0x000000fed90000 flags: 0x0 [ 0.075039] DMAR: dmar0: reg_base_addr fed90000 ver 1:0 cap 1c0000c40660462 ecap 7e3ff0505e [ 0.075042] DMAR: DRHD base: 0x000000fed91000 flags: 0x1 [ 0.075045] DMAR: dmar1: reg_base_addr fed91000 ver 1:0 cap d2008c40660462 ecap f050da [ 0.075046] DMAR: RMRR base: 0x000000dac6b000 end: 0x000000dac8afff [ 0.075048] DMAR: RMRR base: 0x000000dd800000 end: 0x000000dfffffff [ 0.075050] DMAR-IR: IOAPIC id 2 under DRHD base 0xfed91000 IOMMU 1 [ 0.075051] DMAR-IR: HPET id 0 under DRHD base 0xfed91000 [ 0.075052] DMAR-IR: Queued invalidation will be enabled to support x2apic and Intr-remapping. [ 0.076605] DMAR-IR: Enabled IRQ remapping in x2apic mode [ 0.308217] DMAR: No ATSR found [ 0.308217] DMAR: No SATC found [ 0.308219] DMAR: IOMMU feature fl1gp_support inconsistent [ 0.308220] DMAR: IOMMU feature pgsel_inv inconsistent [ 0.308221] DMAR: IOMMU feature nwfs inconsistent [ 0.308221] DMAR: IOMMU feature eafs inconsistent [ 0.308222] DMAR: IOMMU feature prs inconsistent [ 0.308223] DMAR: IOMMU feature nest inconsistent [ 0.308223] DMAR: IOMMU feature mts inconsistent [ 0.308224] DMAR: IOMMU feature sc_support inconsistent [ 0.308225] DMAR: IOMMU feature dev_iotlb_support inconsistent [ 0.308226] DMAR: dmar0: Using Queued invalidation [ 0.308229] DMAR: dmar1: Using Queued invalidation [ 0.309430] DMAR: Intel(R) Virtualization Technology for Directed I/O root@proxmox:/dev# lspci -nnk | grep "VGA\|Audio" 00:02.0 VGA compatible controller [0300]: Intel Corporation HD Graphics 530 [8086:1912] (rev 06) 00:1f.3 Audio device [0403]: Intel Corporation 200 Series PCH HD Audio [8086:a2f0] Subsystem: Dell 200 Series PCH HD Audio [1028:07a3] root@proxmox:/dev# |
Je heb gelijk maar wat, geen ideedcm360 schreef op maandag 6 februari 2023 @ 16:02:
Waarschijnlijk heb je aanpassingen gedaan die er voor zorgen dat de host de GPU niet meer ziet, zodat die aan een VM te koppelen is. Je wil de GPU echter aan een container koppelen, en dan moet de host de GPU nog wel zien, met de correcte drivers.
[ Voor 4% gewijzigd door schumi2004 op 06-02-2023 16:43 ]
Ter aanvulling van @dcm360 =>schumi2004 schreef op maandag 6 februari 2023 @ 15:34:
Wie o wie kan me op verder op weg helpen.
Ik heb hier een OptiPlex 3050 i3-6500t waarvan ik de GPU in mijn LXC container wil hebben maar ik kom geen stap verder.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Jup, dit zijn inderdaad stappen om een GPU aan een VM te koppelen (en dus niet aan een container). Ze terugdraaien zou mijn eerste stap op de weg terug naar waar je eigenlijk wil beginnen zijn, dus dat is alvast mooi. In theorie zou je /dev/dri er ook weer mee moeten terugkrijgen op de host, en wordt het dus ook mogelijk om deze aan een container te koppelen. Hoe dat ook alweer precies werkt weet ik zo snel even niet meer, maar het is mogelijk (zoiets heb ik met een capture-card gedaan).schumi2004 schreef op maandag 6 februari 2023 @ 16:42:
[...]
Je heb gelijk maar wat, geen idee
root@proxmox:/dev/dri# ls
by-path card0 renderD128
Ik had deze stappen gevolgd (en nu dus weer terug gedraaid) https://lunar.computer/posts/gpu-passthrough-proxmox-60/
Vanavond maar weer eens proberen.
De suggestie m.b.t. "dedicated GPU" en Nvidia Quadro doet mij eerlijk gezegd voornamelijk denken dat je dezelfde fout maakt? Dat lijkt mij juist ook weer iets dat bij het VM verhaal hoort en dus virtualisatie etc.nero355 schreef op maandag 6 februari 2023 @ 16:45:
[...]
Ter aanvulling van @dcm360 =>
In het verleden zijn er een heleboel discussies geweest over wat er nou wel of niet mogelijk is i.c.m. een Intel iGPU en de conclusie was eigenlijk dat het verre van vlekkeloos werkt...
Dus je beste optie is om nog een losse videokaart erbij te proppen indien dat mogelijk is en dan het liefst een AMD model geloof ik, want anders moet je aan de Nvidia Quadro modellen of hoe dat tegenwoordig ook heet!
Wil je toch met die iGPU verder prutsen dan zal je echt een heleboel uitzoekwerk moeten doen en misschien uiteindelijk erachter komen dat het niet eens mogelijk is...
Ongetwijfeld, want ik denk inderdaad vanuit een VM invalshoek en weet al die fijne details van vroeger niet meer helaas dus er zal wel iets niet kloppen op wat voor manier dan ookRobertMe schreef op maandag 6 februari 2023 @ 16:56:
De suggestie m.b.t. "dedicated GPU" en Nvidia Quadro doet mij eerlijk gezegd voornamelijk denken dat je dezelfde fout maakt?
Als je het zo stelt dan zouden inderdaad al die oude ellendige regeltjes omtrent de Intel iGPU's misschien niet eens meer van toepassing hoeven te zijn!Dat lijkt mij juist ook weer iets dat bij het VM verhaal hoort en dus virtualisatie etc.
Bij LXC draait alles juist gewoon op de Proxmox kernel. Enige "ding" is dat LXC natuurlijk gebruik maakt van namespaces waardoor bv ook de standaard devices (/ "/dev/") niet beschikbaar is in de namespace van de LXC. Maar de devices moet je wel beschikbaar kunnen maken naar de container. En de hardware ziet daar niks van. Het is gewoon standaard communicatie tussen het native OS en de hardware.
Totaal anders dus dan virtualisatie waarbij zaken als PCI passthrough, VT-x, VT-d etc om de hoek komen kijken.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ik had dat ook gelezen dat het met AMD allemaal wat eenvoudiger gaat maar het gaat me nu meer gevalletje omdat het kan. Echt nodig heb ik het niet maar als het werktnero355 schreef op maandag 6 februari 2023 @ 16:45:
[...]
Ter aanvulling van @dcm360 =>
In het verleden zijn er een heleboel discussies geweest over wat er nou wel of niet mogelijk is i.c.m. een Intel iGPU en de conclusie was eigenlijk dat het verre van vlekkeloos werkt...
Dus je beste optie is om nog een losse videokaart erbij te proppen indien dat mogelijk is en dan het liefst een AMD model geloof ik, want anders moet je aan de Nvidia Quadro modellen of hoe dat tegenwoordig ook heet!
Wil je toch met die iGPU verder prutsen dan zal je echt een heleboel uitzoekwerk moeten doen en misschien uiteindelijk erachter komen dat het niet eens mogelijk is...
Gebruik je ZFS voor je boot media/Proxmox install zelf? Zo ja dan moet je niet in GRUB zijn maar in systemd. Dat is iets wat vaak over het hoofd word gezienschumi2004 schreef op maandag 6 februari 2023 @ 16:42:
[...]
Je heb gelijk maar wat, geen idee
root@proxmox:/dev/dri# ls
by-path card0 renderD128
Ik had deze stappen gevolgd (en nu dus weer terug gedraaid) https://lunar.computer/posts/gpu-passthrough-proxmox-60/
Vanavond maar weer eens proberen.
Gebruik geen ZFS en heb het zojuist nog eens geprobeerd werkend te krijgen maar links of rechts om verlies ik elke keer mijn video en render in /dev/driorvintax schreef op maandag 6 februari 2023 @ 17:57:
[...]
Gebruik je ZFS voor je boot media/Proxmox install zelf? Zo ja dan moet je niet in GRUB zijn maar in systemd. Dat is iets wat vaak over het hoofd word gezien
Toch heb ik specifiek gezocht op guides die spreken over het koppelen aan LXC.dcm360 schreef op dinsdag 7 februari 2023 @ 23:45:
Als ik het zo lees ben je nog steeds guides voor het koppelen van de GPU aan een VM aan het uitvoeren met de verwachting dat het ook voor een container gaat werken. Drivers blacklisten moet je nadrukkelijk niet doen als je een apparaat aan een container wil koppelen, want de container heeft geen eigen kernel om de drivers mee in te kunnen laden, het is de kernel van de host die dat moet doen.
[ Voor 7% gewijzigd door schumi2004 op 09-02-2023 17:26 ]
Heb je ook shared/cluster storage?Koepert schreef op maandag 6 februari 2023 @ 11:42:
Even een controlevraag hier..
Ik heb 3 nodes in een cluster:
HAserver (starter van cluster, minipc met een HDD en mijn main VM/Containers Home Assistant, Traefik & Pihole )
proxmox2 (joiner, minipc met een SSD met 1 container atm (AdGuard om te testen)
proxmox3 (joiner, laptop met SSD. Geen containers, puur voor quorum)
Mede gezien de leeftijd wil ik HAserver eigenlijk voorzien van een SSD ipv de HDD. Lexar SSD is onderweg met 512GB. Hoe kan ik nu het beste dit aanpakken? Ook omdat de P1kabel, bluetoothdongel en Sonoff Zigbee stick fysiek in HAserver zitten. Downtime is niet zo erg hoor, maar k ben liever geen data kwijt.
Ik dacht:
- Alles migreren naar proxmox2
- Kabels kunnen eruit
- Power Down HAServer
- Node removen van cluster: https://pve.proxmox.com/w...er#_remove_a_cluster_node
- Herinstallatie Proxmox op SSD in minipc
- Joinen cluster
- Kabels aansluiten
- Terugmigreren VM en CTs
Mis ik iets? Reden dat ik twijfel is omdat ik het cluster gestart ben op deze pc..
Oh : aanvullend: De proxmox2 krijgt ook een nieuwe SSD ipv de huidige (ben wat met storage aan het rommelen) Kan ik dan wellicht beter het hele cluster ontbinden daarna weer opbouwen? OMdat je dan (zij het tijdelijk) naar 2 actieve/aanwezige hosts gaat..
Nou ja.. Fake shared StorageUTMachine schreef op woensdag 8 februari 2023 @ 07:30:
[...]
Heb je ook shared/cluster storage?
Anders zou ik voor een standalone proxmox node gaan (met een stand-by proxmox node) en de CT/VM verplaatsen via backup en restore. De usb devices moet je om pluggen, dus die applicaties moet je handmatig omgooien.
Ok, dan is een stand-alone Proxmox node het simpelste, scheelt je ook gezeik met quorums (en bij upgrades). Zeker omdat je bij problemen de usb sticks moet ompluggen. Ik hou mijn stand-by Proxmox gewoon up-to-date, dus als het misgaat hier - is het gewoon backup restoren en gaan met die banaan.Koepert schreef op woensdag 8 februari 2023 @ 12:22:
[...]
Nou ja.. Fake shared StorageElke node heeft een local-lvm storage, dus migrate van VM/CT werkt gewoon. Maar feitelijk is dat natuurlijk 'nep' omdat het een disk in de node is (single disk nodes)
Hierdoor heb ik proxmox2 2x moeten installeren, omdat ik eerst met zfs had geïnstalleerd (en local-zfs), maar toen terug naar ext4 (local-lvm) was gegaan. Niet realiserende dat ik waarschijnlijk local-zfs had kunnen hernoemen naar local-lvm en dan klaar was.
Maar dan denk ik dat back-up/restore idd maar the way to go gaat zijn. Ook met de baas thuis even n dag downtime incalculeren (niet dat t zoveel tijd kost, maar haat het om om 00:15u nog iets te troubleshooten dat goed had MOETEN gaan, maar t niet ging)
\UTMachine schreef op woensdag 8 februari 2023 @ 12:26:
[...]
Ok, dan is een stand-alone Proxmox node het simpelste, scheelt je ook gezeik met quorums (en bij upgrades). Zeker omdat je bij problemen de usb sticks moet ompluggen. Ik hou mijn stand-by Proxmox gewoon up-to-date, dus als het misgaat hier - is het gewoon backup restoren en gaan met die banaan.
Ik heb wel op mijn Proxmox node (Intel NUC) het OS + VMs op de 1ste disk staan en op de 2e disk alle backups. Dus als ik moet herinstalleren (dan blaas ik gewoon alles weg), zijn de backups er nog steeds ...
Ik zou wel een 2e simpele node hebben, die 2e instance van AdGuard kan draaien. Dan heb je in ieder geval geen outage als je Proxmox problemen geeft. Hier draait het op een Pi Zero2.
Insured by MAFIA - You hit me, we hit you!!!
Ubuntu 16.x.x had je ondertussen gewoon een paar keer moeten upgraden, maar dat die NUC te oud is kan ik me eigenlijk bijna niet voorstellen dus ik ben wel benieuwd om welke modellen het gaat en wat de precieze reden is ??koelkast schreef op woensdag 8 februari 2023 @ 14:06:
Ik heb een tijdje geleden een 2e nuc aangeschaft met het idee om langzaam maar zeker naar een nieuwe homeserver over te stappen. Dat is wel nodig ook;
Momenteel gebruik ik een nuc met Ubuntu v16, met een heel aantal docker containers, die op zich prima draaien.
De boel is verouderd, qua hardware maar zeker qua software. Ik wil de boel eens goed opnieuw inrichten. Daarbij zat ik aan Proxmox te denken, ik heb dat er inmiddels opgezet, maar ik vraag me af wat een handige inrichting is.
IMHO iets dat je zelf moet overwegen en bepalen wat je handiger vindt werkenWaarom zou ik eigenlijk voor lxc containers gaan, in plaats van docker containers?
Ik denk dat LXC Containers makkelijker te beheren zijn dan Docker Containers dankzij de Proxmox webGUI die handiger werkt dan al die webGUI opties voor Docker die zelf ook weer in een Container moeten draaien...Of is het eenvoudiger te beheren?
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Qua updates heb je gelijk. Ik had m wel een beetje bijgehouden in de 16.x versie.nero355 schreef op woensdag 8 februari 2023 @ 14:17:
[...]
Ubuntu 16.x.x had je ondertussen gewoon een paar keer moeten upgraden, maar dat die NUC te oud is kan ik me eigenlijk bijna niet voorstellen dus ik ben wel benieuwd om welke modellen het gaat en wat de precieze reden is ??
[...]
IMHO iets dat je zelf moet overwegen en bepalen wat je handiger vindt werken
Er zijn genoeg voorbeelden te vinden van Proxmox + een enkele VM die voor Docker Containers wordt gebruikt!
[...]
Ik denk dat LXC Containers makkelijker te beheren zijn dan Docker Containers dankzij de Proxmox webGUI die handiger werkt dan al die webGUI opties voor Docker die zelf ook weer in een Container moeten draaien...
LXC en Docker zijn echt verschillende zaken. LXC is een manier om een volledig OS te draaien, als zijnde een soort van VM. Docker is een manier om één applicatie / executable te verspreiden en in isolatie uit te voeren. Het is dus ook niet "moet ik LXC óf Docker" gebruiken. Maar "moet ik LXC gebruiken" én "moet ik Docker gebruiken".koelkast schreef op woensdag 8 februari 2023 @ 14:06:
Docker ken ik inmiddels redelijk, en ik heb me redelijk ingelezen in proxmox met lxc en vm, maar waarom zou ik eigenlijk voor lxc containers gaan, in plaats van docker containers? Vanwege de mogelijkheid om een eenvoudige backup te draaien? Vanwege het eenvoudig kunnen doen van updates? Of is het eenvoudiger te beheren? Ik merk wel dat voor véél, maar niet álle gewenste diensten zo'n handig tteckster script beschikbaar is. Daarvoor zou ik dan een docker-container kunnen gebruiken. Of is dat niet handig?
Eigenlijk nietkoelkast schreef op woensdag 8 februari 2023 @ 14:51:
Qua updates heb je gelijk. Ik had m wel een beetje bijgehouden in de 16.x versie.
Het betreft een nuc 6 met een traag hdd schijfje. DIng is uitgerust met 4gb geheugen. Terwijl ik nu een nuc8 heb gekocht met een ssd en 32 gb geheugen. Dan snap je het wel denk ik
En als er wat verkeerd gaat je dan met een Kip & Ei probleem zit...Maar inderdaad, voor portainer heb je ook weer ... een container nodig.
Zat je dan niet met het hele cgroups verhaal of ging dat ergens anders overRobertMe schreef op woensdag 8 februari 2023 @ 15:15:
Alleen kun je op Proxmox dan LXC gebruiken als "lightweight VM" i.p.v. een volledig besturingssysteem.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Mijn hele huis (qua IT dan dus, niet mn bank) bestaat uit refurbished hardware. Zolang een T of U processor nog functioneert is er weinig reden tot vervanging..nero355 schreef op woensdag 8 februari 2023 @ 18:06:
[...]
Eigenlijk nietmaar ik ben dan ook zo'n rare vent die vindt dat een heleboel systemen van de laatste 10 jaar of zo nog prima voor van alles te gebruiken zijn en eigenlijk geen upgrade nodig hebben, tenzij het inderdaad om HDD naar SSD of 4 GB RAM naar 8/16 GB of meer upgrades gaat, maar dat is nog steeds geen reden om het systeem zelf te vervangen!
[...]
En als er wat verkeerd gaat je dan met een Kip & Ei probleem zit...
[...]
Zat je dan niet met het hele cgroups verhaal of ging dat ergens anders over
Energieverbruik kan natuurlijk alsnog een goede reden zijn om te vervangen. Ik heb nu (nog niet in gebruik) een Chinees systeempje met Intel N5105 en 8GB RAM. Net zo krachtig als mijn 8 jaar oude PC of zo, maar zal een fractie van de energie verbruiken. Bedoeling is dat deze als server gaat draaien. En mijn "zuinige" zelfbouw server (uit 2020nero355 schreef op woensdag 8 februari 2023 @ 18:06:
[...]
Eigenlijk nietmaar ik ben dan ook zo'n rare vent die vindt dat een heleboel systemen van de laatste 10 jaar of zo nog prima voor van alles te gebruiken zijn en eigenlijk geen upgrade nodig hebben, tenzij het inderdaad om HDD naar SSD of 4 GB RAM naar 8/16 GB of meer upgrades gaat, maar dat is nog steeds geen reden om het systeem zelf te vervangen!
Neen. Portainer helpt je alleen met het draaien / beheren van Docker containers. Als kip Docker kapot is had je dus sowieso al niks aan ei Portainer. Dus dat je bij kapotte Docker niet aan Portainer kunt maakt niet uit.[...]
En als er wat verkeerd gaat je dan met een Kip & Ei probleem zit...
Vast. But it just works. Er wordt nog wel meer mind blowing stuff gebruikt door LXC & Docker waarvan ik heel blij ben dat ik er niks mee te maken heb. Network namespaces waardoor je ethernet interfaces hebt "die je niet ziet" maar dus gebruikt worden binnen de containers. Alle ethernet interfaces die Docker aanmaakt, of specifiek de veth* devices, is maar één kant can een virtuele interface waarbij de andere kant in een "onzichtbare" network namespace bestaat. De Docker container draait vervolgens met die "onzichtbare" network namespace als dus ee network namespace waardoor de processen in die container alleen die interface(s) zien. Waarbij elke namespace automatisch uit de kernel al een eigen loopback interface krijgt. En zo zijn er ook nog allemaal van die "aparte" dingen om dus de proces isolatie te doen zodat de container alleen zijn eigen processen ziet en niet het hele systeem. Met dus een eigen nummering van process ids en dus ook een pid 1 terwijl het "host" systeem natuurlijk ook een pid 1 heeft etc.[...]
Zat je dan niet met het hele cgroups verhaal of ging dat ergens anders over
Intel NUC #1 = Laptop model CPU/APURobertMe schreef op woensdag 8 februari 2023 @ 18:18:
Energieverbruik kan natuurlijk alsnog een goede reden zijn om te vervangen. Ik heb nu (nog niet in gebruik) een Chinees systeempje met Intel N5105 en 8GB RAM. Net zo krachtig als mijn 8 jaar oude PC of zo, maar zal een fractie van de energie verbruiken. Bedoeling is dat deze als server gaat draaien. En mijn "zuinige" zelfbouw server (uit 2020) met 3x 3,5" HDD (dag zuinigheid) nog alleen on-demand of overdag aan gaat.
Alleen weet 95% van de Docker gebruikers op GoT eigenlijk niet waar ze mee bezig zijn, want die webGUI op hun kant en klaar NASje zag er zo goed uit dus krijgen ze wel degelijk met een probleem te maken als die Portainer Container stuk is opeens!Neen. Portainer helpt je alleen met het draaien / beheren van Docker containers. Als kip Docker kapot is had je dus sowieso al niks aan ei Portainer. Dus dat je bij kapotte Docker niet aan Portainer kunt maakt niet uit.
Ik ook!Vast. But it just works. Er wordt nog wel meer mind blowing stuff gebruikt door LXC & Docker waarvan ik heel blij ben dat ik er niks mee te maken heb.
Daarom zou ik die ellende in een VM proppen als je echt niet zonder kan!Network namespaces waardoor je ethernet interfaces hebt "die je niet ziet" maar dus gebruikt worden binnen de containers. Alle ethernet interfaces die Docker aanmaakt, of specifiek de veth* devices, is maar één kant can een virtuele interface waarbij de andere kant in een "onzichtbare" network namespace bestaat. De Docker container draait vervolgens met die "onzichtbare" network namespace als dus ee network namespace waardoor de processen in die container alleen die interface(s) zien. Waarbij elke namespace automatisch uit de kernel al een eigen loopback interface krijgt. En zo zijn er ook nog allemaal van die "aparte" dingen om dus de proces isolatie te doen zodat de container alleen zijn eigen processen ziet en niet het hele systeem. Met dus een eigen nummering van process ids en dus ook een pid 1 terwijl het "host" systeem natuurlijk ook een pid 1 heeft etc.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Die kant en klare NASjes gebruiken vast geen Portainer. En al helemaal niet meer nu er een betaalde versie van Portainer is die vast en zeker gebruikt zou moeten worden door die kant en klare NASje bouwers.nero355 schreef op woensdag 8 februari 2023 @ 18:22:
[...]
Alleen weet 95% van de Docker gebruikers op GoT eigenlijk niet waar ze mee bezig zijn, want die webGUI op hun kant en klaar NASje zag er zo goed uit dus krijgen ze wel degelijk met een probleem te maken als die Portainer Container stuk is opeens!
Wat is het probleem dan? Ik ben heel blij met Docker (/OCI verhaal). En "het werkt gewoon". Dat daarvoor allemaal Linux kernel stuff voor gebruikt wordt waar ik geen kaas van gegeten heb kan ik niet wakker can liggen.[...]
Ik ook!
YO DAWG. Als je dus Proxmox met LXC gebruikt dan zou je Proxmox dus als VM installeren (in Proxmox?)? Want v.w.b. die technieken zijn Docker & LXC gewoon uitwisselbaar. Zowel Docker als LXC gebruiken exact dezelfde door de kernel aangeleverde isolatie technieken. Alleen is het doel van Docker en LXC anders (geïsoleerd proces vs geïsoleerd OS). Maar beiden maken gebruik van cgroups, network namespaces, user namespaces, ... om dit te bereiken.[...]
Daarom zou ik die ellende in een VM proppen als je echt niet zonder kan!
Mijn 0,100 Euro:koelkast schreef op woensdag 8 februari 2023 @ 14:06:
[...]
Docker ken ik inmiddels redelijk, en ik heb me redelijk ingelezen in proxmox met lxc en vm, maar waarom zou ik eigenlijk voor lxc containers gaan, in plaats van docker containers? Vanwege de mogelijkheid om een eenvoudige backup te draaien? Vanwege het eenvoudig kunnen doen van updates? Of is het eenvoudiger te beheren? Ik merk wel dat voor véél, maar niet álle gewenste diensten zo'n handig tteckster script beschikbaar is. Daarvoor zou ik dan een docker-container kunnen gebruiken. Of is dat niet handig?
Misschien hebben jullie hier ideeën over? Ik zoek even wat houvast
makes it run like clockwork
Bij mijn weten is Portainer altijd gratis tot 5 Docker hosts - dus ook voor de NASje bouwers(?):RobertMe schreef op woensdag 8 februari 2023 @ 18:41:
[...]
Die kant en klare NASjes gebruiken vast geen Portainer. En al helemaal niet meer nu er een betaalde versie van Portainer is die vast en zeker gebruikt zou moeten worden door die kant en klare NASje bouwers.
[...]
makes it run like clockwork
[ Voor 19% gewijzigd door ZatarraNL op 08-02-2023 22:35 ]
Je kan elke Docker Container eigen poorten geven door MAC VLAN te gebruiken en daarbij heeft dus elke Container ook zijn eigen IP adresAirw0lf schreef op woensdag 8 februari 2023 @ 20:04:
Bij Docker containers is dat alleen het geval als je ze opstart tegen de host adapters. Maar hier zit dan weer het risico van overlappende TCP poorten.
Nadeel bij VM's en LXC containers is dat apps applicaties niet in een geïsoleerde omgeving kunnen draaien waardoor je mogelijk conflicten krijgt met code bibliotheken - iets wat bij Docker containers niet het geval is.
Mochten applicaties veel overlappende TCP poorten hebben, dan ga ik aan de slag met Proxmox en LXC containers. Binnen die LXC containers maak ik dan weer gebruik van Docker containers.
Als dat zo is dan noem ik dat vooruitgang!RobertMe schreef op woensdag 8 februari 2023 @ 18:41:
Die kant en klare NASjes gebruiken vast geen Portainer. En al helemaal niet meer nu er een betaalde versie van Portainer is die vast en zeker gebruikt zou moeten worden door die kant en klare NASje bouwers.
Ik vind het hele systeem gewoon niks voor mij en de manier waarop men het meestal gebruikt niet in de geest van Docker überhaupt!Wat is het probleem dan? Ik ben heel blij met Docker (/OCI verhaal). En "het werkt gewoon". Dat daarvoor allemaal Linux kernel stuff voor gebruikt wordt waar ik geen kaas van gegeten heb kan ik niet wakker can liggen.
Ik ben geen developer dus ik hoef ook niet alles te weten!Jij vind dat wellicht verschrikkelijk. Maar ik ben benieuwd of je dan ook in detail wilt weten hoe een proccess wordt uitgevoerd, hoe het dynamisch linken van libraries (so / dll) werkt, hoe time sharing werkt (wat?! 100 processen en maar 4 cores?!). Want ook dat zijn zaken die gewoon "automatisch" goed gaan en je met de handen in het haar zit als het niet werkt.
LOL! Dat is lang geleden!
Nee, dat zou ik alleen doen om een extra Proxmox Server te faken in een Cluster als Lab ExperimentAls je dus Proxmox met LXC gebruikt dan zou je Proxmox dus als VM installeren (in Proxmox?)?
En daarom lijkt mij Docker i.c.m. een LXC Container niet handig als ik de verhalen in dit topic mag geloven!Want v.w.b. die technieken zijn Docker & LXC gewoon uitwisselbaar. Zowel Docker als LXC gebruiken exact dezelfde door de kernel aangeleverde isolatie technieken. Alleen is het doel van Docker en LXC anders (geïsoleerd proces vs geïsoleerd OS). Maar beiden maken gebruik van cgroups, network namespaces, user namespaces, ... om dit te bereiken.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Dat was niet mijn punt. Je gaf aan dat "onderwater gebeuren" een goede reden is om het niet te gebruiken. Maar je hebt altijd onderwater gebeuren waar je geen weet / kennis van (kunt) hebben. En als datgene een keer niet werkt dat je dus met handen in het haar zit. Dat ik een beetje weet hoe Docker & LXC werken (v.w.b. namespaces op verschillende vlakken) heeft ook niks te maken met het feit dat ik developer ben. Maar met wat ik hobbymatig heb uitgezocht in de "systeem beheer" hoek.nero355 schreef op woensdag 8 februari 2023 @ 23:54:
[...]
Ik ben geen developer dus ik hoef ook niet alles te weten!
Werkt prima. Alleen moet het, IIRC, een unprivileged LXC container zijn en moet nesting aan staan. Zijn gewoon vinkjes in de Proxmox web UI.[...]
En daarom lijkt mij Docker i.c.m. een LXC Container niet handig als ik de verhalen in dit topic mag geloven!
Klopt - met die kanttekening dat een Docker container met een mac-vlan maar in één vlan kan meedoen.nero355 schreef op woensdag 8 februari 2023 @ 23:54:
[...]
Je kan elke Docker Container eigen poorten geven door MAC VLAN te gebruiken en daarbij heeft dus elke Container ook zijn eigen IP adres
[ Voor 27% gewijzigd door Airw0lf op 09-02-2023 07:55 ]
makes it run like clockwork
Maar... je kunt weer wel meerdere macvlan interfaces gebruiken/toevoegen in dezelfde container. En zonder Docker moet je ook voor elk (extra) VLAN een extra interface aanmaken. Dus in zoverre potato potahta. Voor de applicatie maakt het, met of zonder Docker, ook niet uit. Die luistert op alle netwerk interfaces (in de network namespace waar de applicatie in draait).Airw0lf schreef op donderdag 9 februari 2023 @ 07:51:
[...]
Klopt - met die kanttekening dat een Docker container met een mac-vlan maar in één vlan kan meedoen.
Dat je in een Docker container kunt werken met meerdere interfaces wist ik niet - nooit geprobeerd. Bij één mac-vlan kreeg ik DNS en DHCP niet goed aan de praat - ook niet met de NET_ADMIN optie.RobertMe schreef op donderdag 9 februari 2023 @ 08:51:
[...]
Maar... je kunt weer wel meerdere macvlan interfaces gebruiken/toevoegen in dezelfde container. En zonder Docker moet je ook voor elk (extra) VLAN een extra interface aanmaken. Dus in zoverre potato potahta. Voor de applicatie maakt het, met of zonder Docker, ook niet uit. Die luistert op alle netwerk interfaces (in de network namespace waar de applicatie in draait).
makes it run like clockwork
Welk achterliggend probleem wil je eigenlijk oplossen?ZatarraNL schreef op woensdag 8 februari 2023 @ 22:29:
Vraagje, ik heb al een tijdje een 3node cluster met ceph draaien. Maar de backbone ging altijd over dezelfde 1Gb nic als alle andere data.
Ik probeer nu de backbone via separate 10gbit nics te laten lopen. Zonder switch. Ik heb deze handleiding gebruikt:
https://pve.proxmox.com/w...h_Network_for_Ceph_Server
Voor ceph zal het mooi werken, maar ik wil nu een nieuwe cluster aanmaken, maar dat gaat nog niet helemaal goed met de beschreven opties. Iemand hier ervaring mee?
Zo ja, welke van de 4 opties gebruik je dan? Route simpele, route with fallback, RSTP of broadcast?
Het probleem: met het aanmaken van een cluster in de gui moet je de nic kiezen, maar bij route simpel heb je twee nics met hetzelfde ip-address. Bij route met fallback ziet Proxmox helemaal geen nic in de gui. De andere twee heb ik nog niet geprobeerd, maar hebben niet de voorkeur.
makes it run like clockwork
OP kan hier het beste op antwoorden. Maar ik heb zo een gevoel dat hij geen 10gbps switch heeftAirw0lf schreef op donderdag 9 februari 2023 @ 10:51:
[...]
Welk achterliggend probleem wil je eigenlijk oplossen?![]()
Rationale achter de vraag:
Als het puur de leerervaring is lijkt me een tweede 1-Gbps NIC (in elke server) verreweg het meest praktische. Die sluit je aan op de bestaande switch, geeft hem een IP adres en je kunt aan de slag. Eventueel steek je die switch-poorten nog in een geïsoleerd vlan.
Dit is in ieder geval een pad waarmee je zou kunnen beginnen. Al was het maar om te kijken hoe het geheel ingesteld moet worden. En hoe het zich gaat gedragen.![]()
Mocht je een capaciteitsvraagstuk hebben wat je met 10-Gbps wil oplossen, dan voorzie ik dat je er uiteindelijk niet onderuit komt om gebruik te maken van een 10-Gbps switch.
Dit omdat zonder die switch, de uitval van een 10-Gbps NIC erin resulteert dat er een server gaat zijn die al het verkeer tussen zijn twee buurtjes door zijn bus gaat moeten trekken. Wat dan weer resulteert in stevig wat IO-vertraging. En daar kunnen gebruikers dan weer last van hebben omdat de disk-IO hier ook onder te leiden heeft.
Wil je dit ook weer op een nette manier HA maken, dan heb je eigenlijk twee 10-Gbps switches nodig...
Het probleem is dat ik met ceph een doorvoer van 1gb wil halen. En dat lukt niet omdat de backbone van ceph ook bandbreedte nodig heeft. Omdat ik 10gb kaarten heb liggen wilde ik die voor de backbone gebruiken, met de hoop meer bandbreedte voor de ceph cluster te hebben.Airw0lf schreef op donderdag 9 februari 2023 @ 10:51:
[...]
Welk achterliggend probleem wil je eigenlijk oplossen?![]()
Rationale achter de vraag:
Als het puur de leerervaring is lijkt me een tweede 1-Gbps NIC (in elke server) verreweg het meest praktische. Die sluit je aan op de bestaande switch, geeft hem een IP adres en je kunt aan de slag. Eventueel steek je die switch-poorten nog in een geïsoleerd vlan.
Dit is in ieder geval een pad waarmee je zou kunnen beginnen. Al was het maar om te kijken hoe het geheel ingesteld moet worden. En hoe het zich gaat gedragen.![]()
Mocht je een capaciteitsvraagstuk hebben wat je met 10-Gbps wil oplossen, dan voorzie ik dat je er uiteindelijk niet onderuit komt om gebruik te maken van een 10-Gbps switch.
Dit omdat zonder die switch, de uitval van een 10-Gbps NIC erin resulteert dat er een server gaat zijn die al het verkeer tussen zijn twee buurtjes door zijn bus gaat moeten trekken. Wat dan weer resulteert in stevig wat IO-vertraging. En daar kunnen gebruikers dan weer last van hebben omdat de disk-IO hier ook onder te leiden heeft.
Wil je dit ook weer op een nette manier HA maken, dan heb je eigenlijk twee 10-Gbps switches nodig...
[ Voor 24% gewijzigd door ZatarraNL op 09-02-2023 15:52 ]
Maar wel die van mij!RobertMe schreef op donderdag 9 februari 2023 @ 06:35:
Dat was niet mijn punt.
Alleen zijn dat niet de dingen die ik bedoeldeJe gaf aan dat "onderwater gebeuren" een goede reden is om het niet te gebruiken. Maar je hebt altijd onderwater gebeuren waar je geen weet / kennis van (kunt) hebben. En als datgene een keer niet werkt dat je dus met handen in het haar zit.
Daar ging het mij dan ook niet omDat ik een beetje weet hoe Docker & LXC werken (v.w.b. namespaces op verschillende vlakken) heeft ook niks te maken met het feit dat ik developer ben. Maar met wat ik hobbymatig heb uitgezocht in de "systeem beheer" hoek.
Hmm... OK... laten we dan effe aannemen dat het makkelijker is geworden dan in het verledenWerkt prima. Alleen moet het, IIRC, een unprivileged LXC container zijn en moet nesting aan staan. Zijn gewoon vinkjes in de Proxmox web UI.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Heeft dat niet ook te maken met het onderliggende filesystem? Docker heeft ondersteuning voor ZFS voor de storage, en in de LXC is het ZFS device in /dev/ zichtbaar. Alleen werk dat by default niet (sowieso zullen in de LXC container de juiste libraries en/of CLI tools missen). Ik heb daarom (in Proxmox) een zvol aangemaakt die ik met ext4 geformatteerd heb. Vervolgens heb ik het zvol direct aan de LXC gehangen / gemount op /var/lib/docker en dat werkt prima. LXC ziet dat het een block device is dus mount hem automatisch. En Docker ziet dat de storage directory op een ext4 filesystem staat en gebruikt daardoor overlay2 als storage driver (i.p.v. ZFS). Ik gebruik in ieder geval dus weer geen fuse.dcm360 schreef op donderdag 9 februari 2023 @ 15:41:
Docker in LXC werkt inderdaad wel. De opties nesting, keyctl en Fuse heb ik daar voor aangezet. Die laatste is nodig voor fuse-overlayfs, dat bleek toch wel betere prestaties te bieden dan vfs (eigenlijk is dit een flink understatement. Sommige applicaties waren met vfs onwerkbaar traag).
LVM is een manier om Storage flexibel te gebruiken, maar is geen File System of Software RAID systeem!MakhouT schreef op donderdag 9 februari 2023 @ 23:17:
Ik lees online overal dat ZFS beter is dan LVM maar ik begrijp niet waarom
Volgens mij heb je dan nog geen Storage voor Containers of VM's assignedIk heb in mijn NUC 2 SSD schijven, maar als ik een nieuwe VM/container wil maken dan zie ik maar enkel de schijf waarop proxmox heb geinstalleerd. Nochtans als ik naar 'disks' ga zie ik beide schijven. Hoe kan ik de andere schijf dan toch zien te kunnen gebruiken als ik een container maak?
Of kan ik bv een container maken voor plex maar al media bestanden laten komen van mijn 2de schijf?
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
In essentie:MakhouT schreef op donderdag 9 februari 2023 @ 23:17:
1. Kies ik LVM of ZFS? En waarom?
A. En als ik bv op LVM zit kan ik nog switchen naar ZFS? Of moet ik terug de installatie doen?
B. Ik lees online overal dat ZFS beter is dan LVM maar ik begrijp niet waarom
2. Ik heb in mijn NUC 2 SSD schijven, maar als ik een nieuwe VM/container wil maken dan zie ik maar enkel de schijf waarop proxmox heb geinstalleerd. Nochtans als ik naar 'disks' ga zie ik beide schijven. Hoe kan ik de andere schijf dan toch zien te kunnen gebruiken als ik een container maak?
Of kan ik bv een container maken voor plex maar al media bestanden laten komen van mijn 2de schijf?
1
2
3
4
5
6
7
8
9
| # / was on /dev/sda1 during installation UUID=7f1091ee-7de3-4683-adfe-f6e68ec35809 / ext4 errors=remount-ro 0 1 # Swap was on /dev/sda5 during installation UUID=e01f2775-750e-4d4f-87b3-160bb8bbc5bb none swap sw 0 0 # PVE data /dev/raid/PVEdata /mnt/pve/mainData ext4 defaults 0 2 /dev/ssd/PVEdata /mnt/pve/ssdData ext4 defaults 0 2 |
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
| cifs: vm-images path /mnt/pve/vm-images server morpheus.itv.lan share vm-images content images,backup,vztmpl,iso nodes switch username will dir: mainData path /mnt/pve/mainData content rootdir,iso,vztmpl,images,snippets nodes switch preallocation full shared 0 dir: ssdData path /mnt/pve/ssdData content images,rootdir nodes switch shared 0 cifs: backup-only path /mnt/pve/backup-only server mouse.itv.lan share Backup content images,backup nodes switch prune-backups keep-all=1 username will |
[ Voor 38% gewijzigd door Airw0lf op 11-02-2023 11:26 ]
makes it run like clockwork
Kan ook - iedereen heeft zo zijn voorkeuren - toch?dcm360 schreef op zaterdag 11 februari 2023 @ 11:58:
Ik zou gewoon de Proxmox installer aanraden, installeren met ZFS en vooral niet op een USB stick. Wil je meer storage? Gebruik de webGUI om een of meerder schijven te formatteren met ZFS, en voeg ze toe aan de storage-configuratie met de webGUI. Het kan allemaal veel complexer dan dit, maar dat is helemaal niet leuk als je kennis aan het maken bent met Proxmox.
makes it run like clockwork
Speel gewoon met de webGUI en je hebt uiteindelijk wel het trucje door!MakhouT schreef op zaterdag 11 februari 2023 @ 07:10:
Ik vind niet hoe ik het moet assignen?
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Als je insteekt met routing zou je de twee 10-Gbps NIC's van twee aan elkaar geknoopte servers op kunnen nemen in een 2 bits subnet. Waardoor elke server 2 subnets heeft. Dan met static routes aangeven welke paden er zijn naar een bepaalde host.ZatarraNL schreef op donderdag 9 februari 2023 @ 13:46:
[...]
De beide 10Gb nic van elke node moeten dus op één of andere manier samen als één nic fungeren met één IP-adres. Dat zou samen een mesh maken. PvE kan geen twee nics met hetzelfde ip-adres selecteren voor een cluster (optie 1: routed simple) . Anderzijds herkent pve helemaal geen 10Gb nics als ik hiervoor frr gebruik (optie2: routed with fallback).
Optie 3 en 4 heb ik nog niet geprobeerd. Optie 4 (broadcast) is wellicht nog een optie omdat de beide 10Gb nics dan bonded zijn. Het nadeel is de relatief hoge bandbreedte omdat data dubbel wordt verstuurd.
Ik was vooral nieuwsgierig of er mensen ervaring hebben, voordat ik allemaal nieuwe dingen ga uitproberen.
makes it run like clockwork
Kan je de output hiervan posten? smartctl -a /dev/sdaComTech schreef op maandag 13 februari 2023 @ 12:11:
Moet ik me zorgen maken of is dit gewoon vals alarm?
Apple iPhone 16e LG OLED evo G5 Google Pixel 10 Samsung Galaxy S25 Star Wars: Outlaws Nintendo Switch 2 Apple AirPods Pro (2e generatie) Sony PlayStation 5 Pro
Tweakers is onderdeel van
DPG Media B.V.
Alle rechten voorbehouden - Auteursrecht © 1998 - 2025
•
Hosting door TrueFullstaq