Acties:
  • 0 Henk 'm!

  • zx9r_mario
  • Registratie: Oktober 2004
  • Laatst online: 21-06 23:00
Backups kunnen differentieel worden gemaakt en via een soort van filebrowser kun je in de backupbestanden kijken.

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

Sinds vandaag op een HP microserver gen8 met 16GB Proxmox geinstalleerd

Nu zit ik met verbazing te kijken hoe snel ik een LXC container in de lucht kreeg maar ik lees hier @A1AD

LXC met ZFS gebindmount en beheerd door de proxmox host.

wat betekent dat eerste?

Zelf werk ik op dit moment met VMs in ESXI die via NFS naar een NAS gaan voor de data
Dat wil ik dus vanaf de container en/of VM in Proxmox ook

En op basis van de containers zie ik al dat ik sneller bepaalde applicaties naast elkaar kan draaien zonder dat ze elkaar in de weg gaan zitten door CPU/Geheugen

Maar ik zou wel de juiste installatie keuze willen maken bij de inrichting van zo'n container in proxmox

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-06 19:35
Wat is nu concreet je vraag? Wat LXC is? Daar kan je best een hoop over vinden op google?
Of wat de beste container solution in Proxmox is?
Of hoe je zo'n LXC container daadwerkelijk inricht?

[ Voor 15% gewijzigd door FireDrunk op 22-07-2020 15:51 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

FireDrunk schreef op woensdag 22 juli 2020 @ 15:51:
Wat is nu concreet je vraag? Wat LXC is? Daar kan je best een hoop over vinden op google?
Of wat de beste container solution in Proxmox is?
Of hoe je zo'n LXC container daadwerkelijk inricht?
nee wat is

LXC met ZFS gebindmount en beheerd door de proxmox host.

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-06 19:35
LXC is een container techniek, ZFS (o.a.) een filesystem.
Elke container heeft zijn eigen 'root' nodig.

In Proxmox kan je die automatisch aan laten maken als een ZFS filesystem.
Dat managed Proxmox dan voor je. Hierdoor is elk filesystem van elke container een eigen ZFS filesystem.
Geeft je mooie features als snapshotten van je containers.

Even niets...


Acties:
  • +1 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
zeroday schreef op woensdag 22 juli 2020 @ 15:52:
[...]


nee wat is

LXC met ZFS gebindmount en beheerd door de proxmox host.
In zijn geval dat zijn file shares zoals door samba geserveerd vanuit een LXC container worden geregeld i.p.v. vanuit een VM (met passthrough schijven) zoals je het in ESXi doet en i.p.v. je samba shares vanuit je host laten serveren.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
zeroday schreef op woensdag 22 juli 2020 @ 15:52:
[...]


nee wat is

LXC met ZFS gebindmount en beheerd door de proxmox host.
Ja wat @CurlyMo zegt.

Ik heb een SSD die enkel als datastore dient voor het rootfs van de LXC containers.

Daarnaast heb ik een grote Raidz2 pool beheerd door de Proxmox host. Op die pool staan verschillende datasets waar de verschillende LXCs aan moeten kunnen.
Bvb: download lxc moet aan mijn media dataset kunnen, plex moet ook aan die dataset kunnen.

Om alles zo efficient mogelijk te maken "bind mounten" we de datatsets in de LXC container, zo kan je met je LXC aan de data op de ZFS host zonder gebruik te moeten maken van NFS of Samba oid.

2de vb: dataset voor nextcloud data is gemound in de nextcloud LXC en in de backup LXC

[ Voor 5% gewijzigd door A1AD op 22-07-2020 21:14 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

A1AD schreef op woensdag 22 juli 2020 @ 21:12:
[...]


Ja wat @CurlyMo zegt.

Ik heb een SSD die enkel als datastore dient voor het rootfs van de LXC containers.

Daarnaast heb ik een grote Raidz2 pool beheerd door de Proxmox host. Op die pool staan verschillende datasets waar de verschillende LXCs aan moeten kunnen.
Bvb: download lxc moet aan mijn media dataset kunnen, plex moet ook aan die dataset kunnen.

Om alles zo efficient mogelijk te maken "bind mounten" we de datatsets in de LXC container, zo kan je met je LXC aan de data op de ZFS host zonder gebruik te moeten maken van NFS of Samba oid.

2de vb: dataset voor nextcloud data is gemound in de nextcloud LXC en in de backup LXC
Ah helder .. niet iets wat gedaan wordt in de GUI zo lijkt het.
https://pve.proxmox.com/w...tainer#_bind_mount_points
maar dat is iets om een keer uit te zoeken ;)

Het was al even een dingetje om NFS, Apache2 te laten starten in een LXC. Dus wat dat betreft geeft Proxmox een kleine leercurve met het instellen van dingen ;)

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
zeroday schreef op woensdag 22 juli 2020 @ 21:21:
[...]
Ah helder .. niet iets wat gedaan wordt in de GUI zo lijkt het.
https://pve.proxmox.com/w...tainer#_bind_mount_points
maar dat is iets om een keer uit te zoeken ;)
Klopt, en met unprivileged container ook even opletten met rechten. Maar daar heeft CurlyMo een heldere uitleg over geschreven in dit topic.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

A1AD schreef op donderdag 23 juli 2020 @ 13:37:
[...]


Klopt, en met unprivileged container ook even opletten met rechten. Maar daar heeft CurlyMo een heldere uitleg over geschreven in dit topic.
ik heb even een simpele test gedaan met een folder om die te binden aan een container vanuit proxmox
Sjee als je even weet wat de regel moet zijn is dat ook makkelijk.
Dat gaat me weer wat mounts schelen om een certificaat over de verschillende containers te verspreiden

Over rechten maak ik me geen zorgen: alles is huis tuin gebruik zonder ingang van het internet.

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

A1AD schreef op donderdag 23 juli 2020 @ 13:37:
[...]


Klopt, en met unprivileged container ook even opletten met rechten. Maar daar heeft CurlyMo een heldere uitleg over geschreven in dit topic.
en ik maar denken dat het verschil tussen privileged and uprivileged iets was als een 0 in de config zetten ipv de 1 .. het is dat ik aan het testen was maar anders was ik even droevig geworden ;) Dat bleek dus niet zo te zijn .. ;)

Nu 5 containertjes aan het draaien om te zien of het werkt
sabnzbd v3
sonarr v3
heimdal
wildcard certificaat op proxmox doorgegeven via bind mount
en nog wat andere meuk

Easy peacy..

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
zeroday schreef op zaterdag 25 juli 2020 @ 09:21:
[...]
en ik maar denken dat het verschil tussen privileged and uprivileged iets was als een 0 in de config zetten ipv de 1 .. het is dat ik aan het testen was maar anders was ik even droevig geworden ;) Dat bleek dus niet zo te zijn .. ;)
Je kan altijd een backup maken en bij het restoren kiezen voor al dan niet unpirvileged.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

A1AD schreef op zaterdag 25 juli 2020 @ 09:23:
[...]


Je kan altijd een backup maken en bij het restoren kiezen voor al dan niet unpirvileged.
Ja klopt, maar daarvoor had ik denk ik al teveel kapot gemaakt, want toen kreeg ik allemaal userID errors bij het uitpakken/terugzetten en was de container ineens foetsie ;)

[ Voor 4% gewijzigd door zeroday op 25-07-2020 10:12 ]

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Ik heb een Fujitsu D3644-B moederbord met daarop Proxmox, en wil graag SATA hot plugging gebruiken (/beschikbaar hebben voor als een drive zou falen). Echter lijkt dit niet te werken. Als ik een schijf aansluit of uit trek dat blijft die gewoon beschikbaar (/zichtbaar als /dev/sdX etc). Hot plugging heb ik in het moederbord uiteraard ingeschakeld, en in eerste instantie dacht ik dan ook dat hardwarematig (/bios config) wat mis ging. Maar ik heb zojuist even mij USB stick met Arch Linux ingeprikt en dan zie ik wel na een aantal seconden dat de drive wordt toegevoegd of verwijderd. Dus het probleem lijkt dan toch in Proxmox te zitten. Ik heb al gegoogled op Proxmox sata hot plug, maar helaas zonder resultaat. Zijn er hier dus die mij in de juiste richting kunnen wijzen?

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
@RobertMe Je moet een sata rescan doen na je acties. Dat doet die niet automatisch.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
CurlyMo schreef op zondag 26 juli 2020 @ 11:27:
@RobertMe Je moet een sata rescan doen na je acties. Dat doet die niet automatisch.
Gekke is dan dus wel dat het wel werkt met Arch Linux (gebruikte ik zowel op oude hardware, als nu dan met die USB stick). Wellicht dat powertop roet in het eten gooit en een periodieke scan stopt?

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
RobertMe schreef op zondag 26 juli 2020 @ 11:36:
[...]

Gekke is dan dus wel dat het wel werkt met Arch Linux (gebruikte ik zowel op oude hardware, als nu dan met die USB stick). Wellicht dat powertop roet in het eten gooit en een periodieke scan stopt?
Zit dus inderdaad in powertop en niet in Proxmox: RobertMe in "Het grote zuinige server topic - deel 2"

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

Afbeeldingslocatie: https://tweakers.net/i/TbgEDCTpjecTyaqMXobBzksP-Gk=/800x/filters:strip_icc():strip_exif()/f/image/KOcJ26IXKcUg1IxbcazHE5eH.jpg?f=fotoalbum_large

Wanneer ik op _console druk binnen proxmox waarbij ik een LXC container wil benaderen dan krijg ik in de GUI van het beheerconsole binnen proxmox een ' connection ' failed. Dubbelklik ik dan opent een nieuw window en wordt er wel een geldige connectie opgezet. Ook als ik naar NOVNC ga dan krijg ik een terminal, alleen ik vind het vaag waarom het systeem zonder die 'popup' een connectie failed aangeeft, terwijl bij andere LXC containers het wel goed werkt. Ben dus even zoekende wat er fout is gegaan of wat ik wellicht fout doe.

Ik heb tevens de qemu agent geinstalleerd maar in het beheer van proxmox zie ik bij de LXC containers niet wat het IP adres is van de machine terwijl als ik een Windows VM heb dit wel getoond wordt.
is er een mogelijkheid om de IP automatisch in de GUI van proxmox te zien ? zonder dat ik dat bijv. zelf handmatig in de notes zet?

mm bij de LXC containers zie ik dat de agent niet start
A dependency job for qemu-guest-agent.service failed
uhh..

[ Voor 4% gewijzigd door zeroday op 27-07-2020 08:34 ]

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
zeroday schreef op maandag 27 juli 2020 @ 08:30:
Ik heb tevens de qemu agent geinstalleerd maar in het beheer van proxmox zie ik bij de LXC containers niet wat het IP adres is van de machine terwijl als ik een Windows VM heb dit wel getoond wordt.
is er een mogelijkheid om de IP automatisch in de GUI van proxmox te zien ? zonder dat ik dat bijv. zelf handmatig in de notes zet?

mm bij de LXC containers zie ik dat de agent niet start
A dependency job for qemu-guest-agent.service failed
uhh..
QEMU en LXC zijn twee verschillende dingen. QEMU is een techniek voor virtual machines. LXC is een vorm van containers. Dat QEMU niet werkt binnen een LXC container is an zich dus niet heel gek. Beetje hetzelfde als dat bv de VirtualBox guest additions niet werken binnen een QEMU VM. Ander virtualisatieplatform dus ook daarbij snapt de een de ander niet.

En naar mijn idee stel je juist bij LXC eerder een static IP in (is ook de default). Dus dan kun je in het config tabje terug vinden welk IP adres je hebt ingesteld voor de interface..

Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

RobertMe schreef op maandag 27 juli 2020 @ 08:58:
[...]

QEMU en LXC zijn twee verschillende dingen. QEMU is een techniek voor virtual machines. LXC is een vorm van containers. Dat QEMU niet werkt binnen een LXC container is an zich dus niet heel gek. Beetje hetzelfde als dat bv de VirtualBox guest additions niet werken binnen een QEMU VM. Ander virtualisatieplatform dus ook daarbij snapt de een de ander niet.

En naar mijn idee stel je juist bij LXC eerder een static IP in (is ook de default). Dus dan kun je in het config tabje terug vinden welk IP adres je hebt ingesteld voor de interface..
Duidelijk.
dat de shell btw niet werkt is m.i. een time-out van een sessie, ga ik naar Summary en keer ik dan terug dan doet ie het wel.

Weer wat geleerd op deze eerste werkdag van de week ;)

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
zeroday schreef op maandag 27 juli 2020 @ 09:11:
[...]


Duidelijk.
dat de shell btw niet werkt is m.i. een time-out van een sessie, ga ik naar Summary en keer ik dan terug dan doet ie het wel.

Weer wat geleerd op deze eerste werkdag van de week ;)
Maak gewoon een ssh sessie naar je pve host zelf en doe dan: pct list gevolgd door pct enter "lxcid"

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

A1AD schreef op maandag 27 juli 2020 @ 09:24:
[...]


Maak gewoon een ssh sessie naar je pve host zelf en doe dan: pct list gevolgd door pct enter "lxcid"
da's een optie ;)

There are no secrets, only information you do not yet have


Acties:
  • +1 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-06 19:35
zeroday schreef op maandag 27 juli 2020 @ 08:30:
[Afbeelding]

Wanneer ik op _console druk binnen proxmox waarbij ik een LXC container wil benaderen dan krijg ik in de GUI van het beheerconsole binnen proxmox een ' connection ' failed. Dubbelklik ik dan opent een nieuw window en wordt er wel een geldige connectie opgezet. Ook als ik naar NOVNC ga dan krijg ik een terminal, alleen ik vind het vaag waarom het systeem zonder die 'popup' een connectie failed aangeeft, terwijl bij andere LXC containers het wel goed werkt. Ben dus even zoekende wat er fout is gegaan of wat ik wellicht fout doe.
*knip*
Daar heb ik ook veel last van gehad, ik dacht dat het iets met het self-signed certificaat te maken had. Niet elke browser vond het leuk om dat in de 'achtergrond' te doen, terwijl het in een popup wel mocht.

Misschien even Firefox <-> Chrome proberen (doorhalen wat je al gebruikt :+ )
RobertMe schreef op maandag 27 juli 2020 @ 08:58:
[...]

QEMU en LXC zijn twee verschillende dingen. QEMU is een techniek voor virtual machines. LXC is een vorm van containers. Dat QEMU niet werkt binnen een LXC container is an zich dus niet heel gek. Beetje hetzelfde als dat bv de VirtualBox guest additions niet werken binnen een QEMU VM. Ander virtualisatieplatform dus ook daarbij snapt de een de ander niet.

En naar mijn idee stel je juist bij LXC eerder een static IP in (is ook de default). Dus dan kun je in het config tabje terug vinden welk IP adres je hebt ingesteld voor de interface..
Niet helemaal, QEMU was 'vroegah' een Emulator, het kon al Virtualisation voordat CPU's het konden, volledig in Software. Daar zijn later de qemu-kvm extensions aan toegevoegd om emulatie te doen met behulp van die extra functies in de CPU's.

QEMU in de basis is vooral een emulator, en snapt vooral dingen over het delen van devices, disks, ISO's, en nog wat meer.

Hoewel qemu-kvm tegenwoordig volgens mij gewoon vast onderdeel is van qemu, is qemu in de basis niet verplicht een Virtualisatie platform :)

De Hypervisor extensies van de linux kernel, komen ook niet van QEMU bijvoorbeeld, maar QEMU gebruikt ze wel.

libvirtd, de meest gebruikte management tooling onder Linux, gebruikt standaard qemu, en Proxmox gebruikt zijn eigen schil rondom qemu (geen libvirtd dacht ik).

[ Voor 38% gewijzigd door FireDrunk op 27-07-2020 10:39 ]

Even niets...


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

FireDrunk schreef op maandag 27 juli 2020 @ 10:36:
[...]

Daar heb ik ook veel last van gehad, ik dacht dat het iets met het self-signed certificaat te maken had. Niet elke browser vond het leuk om dat in de 'achtergrond' te doen, terwijl het in een popup wel mocht.

Misschien even Firefox <-> Chrome proberen (doorhalen wat je al gebruikt :+ )
Heb al een goede workaround voor mezelf nu.
Heb geen self-signed certificaat, ik heb op proxmox een wildcard lets encrypt certificaat geïnstalleerd. Die heb ik vanuit de acme.sh folder gemount intern naar /export/certificate en die bind mount ik dan door naar de LXC's

enige nadeel bij de wildcard is dat ik elke keer een DNS challenge moet aanpassen in mijn DNS, maar dat is 2 minuten werk. het vernieuwen is dan 2 shell regels
daar heb ik al meer leren leven ;)

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-06 19:35
Installeer dan gewoon Traefik of een andere Let's Encrypt proxy ;)
Proxmox' systeem daar voor misbruiken lijkt me ook onhandig.

Even niets...


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

FireDrunk schreef op maandag 27 juli 2020 @ 10:51:
Installeer dan gewoon Traefik of een andere Let's Encrypt proxy ;)
Proxmox' systeem daar voor misbruiken lijkt me ook onhandig.
Dan is mijn antwoord: dank voor de tip, maar ik moest NU iets hebben en niet iets waar ik me nog in moet verdiepen ;)
en dat moest ongeveer werken zoals het in mijn andere omgeving(en) ook werkt.

dat er verschillende wegen naar rome leiden weet ik, maar ik zou niet weten waarom dat onhandig zou zijn. Maar ik ga dat maar even van je aannemen want waarschijnlijk ben je dat traject al gepasseerd.

NB (ik gebruik proxmox in een thuis omgeving) dus als er iets mis gaat heeft dat niet direct heftige gevolgen voor de mensheid.

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • FireDrunk
  • Registratie: November 2002
  • Laatst online: 21-06 19:35
Begrijp ik, het is vooral een risico om die private key te delen met veel VM's / Containers.
Ook is het vernieuwen van het certificaat mogelijk onhandig, maar als je de plek van dat certificaat deelt, zou je er omheen moeten kunnen werken. Lang niet alle applicaties vinden het leuk, als je het certificaat wijzigt terwijl de applicatie de file open heeft.

Maar om op je probleem terug te komen, als je een signed certificaat hebt, zou dat dus niet het probleem van je falende verbinding moeten veroorzaken.

Wat zegt F12 (Developers Console in Firefox en Chrome) terwijl je op die Console knop klikt?

Even niets...


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

FireDrunk schreef op maandag 27 juli 2020 @ 11:19:
Begrijp ik, het is vooral een risico om die private key te delen met veel VM's / Containers.
Ook is het vernieuwen van het certificaat mogelijk onhandig, maar als je de plek van dat certificaat deelt, zou je er omheen moeten kunnen werken. Lang niet alle applicaties vinden het leuk, als je het certificaat wijzigt terwijl de applicatie de file open heeft.

Maar om op je probleem terug te komen, als je een signed certificaat hebt, zou dat dus niet het probleem van je falende verbinding moeten veroorzaken.

Wat zegt F12 (Developers Console in Firefox en Chrome) terwijl je op die Console knop klikt?
Tsja. proxmox geeft nu geen enkele issue meer op 2 verschillende systemen als ik proxmox GUI benader en dan naar de _Console ga. Alles doet ie weer exact wat ie moet doen ook op het systeem die de melding gaf.. Ik hou het even in mijn achterhoofd.

De enige applicatie die het certificaat gebruikt is of een node process of een apache/nginx proces. Die moet je dan even restarten om het nieuwe certificaat te laten gebruiken. Sofar altijd goed gewerkt.

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • xces
  • Registratie: Juli 2001
  • Laatst online: 20-06 15:58

xces

To got or not to got..

Voor mijn nieuwe server zit ik te denken aan het draaien van ProxMox; ik zie een aantal opties voorbij komen dat je het van een USB stick kan draaien maar ook een aantal die een ZFS mirror gemaakt hebben, zoals hier bijvoorbeeld: YouTube: Home Networking: 100TB 10Gbit Server - Installing Proxmox and basic ...

Wat is het risico als je ProxMox op een USB stick draait t.o.v. het installeerd op 2 SSD disks? Ben je bij een corrupte USB stick je hele setup kwijt?

Stel ik wil het wel op 2x SSDs installeren; dan heb ik nog steeds 6 SATA poorten nodig voor mijn disks (waarschijnlijk start ik eerst met 5x WD-RED in RAID-Z2 ==> ~10.4TB beschikbaar)

Het huidige gekochte (maar niet niet binnen zijnde) moederbord is een Fujitsu D3644-B; die heeft 2 NVME slots maar ik weet niet of ik beide voor een harddisk kan gebruiken. Een alternatief zou misschien een Asus P11C-X zijn.

Tips/alternatieven?

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
xces schreef op maandag 27 juli 2020 @ 14:13:
Voor mijn nieuwe server zit ik te denken aan het draaien van ProxMox; ik zie een aantal opties voorbij komen dat je het van een USB stick kan draaien maar ook een aantal die een ZFS mirror gemaakt hebben, zoals hier bijvoorbeeld: YouTube: Home Networking: 100TB 10Gbit Server - Installing Proxmox and basic ...

Wat is het risico als je ProxMox op een USB stick draait t.o.v. het installeerd op 2 SSD disks? Ben je bij een corrupte USB stick je hele setup kwijt?

Stel ik wil het wel op 2x SSDs installeren; dan heb ik nog steeds 6 SATA poorten nodig voor mijn disks (waarschijnlijk start ik eerst met 5x WD-RED in RAID-Z2 ==> ~10.4TB beschikbaar)

Het huidige gekochte (maar niet niet binnen zijnde) moederbord is een Fujitsu D3644-B; die heeft 2 NVME slots maar ik weet niet of ik beide voor een harddisk kan gebruiken.
Misschien een domme vraag, maar waarom 1 USB stick, of 2 SSDs in mirror? Je kunt het toch ook op 1 SSD draaien.

Overigens ondersteund dat moederbord maar 1 NVME SSD (en ook alleen NVME SSDs, en geen SATA SSDs met M.2 aansluiting). Het moederbord heeft wel 2 M.2 slots, waarvan 1 voor een NVME SSD, en een voor bv een wifi module (IIRC, in ieder geval "een andere M.2 variant"). Dan zou je dus een NVME PCIe insteekkaart moeten bijplaatsen (uit China te krijgen voor een paar euro). Dan kun je wel twee NVME SSDs gebruiken (een rechtstreeks op het moederbord, en de ander via die PCIe kaart).

En wat ik zelf heb gedaan is alles geinstalleerd met ZFS, en dan nog een pool op HDDs. De rpool van op de SSD repliceer ik vervolgens naar de HDDs en that's it. Mocht de SSD overleiden, tsja, shit happens en moet ik een nieuwe erin zetten en de rpool van backup terug zetten. De VMs & containers heb ik dan dus wel lekker snel vanaf een SSD draaien, en de "veiligheid" voor uitval door te backuppen naar HDD.

Ga je van op een USB stick draaien dan ga je waarschijnlijk ook alles (VMs / containers) vanaf de HDDs draaien, en qua performance kan dat lijkt mij wel eens minder zijn. Of je moet dus al Proxmox zelf op USB zetten, vervolgens de VMs & containers op een SSD, en de bulk opslag op HDDs. Maar vraag is dan of je het jezelf niet onnodig complex maakt.


Edit:
Een alternatief zou misschien een Asus P11C-X zijn.
Even snel gekeken, maar deze is nog minder dan de Fujitsu? Deze heeft wel 2 M.2 slots waar je een SSD in kunt plaatsen, maar een van beide ondersteund alleen SATA, en de ander wel SATA en NVME. Maar er staat ook bij dat als je SATA gebruikt op de M.2 slots dat dan een corresponderende SATA poort wordt uitgeschakeld. Dus je kunt ook op dat bord maar 1 M.2 NVME drive gebruiken met 6 SATA poorten, of 1 of 2 M.2 SATA SSDs maar dan kun je ook maar 5 of 4 SATA poorten gebruiken. Dus effectief heb je dan hetzelfde als de Fujitsu. Je kunt geen M.2 SATA SSDs gebruiken (tenzij je niet meer 6 SATA poorten wilt gebruiken).

[ Voor 15% gewijzigd door RobertMe op 27-07-2020 14:38 ]


Acties:
  • 0 Henk 'm!

  • xces
  • Registratie: Juli 2001
  • Laatst online: 20-06 15:58

xces

To got or not to got..

Ok, ik snap wat je zegt maar nog niet hoe je het gedaan hebt :p

Correct me if i'm wrong:
- Je hebt bij de installatie van proxmox gekozen voor een RAID0 op je SSD disk die op je moederbord zit.
- OS + VMS + Containers draaien dan vanaf de SSD.
- Bevat de rpool (google leert me: Root Pool) alle configuratie van de Proxmox installatie? Kun je hierover uitwijden hoe je die dan backupped?

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
Waarom zou je niet gewoon alles op een SSD mirror zetten. Als die te klein is, dan zet je de LXC containers / VM's toch (deels) op je datapool?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • xces
  • Registratie: Juli 2001
  • Laatst online: 20-06 15:58

xces

To got or not to got..

@CurlyMo omdat ik een hybride docker + nas server zou willen maken.

Voor de storage pool zou ik voor nu mijn 4x WD RED 4TB disks willen gebruiken; en misschien koop ik er nog 1 bij. Docker images trek ik op dat moment wel opnieuw van internet. Eigen docker images bouw ik met een script zo weer op.

Momenteel was mijn server een single node docker server; maar zonder NAS storage. Voordelen van Proxmox zouden zijn dat deze mijn pool in de gaten kunnen houden als er een disk kapot gaat enzv.

Dan zou ik in proxmox VE meerdere VMs willen draaien op Ubuntu en daarop Docker draaien - ik begreep dat dit de 'way to go' is.

edit: als docker image kan ik dan evt crashplan draaien die een bepaald deel van de storage pool naar internet backupped.

[ Voor 9% gewijzigd door xces op 27-07-2020 15:12 ]


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
xces schreef op maandag 27 juli 2020 @ 15:12:
@CurlyMo omdat ik een hybride docker + nas server zou willen maken.

Voor de storage pool zou ik voor nu mijn 4x WD RED 4TB disks willen gebruiken; en misschien koop ik er nog 1 bij. Docker images trek ik op dat moment wel opnieuw van internet. Eigen docker images bouw ik met een script zo weer op.

Momenteel was mijn server een single node docker server; maar zonder NAS storage. Voordelen van Proxmox zouden zijn dat deze mijn pool in de gaten kunnen houden als er een disk kapot gaat enzv.

Dan zou ik in proxmox VE meerdere VMs willen draaien op Ubuntu en daarop Docker draaien - ik begreep dat dit de 'way to go' is.

edit: als docker image kan ik dan evt crashplan draaien die een bepaald deel van de storage pool naar internet backupped.
Als het je puur om het draaien van Docker gaat kun je IMO net zo goed Ubuntu of Debian gebruiken, met ZFS als filesystem.

Zelf draai ik vervolgens wel ook grotendeels alles in Docker, maar ik heb dan wel meerdere containers / VMs die allemaal in een eigen VLAN hangen. Met Docker is dat een stuk lastiger in te regelen om de ene set containers in het ene VLAN te plaatsen en een andere set containers in een ander VLAN. Maar tot nu toe heb ik verschillende jaren een Arch Linux installatie gedraaid, ook met ZFS, en dan Docker daar op. Alleen liep ik dan dus tegen "probleem" aan dat alles in hetzelfde VLAN zat (of met macvlan alles aan eigen netwerk interface hangen maar dan krijgt elke Docker container zijn eigen IP wat ook verre van ideaal is).

Acties:
  • 0 Henk 'm!

  • xces
  • Registratie: Juli 2001
  • Laatst online: 20-06 15:58

xces

To got or not to got..

@RobertMe ik heb gestoeid met meerdere VLANs en alhoewel het werkte ben ik me ook af gaan vragen wat het toegevoegde nut (voor mij) ervan was. Ik maak nu mijn netwerk aan met dit commando;

code:
1
2
3
4
5
if [ ! "$(docker network ls | grep -w halan)" ]; then
    echo "- Creating ..."
    docker network create -d macvlan --subnet=192.168.1.0/24 --gateway=192.168.1.1 -o parent=eth0 halan
    sleep 2
fi


Pre's voor proxmox zouden dan voor mij zijn:
* Docker in swarm mode kunnen draaien met meerdere VMs op zelfde hardware
* Dat proxmox de volumes in de gaten houd en mailt als er iets met de pools aan de hand is
* Geen custom setup van het core OS nodig buiten de proxmox installatie.

Toch?

[ Voor 0% gewijzigd door xces op 27-07-2020 15:33 . Reden: quote !== code ]


Acties:
  • 0 Henk 'm!

  • zx9r_mario
  • Registratie: Oktober 2004
  • Laatst online: 21-06 23:00
FireDrunk schreef op maandag 27 juli 2020 @ 10:51:
Installeer dan gewoon Traefik of een andere Let's Encrypt proxy ;)
Proxmox' systeem daar voor misbruiken lijkt me ook onhandig.
Nginx script met loadbalancing/failover wat ik zelf gebruik (proxmox nodes zitten in een lokaal subnet)

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
upstream proxmox {

    server <IP1>:8006;
    server <IP2>:8006;
    server <IP3>:8006;

    # Keep the connection sticky (otherwise the noVNC console redirection will only work randomly).
    ip_hash;
    keepalive 1;
}

server {
    server_name proxmox.xxx.nl;
    listen 80;
    listen [::]:80;
    rewrite ^(.*) https://$host$1 permanent;
    access_log /var/log/nginx/proxmox.access.log;
    error_log /var/log/nginx/proxmox.error.log;
}

server {
    listen 443 ssl http2;
    listen [::]:443 ssl http2;
    server_name proxmox.xxx.nl;
    ssl on;
    ssl_certificate /etc/letsencrypt/live/proxmox.xxx.nl/fullchain.pem; # managed by Certbot
    ssl_certificate_key /etc/letsencrypt/live/proxmox.xxx.nl/privkey.pem; # managed by Certbot

    access_log /var/log/nginx/proxmox.access.log;
    error_log /var/log/nginx/proxmox.error.log;

    proxy_redirect off;
    location / {
        proxy_http_version 1.1;
        proxy_set_header Upgrade $http_upgrade;
        proxy_set_header Connection "upgrade"; 
        proxy_buffering off;
        client_max_body_size 0;
        proxy_connect_timeout  3600s;
        proxy_read_timeout  3600s;
        proxy_send_timeout  3600s;
        send_timeout  3600s;
        proxy_pass https://proxmox;
    }

}

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
Voor de mensen hier die op Proxmox ook hun router hebben draaien. Hebben jullie nog iets qua High Availability ingesteld zodat een fysieke backup router het kan overnemen? Of hoe zien jullie dat risico?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Sandolution
  • Registratie: November 2015
  • Laatst online: 04-06 23:22
CurlyMo schreef op vrijdag 31 juli 2020 @ 15:31:
Voor de mensen hier die op Proxmox ook hun router hebben draaien. Hebben jullie nog iets qua High Availability ingesteld zodat een fysieke backup router het kan overnemen? Of hoe zien jullie dat risico?
Ik heb op mijn server o.a. opnsense draaien, waar middels een dubbele NIC het internet binnenkomt (WAN) en eruit gaat (LAN). Als de server uit gaat, wat natuurlijk als het goed is niet veel voorkomt, ligt het internet ook eruit. Helaas, jammer dan. Als het echt nodig is, kan ik de twee kabels die naar de NIC gaan nog aan elkaar koppelen om zo een fysieke bypass te maken. Risico is niet zo groot, als het niet werkt is er geen man overboord.

Acties:
  • 0 Henk 'm!

  • eymey
  • Registratie: Februari 2000
  • Laatst online: 15:31
CurlyMo schreef op vrijdag 31 juli 2020 @ 15:31:
Voor de mensen hier die op Proxmox ook hun router hebben draaien. Hebben jullie nog iets qua High Availability ingesteld zodat een fysieke backup router het kan overnemen? Of hoe zien jullie dat risico?
Hier ongeveer zelfde verhaal als @Sandolution .

Ik draai hier nu sinds het voorjaar van 2019 een Shuttle DH310 met daarin een Core i3-8100 en 16 GB RAM, met daarop ook OPNSense als 'main router' in een KVM VM.

De vNIC voor LAN komt gewoon uit een 'traditionele' bridge op het host OS met daarin ook de fysieke NIC.

De fysieke NIC voor WAN wordt via VT-d/pcie-passthrough direct aan de OPNSense VM gegeven.

Dit draait, na het initieel wel wat tweaken aan kernel settings in OPNSense, 100% stabiel. De enige downtime die ik tot dusver heb gehad is van updates aan Proxmox danwel OPNSense, of een enkele storing bij de internetprovider. En de 1 Gbps van mijn verbinding bij Tweak wordt met gemak gedraaid.

Wel is het verder nog vrij 'rustig' op de server. Behalve Proxmox draait er op dit moment alleen een LXC met Nightscout (een NodeJS server waar bloedglucosewaarden van m'n vriendin haar glucosesensor vanuit haar smartphone naartoe worden gestuurd). Ik had veel 'grotere' plannen met de Proxmox machine, maar het ontbreekt me door de gezinssituatie verder nogal aan tijd en motivatie :P.

Maar goed, mocht er in deze setup ooit eens iets echt falen, dan ligt er nog wel ergens een routertje op zolder dat ik in no time in het netwerk kan hangen om snel weer een voorziening voor internet te hebben.

Marstek Venus 5.12kWh v151, CT003 V114 DSMR4, PV 11xEnphase IQ7+ Z-O, 5xEnphase IQ7+ N-W - ~4,7Wp theoretisch, ~3,5Wp praktijk


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
CurlyMo schreef op vrijdag 31 juli 2020 @ 15:31:
Voor de mensen hier die op Proxmox ook hun router hebben draaien. Hebben jullie nog iets qua High Availability ingesteld zodat een fysieke backup router het kan overnemen? Of hoe zien jullie dat risico?
Ik heb 2 pve machines, de "backup" pve machine draait 2 openwrt lxc's (main en gasten) en dient als ZFS backup target van de main machine. De openwrt lxc's zijn gesynced met de main machine dmv pve-zsync elk 15min.

Als de backup pve onderhoudt nodig heeft start ik de routers op de main.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
Ik krijg het toch niet helemaal werkend. Mijn glasvezel komt binnen op VLAN 34 en mijn netwerk loopt over VLAN 1. Ik heb dus twee netwerk adapters aangemaakt:
code:
1
2
net0: name=eth0,bridge=vmbr0,hwaddr=XX:XX:XX:XX:XX,ip=10.0.0.1/24,ip6=dhcp,tag=1,type=veth
net1: name=wan0,bridge=vmbr0,hwaddr=XX:XX:XX:XX:XX,ip=dhcp,ip6=dhcp,tag=34,type=veth


Ik kan verbinden met mijn glasvezel provider, de DHCP server doet het ook prima, alleen krijgen mijn clients geen internet verbinding. Moet ik nog iets speciaals doen om een forward te doen tussen LAN en WAN?

Ik draai overigens OpenWRT.

De OpenWRT LXC container heeft ook gewoon internet verbinding.




Daarbovenop vraag ik me af wat je met het IP adres doet van Proxmox zelf en de OpenWRT LXC container. Krijgen die beide een statisch ip adres? Je wil namelijk niet dat Proxmox onbereikbaar is als de OpenWRT LXC container niet start.

[ Voor 20% gewijzigd door CurlyMo op 31-07-2020 22:41 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Sandolution
  • Registratie: November 2015
  • Laatst online: 04-06 23:22
eymey schreef op vrijdag 31 juli 2020 @ 16:39:
[...]
Dit draait, na het initieel wel wat tweaken aan kernel settings in OPNSense, 100% stabiel.
Wat heb je gewijzigd? Hier draait het 99% stabiel, met uitzondering dat heel af en toe de verbinding naar WAN 'bevriest' zonder entries in de log. Een herstart van de vm is dan wel voldoende om het weer aan de gang te krijgen. Heb nog niet kunnen achterhalen waar dat aan kan liggen. Wellicht kan jouw tweak iets veranderen daaraan.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
CurlyMo schreef op vrijdag 31 juli 2020 @ 20:16:
Ik krijg het toch niet helemaal werkend. Mijn glasvezel komt binnen op VLAN 34 en mijn netwerk loopt over VLAN 1. Ik heb dus twee netwerk adapters aangemaakt:
code:
1
2
net0: name=eth0,bridge=vmbr0,hwaddr=XX:XX:XX:XX:XX,ip=10.0.0.1/24,ip6=dhcp,tag=1,type=veth
net1: name=wan0,bridge=vmbr0,hwaddr=XX:XX:XX:XX:XX,ip=dhcp,ip6=dhcp,tag=34,type=veth


Ik kan verbinden met mijn glasvezel provider, de DHCP server doet het ook prima, alleen krijgen mijn clients geen internet verbinding. Moet ik nog iets speciaals doen om een forward te doen tussen LAN en WAN?

Ik draai overigens OpenWRT.

De OpenWRT LXC container heeft ook gewoon internet verbinding.




Daarbovenop vraag ik me af wat je met het IP adres doet van Proxmox zelf en de OpenWRT LXC container. Krijgen die beide een statisch ip adres? Je wil namelijk niet dat Proxmox onbereikbaar is als de OpenWRT LXC container niet start.
Mijn netwerk staat altijd op DHCP in de proxmox gui. Fixed adressen config ik dan verder in OpenWRT. Ik meen me te herinneren dat er een dingetje was hiermee.

Config main router:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
arch: amd64
cores: 2
hostname: oWRT-Main
memory: 256
net0: name=eth1,bridge=vmbr1,hwaddr=5E:1A:B0:B9:F0:D5,ip=dhcp,ip6=dhcp,type=veth
net1: name=eth10,bridge=vmbr0,hwaddr=9A:2B:42:7D:6F:A2,ip=dhcp,ip6=dhcp,tag=10,type=veth
net2: name=eth52,bridge=vmbr1,hwaddr=BE:1D:06:44:2B:DC,ip=dhcp,ip6=dhcp,tag=52,type=veth
net6: name=eth666,bridge=vmbr0,hwaddr=A6:CE:60:3B:98:FF,ip=dhcp,ip6=dhcp,tag=666,type=veth
net7: name=eth50,bridge=vmbr0,hwaddr=76:81:FE:2A:61:1B,tag=50,type=veth
onboot: 1
ostype: unmanaged
rootfs: local-zfs:subvol-117-disk-0,size=4G
swap: 0
unprivileged: 1
lxc.include: /usr/share/lxc/config/openwrt.common.conf
lxc.include: /usr/share/lxc/config/common.conf
lxc.cap.drop: sys_admin
lxc.mount.entry: tmp tmp tmpfs rw,nodev,relatime,mode=1777 0 0


Config gasten router
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
arch: amd64
cores: 2
hostname: oWRT-Gasten
memory: 256
net0: name=eth0,bridge=vmbr1,hwaddr=42:3A:CF:1A:2F:ED,ip=dhcp,type=veth
net1: name=eth10,bridge=vmbr0,hwaddr=EA:3A:22:13:70:ED,ip=dhcp,ip6=dhcp,tag=10,type=veth
net2: name=eth53,bridge=vmbr1,hwaddr=0A:18:AF:07:D0:8E,ip=dhcp,ip6=dhcp,tag=53,type=veth
net3: name=eth54,bridge=vmbr1,hwaddr=B6:41:34:9A:D1:12,ip=dhcp,ip6=dhcp,tag=54,type=veth
net4: name=eth55,bridge=vmbr1,hwaddr=12:00:82:CB:F8:53,ip=dhcp,ip6=dhcp,tag=55,type=veth
onboot: 1
ostype: unmanaged
rootfs: local-zfs:subvol-118-disk-1,size=4G
swap: 0
unprivileged: 1
lxc.include: /usr/share/lxc/config/common.conf
lxc.cap.drop: sys_admin
lxc.mount.entry: tmp tmp tmpfs rw,nodev,relatime,mode=1777 0 0


Ik heb 2 fysieke netwerk kaarten in de host beide gebridged (VMBR1 en VMBR0)
Beide zitten in de smartswitch, vmbr0 wordt gebruikt voor de WAN tag (10), de DMZ tag (666) en de tag voor het publieke wifi (50). vmbr1 voor de verschillende client netwerken. (52,53,54,55).

De lan maak je dan static langs de OpenWRT kant:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
config interface 'lanadmin'
    option ifname 'eth1'
    option proto 'static'
    option ipaddr '192.168.1.1'
    option netmask '255.255.255.0'
    option delegate '0'
    option type 'bridge'

config interface 'LANSTUDIO'
    option proto 'static'
    option ifname 'eth54'
    option type 'bridge'
    option netmask '255.255.255.0'
    option delegate '0'
    option ipaddr '10.30.54.1'


al dan niet met DHCP enabled:
code:
1
2
3
4
5
6
7
8
9
config dhcp 'lanadmin'
    option interface 'lan'
    option ignore '1'

config dhcp 'LANSTUDIO'
    option interface 'LANSTUDIO'
    option start '150'
    option leasetime '4h'
    option limit '170'


De PVE hosts zitten in vlan1 mijn mgmnt vlan enkel met fixed IP's. Ik heb op mijn switchen telkens een poort beschikbaar untagged in die vlan plus de verschillende wifi ap's zenden een SSID uit in deze vlan met een belachelijk moeilijk ww met WPA3. Genoeg mogelijkheden om met de mgmnt vlan te verbinden indien er iets gebeurd met de routers.

Routing tussen main en gasten router gebeurd ook via deze vlan.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
A1AD schreef op zaterdag 1 augustus 2020 @ 09:53:
[...]


Mijn netwerk staat altijd op DHCP in de proxmox gui. Fixed adressen config ik dan verder in OpenWRT. Ik meen me te herinneren dat er een dingetje was hiermee.
Als je OpenWRT LXC container op een of andere manier niet opkomt, dan kan je dus ook niet verbinden met Proxmox, omdat die geen IP toegewezen krijgt?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
CurlyMo schreef op zaterdag 1 augustus 2020 @ 10:34:
[...]

Als je OpenWRT LXC container op een of andere manier niet opkomt, dan kan je dus ook niet verbinden met Proxmox, omdat die geen IP toegewezen krijgt?
Jawel, lees mijn laatste paragraaf?
De PVE hosts zitten in vlan1 mijn mgmnt vlan enkel met fixed IP's. Ik heb op mijn switchen telkens een poort beschikbaar untagged in die vlan plus de verschillende wifi ap's zenden een SSID uit in deze vlan met een belachelijk moeilijk ww met WPA3. Genoeg mogelijkheden om met de mgmnt vlan te verbinden indien er iets gebeurd met de routers.
Of bedoel je iets anders?

Edit: routing tussen de client vlans en de mgmnt vlan zal dan uiteraard niet werken. Vandaar dat ik dan rechstreeks op vlan1 zal verbinden met laptop en fixed ip.

[ Voor 10% gewijzigd door A1AD op 01-08-2020 10:57 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
A1AD schreef op zaterdag 1 augustus 2020 @ 10:55:
[...]
Jawel, lees mijn laatste paragraaf?

Of bedoel je iets anders?
Omdat de IP's dan nog altijd van een router moeten komen, die dan niet werkt. Fixed of niet.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
CurlyMo schreef op zaterdag 1 augustus 2020 @ 12:04:
[...]

Omdat de IP's dan nog altijd van een router moeten komen, die dan niet werkt. Fixed of niet.
:+ nee toch... als je pve een fixed ip heeft en je laptop ook een fixed ip (in geval van router down) kan je er toch gewoon aan. Je hebt toch geen routers nodig om een netwerk bereikbaar te maken.

In geval van router down steek ik mijn laptop in het zelfde layer2 netwerk als de pve en geef ik hem(laptop) een fixed ip.

[ Voor 12% gewijzigd door A1AD op 01-08-2020 13:17 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
A1AD schreef op zaterdag 1 augustus 2020 @ 13:13:
[...]


:+ nee toch... als je pve een fixed ip heeft en je laptop ook een fixed ip (in geval van router down) kan je er toch gewoon aan. Je hebt toch geen routers nodig om een netwerk bereikbaar te maken.

In geval van router down steek ik mijn laptop in het zelfde layer2 netwerk als de pve en geef ik hem een fixed ip.
Ok, dus proxmox zelf een fixed IP, en je containers en VM's DHCP. Ik las dat je alle vaste IP adressen vanuit OpenWRT liet komen:
A1AD schreef op zaterdag 1 augustus 2020 @ 09:53:
[...]
Mijn netwerk staat altijd op DHCP in de proxmox gui. Fixed adressen config ik dan verder in OpenWRT.
Kan je je Proxmox hoofd netwerk config plaatsen?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
CurlyMo schreef op zaterdag 1 augustus 2020 @ 13:17:
[...]

Ok, dus proxmox zelf een fixed IP, en je containers en VM's DHCP. Ik las dat je alle vaste IP adressen vanuit OpenWRT liet komen:
Proxmox heeft bij mij inderdaad altijd een fixed IP, de netwerk interfaces in de OpenWRT LXC staan op DHCP gezien vanuit de Proxmox GUI maar ik maak er wel static interfaces van in de config van OpenWRT.
De andere VM's en LXC"s kies je zelf, ik heb meestal een kleine DHCP range (100-150 oid) voor clients en een fixed "range" voor vaste spullen zoals AP's en LXC's.
vb: 1-10 routers, 11 - 20 AP's, 20-50 LXC's, ... 100-150 DHCP.
CurlyMo schreef op zaterdag 1 augustus 2020 @ 13:17:
[...]
Kan je je Proxmox hoofd netwerk config plaatsen?
PVE netwerk:
Afbeeldingslocatie: https://tweakers.net/i/hQvb3xGbsboAoZgJyccA9kJWcxg=/800x/filters:strip_icc():strip_exif()/f/image/LdI9IR4jF0MIiKZFFDypRN0B.jpg?f=fotoalbum_large

oWRT-Gasten:
Afbeeldingslocatie: https://tweakers.net/i/4ohvTw78t4ClBXNzGFpGsr_AZ7I=/800x/filters:strip_icc():strip_exif()/f/image/tKVn4qIYDiIdQap6A4FN3zsZ.jpg?f=fotoalbum_large

oWRT-Main:
Afbeeldingslocatie: https://tweakers.net/i/2RzA640MI6iKmqKs-HH__uZKMOA=/800x/filters:strip_icc():strip_exif()/f/image/ZhK8grAg22vMTn9ic5LYElSo.jpg?f=fotoalbum_large

Op mijn hoofd server staan beide oWRT's klaar om gestart te worden indien de andere server faalt:
Afbeeldingslocatie: https://tweakers.net/i/GIrl_io-4PY3N6YhAxB4xSp6QHA=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/lEqnis037ZroOVPCtFN2g4Kw.jpg?f=user_large

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
En die overige LXC containers staan ook allemaal op DHCP?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
CurlyMo schreef op zaterdag 1 augustus 2020 @ 13:35:
En die overige LXC containers staan ook allemaal op DHCP?
De meeste op fixed. Ik heb het niet zo voor DHCP als het over servers gaat. Ik vind het ook veel overzichtelijker om het IP van de LXC te zien in de Proxmox GUI en dat kan voorlopig enkel als je hem fixed instelt.

Fixed: duidelijk zichtbaar, DHCP niet:
Afbeeldingslocatie: https://tweakers.net/i/vsTOENsDak5nF0FsLzfJE2KIt5I=/800x/filters:strip_icc():strip_exif()/f/image/goCiN4s6QQMC1zIpT2Ppb8fk.jpg?f=fotoalbum_large

Ik gebruik PHPIPAM (lxc) als IP beheer tool.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
CurlyMo schreef op zaterdag 1 augustus 2020 @ 13:17:
[...]

Ok, dus proxmox zelf een fixed IP, en je containers en VM's DHCP. Ik las dat je alle vaste IP adressen vanuit OpenWRT liet komen:
Aha nu begrijp ik de verwarring. Nee ik spreek over echte statische IP's en geen fixed DHCP leases!

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
Om het e.e.a. te testen probeer ik het volgende wat dus ook al niet werkt.

Bridge0: Hoofd netwerk 10.0.0.*
Bridge1: Intern netwerk voor proxmox containers 192.168.0.*

Alle containers zitten sowieso in het Bridge1 netwerk. Dat levert de snelste verbinding op tussen containers. Ze zitten ook in Bridge0 netwerk zodat er vanaf buiten de Proxmox host verbinding te maken is met de containers en ze internet toegang hebben.

Ik dacht eens te gaan experimenten met een forward in de OpenWRT container. Hiervoor heb ik dus een container aangemaakt die enkel toegang heeft tot het Bridge1 netwerk. Via de OpenWRT container zou ik graag het Bridge0 en Bridge1 willen verbinden zodat containers die alleen toegang hebben tot het Bridge1 netwerk alsnog bij apparaten uit het Bridge0 netwerk kunnen.

Dit om mijn setup voor te bereiden op de situatie waarin in internet toegang laat regelen vanuit de Proxmox OpenWRT instantie.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
CurlyMo schreef op zaterdag 1 augustus 2020 @ 21:14:
Om het e.e.a. te testen probeer ik het volgende wat dus ook al niet werkt.

Bridge0: Hoofd netwerk 10.0.0.*
Bridge1: Intern netwerk voor proxmox containers 192.168.0.*

Alle containers zitten sowieso in het Bridge1 netwerk. Dat levert de snelste verbinding op tussen containers. Ze zitten ook in Bridge0 netwerk zodat er vanaf buiten de Proxmox host verbinding te maken is met de containers en ze internet toegang hebben.

Ik dacht eens te gaan experimenten met een forward in de OpenWRT container. Hiervoor heb ik dus een container aangemaakt die enkel toegang heeft tot het Bridge1 netwerk. Via de OpenWRT container zou ik graag het Bridge0 en Bridge1 willen verbinden zodat containers die alleen toegang hebben tot het Bridge1 netwerk alsnog bij apparaten uit het Bridge0 netwerk kunnen.

Dit om mijn setup voor te bereiden op de situatie waarin in internet toegang laat regelen vanuit de Proxmox OpenWRT instantie.
Waarom de keuze voor een intern netwerk en niet gewoon je hoofdnetwerk? Puur om een WAN - LAN situatie na te bootsen of zit er meer achter? Toon is wat config files, wat heb je getest? Wat lukt er juist niet? Traceroutes?

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
A1AD schreef op zaterdag 1 augustus 2020 @ 21:53:
[...]


Waarom de keuze voor een intern netwerk en niet gewoon je hoofdnetwerk? Puur om een WAN - LAN situatie na te bootsen of zit er meer achter?
Check

Proxmox
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
auto lo
iface lo inet loopback

auto eno1
iface eno1 inet manual

auto vmbr0
iface vmbr0 inet static
        address 10.0.0.101/24
        gateway 10.0.0.1
        bridge-ports eno1
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2-4094

auto vmbr1
iface vmbr1 inet static
        address 192.168.0.101/24
        bridge-ports none
        bridge-stp off
        bridge-fd 0


OpenWRT container:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
arch: amd64
cores: 1
hostname: openwrt
memory: 512
net0: name=eth0,bridge=vmbr0,hwaddr=XX:XX:XX:XX:XX,ip=dhcp,ip6=dhcp,tag=1,type=veth
net1: name=wan0,bridge=vmbr0,hwaddr=XX:XX:XX:XX:XX,ip=dhcp,ip6=dhcp,tag=34,type=veth
net2: name=eth1,bridge=vmbr1,firewall=1,hwaddr=XX:XX:XX:XX:XX,ip=dhcp,ip6=dhcp,type=veth
onboot: 1
ostype: unmanaged
rootfs: local-zfs:subvol-114-disk-0,size=8G
startup: order=1,up=1,down=30
swap: 512
unprivileged: 1
lxc.mount.entry: /dev/net dev/net none bind,create=dir


Test container
code:
1
2
3
4
5
6
7
8
9
arch: amd64
cores: 1
hostname: test
memory: 512
net0: name=eth0,bridge=vmbr1,firewall=1,hwaddr=XX:XX:XX:XX:XX,ip=dhcp,ip6=dhcp,type=veth
ostype: debian
rootfs: local-zfs:subvol-102-disk-1,size=8G
swap: 512
unprivileged: 1


OpenWRT /etc/config/network
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
config interface 'loopback'
        option ifname 'lo'
        option proto 'static'
        option ipaddr '127.0.0.1'
        option netmask '255.0.0.0'

config globals 'globals'
        option ula_prefix 'fde8:5375:6a04::/48'

config interface 'lan'
        option type 'bridge'
        option ifname 'eth0'
        option proto 'static'
        option netmask '255.255.255.0'
        option ipaddr '10.0.0.1'
        option ip6assign '64'

config interface 'WAN'
        option ifname 'wan0'
        option proto 'dhcp'
        option peerdns '0'
        option auto '0'

config interface 'WAN6'
        option ifname 'wan0'
        option proto 'dhcpv6'
        option reqaddress 'try'
        option reqprefix 'auto'
        option auto '0'

config interface 'INT'
        option proto 'static'
        option ifname 'eth1'
        option ipaddr '192.168.0.1'
        option netmask '255.255.255.0'


OpenWRT /etc/config/firewall
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
config defaults
        option syn_flood '1'
        option input 'ACCEPT'
        option output 'ACCEPT'
        option forward 'REJECT'

config zone
        option name 'lan'
        option input 'ACCEPT'
        option output 'ACCEPT'
        option forward 'ACCEPT'
        option network 'lan'

config zone
        option name 'int'
        option input 'ACCEPT'
        option output 'ACCEPT'
        option forward 'ACCEPT'
        option network 'int INT'

config zone
        option name 'wan'
        option input 'REJECT'
        option output 'ACCEPT'
        option forward 'REJECT'
        option masq '1'
        option mtu_fix '1'
        option network 'wan wan6 WAN WAN6'

config forwarding
        option src 'lan'
        option dest 'wan'

config forwarding
        option src 'int'
        option dst 'lan'

config forwarding
        option dest 'lan'
        option src 'int'


code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
# traceroute 10.0.0.142
traceroute to 10.0.0.142 (10.0.0.142), 30 hops max, 60 byte packets
 1  OpenWrt.lan (192.168.0.1)  0.104 ms  0.043 ms  0.028 ms
 2  * * *
 3  * * *
 4  * * *
 5  * * *
 6  * * *
 7  * * *
 8  * * *
 9  * * *
10  * * *
11  * * *
12  * * *
13  * * *
14  * * *
15  * * *
16  * * *
17  * * *
18  * * *
19  * * *
20  * * *
21  * * *
22  * * *
23  * * *
24  * * *
25  * * *
26  * * *
27  * * *
28  * * *
29  * * *
30  * * *

[ Voor 7% gewijzigd door CurlyMo op 01-08-2020 22:47 ]

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
@CurlyMo ik kan vanaf vandaag moeilijk aan mijn systeem en notities voor 2 weken.

Kijk is naar de verschillen tussen onze openwrt config file. En ik zou je proxmox firewall uitzetten op je lxc interfaces?

code:
1
2
3
4
lxc.include: /usr/share/lxc/config/openwrt.common.conf
lxc.include: /usr/share/lxc/config/common.conf
lxc.cap.drop: sys_admin
lxc.mount.entry: tmp tmp tmpfs rw,nodev,relatime,mode=1777 0 0

[ Voor 33% gewijzigd door A1AD op 02-08-2020 09:26 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +1 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
DIt werkt :)
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
config defaults
        option syn_flood '1'
        option input 'ACCEPT'
        option output 'ACCEPT'
        option forward 'REJECT'

config zone
        option name 'lan'
        option input 'ACCEPT'
        option output 'ACCEPT'
        option forward 'ACCEPT'
        option network 'lan'

config include
        option path '/etc/firewall.user'

config zone
        option input 'ACCEPT'
        option name 'INT'
        option output 'ACCEPT'
        option network 'INT'
        option forward 'ACCEPT'

config forwarding
        option dest 'lan'
        option src 'INT'

config forwarding
        option dest 'INT'
        option src 'lan'

config nat
        option src 'lan'
        option src_ip '192.168.0.0/24'
        option target 'MASQUERADE'

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • Miki
  • Registratie: November 2001
  • Nu online
Yeah, ik heb mijn poor man's server in de lucht! Afgelopen weekend had ik wat tijd om mijn Deskmini 310 om te toveren tot Proxmox server. Hiervoor gebruikte ik een Raspberry Pi maar dat is nu ik erop terug kijk een enorme pruts boel geweest met Docker en macvlan's en meer. Het is wellicht wat minder lean maar zoveel malen overzichtelijker en eenvoudiger op te zetten.

Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 18:32
Ik ben voornemens om ook met Proxmox aan de gang te gaan. Ik heb helemaal niet veel nodig, maar lekker aanklooien is wel leuk!

Huidige situatie:
HP Microserver Gen8, 4 disken met hardware raid 1 config. Baremetal Ubuntu server met bijna de gehele configuratie in Docker containers. Shares, software, alles zit in containers (stuk of 25). Qua data staan er de gebruikelijke films/series op, maar ook de foto's die mijn vrouw maakt. Backuppen doe ik via Duplicati naar de cloud én een extra USB-disk.

Nieuw bedachte situatie:
HP Prodesk G3 400, 2.5" disk voor Proxmox local storage (LXC/VM) en een m.2 voor de data. 1 LXC (Home Assistant) zal ongeveer 1/3 van de huidige Docker containers voor zijn rekening nemen en heeft ook meteen zijn eigen interne back-up oplossing. Back-ups van de LXC worden via Duplicati of gewoon rsync naar de USB-disk gekopieerd. De andere containers wil ik in het leven brengen door een Ubuntu server VM te maken waarin ik wederom met Docker aan de gang ga. Backuppen van de data kan wedereom via Duplicati. So far, so good dacht ikzelf.

Ik heb echter een (onhandige?) usecase bedacht: Ik wil de mediabestanden niet in de VM hebben. Ik heb bedacht dat ik al die data op de m.2 disk wil en via bijvoorbeeld een NFS share in mijn VM beschikbaar wil hebben. Op die manier kan ik via Duplicati de foto's nog steeds back-uppen naar de cloud en zijn de mediabestanden ook bereikbaar voor eventuele andere VM's. En ze maken de VMDK (geen idee wat het proxmox equivalent is?) niet onnodig groot.

Ik heb bovenstaande werkend. m.2 disk gemount, NFS share aangemaakt, gemount in de VM en dat werkt top, voor zover ik kan inschatten. Samba share via een container op die VM en ook op die manier is de data eenvoudig bereikbaar vanuit een Windows computer. Ik vraag me alleen af, kan dit handiger/slimmer? Bang voor dataverlies ben ik niet echt. De foto's staan op 4 plekken (Servertje, USB-disk, cloud, back-up van mijn vrouw). Alle andere data is niet van levenbelang en is alleen onhandig als het kwijtraakt.

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
lolgast schreef op dinsdag 4 augustus 2020 @ 10:19:
Ik heb echter een (onhandige?) usecase bedacht: Ik wil de mediabestanden niet in de VM hebben.
Om te beginnen, waar heb je een VM voor nodig wat met een LXC niet kan?

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 18:32
@CurlyMo Wat te denken van Docker icm NFS :D (:/)
LXC is géén alternatief voor mijn Docker omgeving. Ik wil containers. Ik vind de manier van updaten + zooi bij elkaar kunnen gooien te fijn

Dat lukt me niet in een LXC. Het is óf NFS, óf Docker (unpriviliged + keyctl=1)

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
lolgast schreef op dinsdag 4 augustus 2020 @ 10:50:
@CurlyMo Wat te denken van Docker icm NFS :D (:/)
LXC is géén alternatief voor mijn Docker omgeving. Ik wil containers. Ik vind de manier van updaten + zooi bij elkaar kunnen gooien te fijn

Dat lukt me niet in een LXC. Het is óf NFS, óf Docker (unpriviliged + keyctl=1)
Of een LXC container voor je dockers? Zolang je de LXC container maar alle rechten geeft die je vervolgens met docker weer inperkt.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 18:32
@CurlyMo Snap ik wat je bedoelt als ik het volgende zeg:
Jij bedoelt, een LXC maken en daarin de benodigde software installeren, ipv een VM maken en daar Docker containers in deployen?
Want dan komen we bij mijn punt dat ik de flexibiliteit van de containers niet wil opofferen. Er komen +/- 15 containers in die VM te draaien. Van webservers, reverse proxy software tot DSMR reader.

LXC is een super mooie techniek en voor Home Assistant ga ik het zeker gebruiken ipv mijn huidige Docker container. Maar vanwege het eenvoudig updaten van bijvoorbeeld NGINX naar de nieuwste versie, even een Wordpress omgeving deployen of het draaien van 2 AdGuard instances wil ik Docker niet opofferen :)

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
lolgast schreef op dinsdag 4 augustus 2020 @ 11:00:
@CurlyMo Snap ik wat je bedoelt als ik het volgende zeg:
Jij bedoelt, een LXC maken en daarin de benodigde software installeren, ipv een VM maken en daar Docker containers in deployen?
Ik zeg, een LXC container maken en daarin docker draaien.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 18:32
@CurlyMo Ah, ik zit weer op je golflengte :)
Prima, dat kan natuurlijk. Ik heb zojuist een debian 10 LXC gemaakt en daarin draait inderdaad ook Docker nu. Los van het feit dat een LXC wat minder resource intensief is dan een complete VM, mijn bedachte constructie blijft staan natuurlijk. NFS share op de proxmox host, mounten in LXC en gaan met die banaan?

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
lolgast schreef op dinsdag 4 augustus 2020 @ 11:14:
@CurlyMo Ah, ik zit weer op je golflengte :)
Prima, dat kan natuurlijk. Ik heb zojuist een debian 10 LXC gemaakt en daarin draait inderdaad ook Docker nu. Los van het feit dat een LXC wat minder resource intensief is dan een complete VM, mijn bedachte constructie blijft staan natuurlijk. NFS share op de proxmox host, mounten in LXC en gaan met die banaan?
Zoek even hier in het topic naar bind mounts.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
lolgast schreef op dinsdag 4 augustus 2020 @ 11:14:
@CurlyMo Ah, ik zit weer op je golflengte :)
Prima, dat kan natuurlijk. Ik heb zojuist een debian 10 LXC gemaakt en daarin draait inderdaad ook Docker nu. Los van het feit dat een LXC wat minder resource intensief is dan een complete VM, mijn bedachte constructie blijft staan natuurlijk. NFS share op de proxmox host, mounten in LXC en gaan met die banaan?
NFS is niet nodig, je kunt een bind mount doen. Ik weet even niet of dat via de Web UI kan of alleen via de CLI.

Maar je kunt een map van uit Proxmox dus direct ("op kernel niveau") delen met LXC.

Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 18:32
@CurlyMo @RobertMe
Owhja, die was ik ook al tegenkomen. Dat is misschien een wat robuustere manier ja! Vanwege mijn afdwaling naar VM niet meer over nagedacht. Thanks voor het meedenken so far :)

Acties:
  • 0 Henk 'm!

  • Miki
  • Registratie: November 2001
  • Nu online
Grappig ik vind juist de LXC containers prettiger werken dan Docker containers. Voor AdGuard home en PiHole kun je bijvoorbeeld de update functie gebruiken binnen de applicatie zelf i.p.v. eerst container sluiten, purgen en dan opnieuw je Docker container opbouwen met een yaml file of Portainer container data. Verder vond ik ook het gedoe met macvlan’s omslachtig in vergelijking met Proxmox om aparte ip-adressen per container te krijgen.

Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
Miki schreef op dinsdag 4 augustus 2020 @ 11:28:
Voor AdGuard home en PiHole kun je bijvoorbeeld de update functie gebruiken binnen de applicatie zelf i.p.v. eerst container sluiten, purgen en dan opnieuw je Docker container opbouwen met een yaml file of Portainer container data.
Just a docker-compose pull && docker-compose up -d away :P
Verder vond ik ook het gedoe met macvlan’s omslachtig in vergelijking met Proxmox om aparte ip-adressen per container te krijgen.
Macvlan met Docker is idd een bitch. Maar nu heb ik meerdere LXC containers, elk in het juiste VLAN, en dan daarin Docker draaien. De docker containers hebben dan wel 1 IP i.p.v. stuk voor stuk een eigen IP (want Home-Assistant, Node-Red, Mosquitto, UniFi Controller, Pi-Hole, ... allemaal hun eigen IP is ook weer zoiets).
Nu heb ik dus bv een LXC container voor IoT weer dan de Docker containers voor HA, NR, Mosquitto in draaien en een andere LXC container, in VLAN dat altijd over VPN gaat, voor het downloaden van Linux ISOs (:+) etc.

Edit:
Meer offtopic. Grote voordeel van Docker vind ikzelf dat het over het algemeen "just works". Kijk bv naar Home Assistant, dan moet je de juiste Python versie draaien, via PIP nog allemaal dependencies installeren, etc etc. Daardoor neemt de kans alleen maar toe dat iets breekt (omdat ik een update niet heb gedraaid en nog op oude Python zit, of juist een Python versie heb die net een bekende bug heeft, of Python update en daarna HA kapot is, ...). Bij Docker heb je dat niet, omdat in de container een Python versie zit ingebakken die werkt en waarop ook alle tests zijn gedraaid.
Zelfde voor de UniFi Controller. Nieuwste MongoDB versie is (of was tot een tijd terug) niet compatible, je moet de juiste Java runtime hebben (OpenJDK vs die van Oracle). Dat gedoe bespaar ik mezelf door het in Docker te draaien.

[ Voor 27% gewijzigd door RobertMe op 04-08-2020 11:45 ]


Acties:
  • 0 Henk 'm!

  • eymey
  • Registratie: Februari 2000
  • Laatst online: 15:31
Sandolution schreef op zaterdag 1 augustus 2020 @ 00:45:
[...]

Wat heb je gewijzigd? Hier draait het 99% stabiel, met uitzondering dat heel af en toe de verbinding naar WAN 'bevriest' zonder entries in de log. Een herstart van de vm is dan wel voldoende om het weer aan de gang te krijgen. Heb nog niet kunnen achterhalen waar dat aan kan liggen. Wellicht kan jouw tweak iets veranderen daaraan.
Het belangrijkste (kan via system -> settings -> tunables):

Voeg een setting toe genaamd "kern.timecounter.hardware" en zet die op "ACPI-fast".

Normaal staat dat op HPET, wat normaal een wat accuratere timecounter moet opleveren. Maar in mijn geval had ik dus steeds allemaal onverklaarbare packetloss (tot ook bevriezen van WAN of juist LAN), firewall die geen kaas meer kon maken van de state van connecties en dan maar ging blocken, etc.

Grootste hint naar die setting kwam hiervandaan:
https://forum.netgate.com...face-critical-bug-help/24

Marstek Venus 5.12kWh v151, CT003 V114 DSMR4, PV 11xEnphase IQ7+ Z-O, 5xEnphase IQ7+ N-W - ~4,7Wp theoretisch, ~3,5Wp praktijk


Acties:
  • 0 Henk 'm!

  • jdruwe
  • Registratie: September 2012
  • Laatst online: 24-11-2024
Kort vraagje mannen. Ik ben van plan om te wisselen van SSD voor mijn Proxmox setup. Nu heb ik al gedurende enige tijd een backup lopen die dagelijks mijn VM's en LXC containers backupen naar USB. Ik vroeg me af of ik deze vzdump backups gewoon kan restoren op een andere type/soort SSD? Zou dat probleemloos moeten verlopen? Ik dacht misschien aan issues met partitioning ofzo (beetje een leek op die gebied)

Acties:
  • +1 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 14:46
jdruwe schreef op zaterdag 8 augustus 2020 @ 11:34:
Kort vraagje mannen. Ik ben van plan om te wisselen van SSD voor mijn Proxmox setup. Nu heb ik al gedurende enige tijd een backup lopen die dagelijks mijn VM's en LXC containers backupen naar USB. Ik vroeg me af of ik deze vzdump backups gewoon kan restoren op een andere type/soort SSD? Zou dat probleemloos moeten verlopen? Ik dacht misschien aan issues met partitioning ofzo (beetje een leek op die gebied)
Ik verwacht dat probleemloos gebeurt. Toen ik wisselde van host machine heb ik mijn VM naar een nas gebackupt en gerestored op de nieuwe. Dat ging gewoon vlekkeloos.

Acties:
  • 0 Henk 'm!

  • jdruwe
  • Registratie: September 2012
  • Laatst online: 24-11-2024
maxxie85 schreef op zaterdag 8 augustus 2020 @ 11:52:
[...]


Ik verwacht dat probleemloos gebeurt. Toen ik wisselde van host machine heb ik mijn VM naar een nas gebackupt en gerestored op de nieuwe. Dat ging gewoon vlekkeloos.
Super, bedankt voor de reactie. Dan zal ik maar eens een poging ondernemen tijdens deze crazy temperaturen 8)7

UPDATE: werkt perfect :D

[ Voor 3% gewijzigd door jdruwe op 09-08-2020 12:14 ]


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

ik heb vandaag een poging gedaan om een VM van VMWARE te migreren naar Proxmox

Export van VMWARE naar Proxmox: ok
Import OVF naar machineID 200 op local-zfs storage: ok

starten van vm: ok
network: fail

toegevoegd als hardware een vmxnet3 driver: ok
echter netwerk is down na het starten van debian

op zich is dat ook geen issue, reden wel gevonden, ik kan in /etc/network/interfaces eea aanpassen
ens219 bestaat niet meer en is ens18 geworden

echter het vage is dat ik dan wel een netwerk heb, maar bepaalde services die dan draaien (bijv. het mounten van NFS shares) blijven achterwege en worden dan bijv. pas achteraf gemount met bijv. mount -a

hierdoor werken een paar applicaties niet meer

zie ik nog iets over het hoofd?

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 20:22
zeroday schreef op maandag 17 augustus 2020 @ 12:16:
ik heb vandaag een poging gedaan om een VM van VMWARE te migreren naar Proxmox

Export van VMWARE naar Proxmox: ok
Import OVF naar machineID 200 op local-zfs storage: ok

starten van vm: ok
network: fail

toegevoegd als hardware een vmxnet3 driver: ok
echter netwerk is down na het starten van debian

op zich is dat ook geen issue, reden wel gevonden, ik kan in /etc/network/interfaces eea aanpassen
ens219 bestaat niet meer en is ens18 geworden

echter het vage is dat ik dan wel een netwerk heb, maar bepaalde services die dan draaien (bijv. het mounten van NFS shares) blijven achterwege en worden dan bijv. pas achteraf gemount met bijv. mount -a

hierdoor werken een paar applicaties niet meer

zie ik nog iets over het hoofd?
Maakt debian nog geen gebruik van netplan?

Ik zit ook nog met dat dilemma, maar ik denk dat ik meteen de kans grijp om de servers om te zetten naar ansible en een verse install te doen.

Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

powerboat schreef op maandag 17 augustus 2020 @ 13:05:
[...]

Maakt debian nog geen gebruik van netplan?

Ik zit ook nog met dat dilemma, maar ik denk dat ik meteen de kans grijp om de servers om te zetten naar ansible en een verse install te doen.
nou ... ik heb het al werkend. gewoon de machine een paar keer herstart. Ik was ook even vergeten dat de mounts niet direct zichtbaar zijn met 'df' (pas wanneer ze ook daadwerkelijk benaderd werden).
Wat ik wel heb gedaan is voordat ik de machine had gestart de juiste netwerk driver gepakt.

en om de een of andere reden deed ie na een extra halt/stop/herstart wel fatsoenlijk. Alleen even een ander IP adres nu gegeven. En nu doet ie wel wat ik doe. Dat bied perspectieven voor nog een paar andere VM's ;)
want het gaat best wel simpel en makkelijk die convert.

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 20:22
zeroday schreef op maandag 17 augustus 2020 @ 13:10:
[...]


nou ... ik heb het al werkend. gewoon de machine een paar keer herstart. Ik was ook even vergeten dat de mounts niet direct zichtbaar zijn met 'df' (pas wanneer ze ook daadwerkelijk benaderd werden).
Wat ik wel heb gedaan is voordat ik de machine had gestart de juiste netwerk driver gepakt.

en om de een of andere reden deed ie na een extra halt/stop/herstart wel fatsoenlijk. Alleen even een ander IP adres nu gegeven. En nu doet ie wel wat ik doe. Dat bied perspectieven voor nog een paar andere VM's ;)
want het gaat best wel simpel en makkelijk die convert.
Klinkt goed :) ga na de vakantie eens proberen

Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

powerboat schreef op maandag 17 augustus 2020 @ 13:27:
[...]


Klinkt goed :) ga na de vakantie eens proberen
eigenlijk maar 2 stapjes (nadat je ovftool hebt geinstalleerd op de proxmox host)

ovftool vi:root@[vmware-machine]/[name-of-vm] .

qm importovf 200 [name-of-vm].ovf local-zfs


update..
en ook de Proxmox Backup Server nu aan het draaien. Lastigheid: ik wil het naar een NAS hebben, dus dat moest als een datastore. Pffffff.. NFS kon ik vergeten, CIFS leek ook niet te draaien, totdat ik een ingeving kreeg en de juiste gebruikersaccount de data liet weg schrijven
Weet nog niet of ik een fan wordt van deze software .. maar goed.. het loopt.

[ Voor 42% gewijzigd door zeroday op 17-08-2020 21:20 ]

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 20:22
zeroday schreef op maandag 17 augustus 2020 @ 14:09:
[...]


eigenlijk maar 2 stapjes (nadat je ovftool hebt geinstalleerd op de proxmox host)

ovftool vi:root@[vmware-machine]/[name-of-vm] .

qm importovf 200 [name-of-vm].ovf local-zfs


update..
en ook de Proxmox Backup Server nu aan het draaien. Lastigheid: ik wil het naar een NAS hebben, dus dat moest als een datastore. Pffffff.. NFS kon ik vergeten, CIFS leek ook niet te draaien, totdat ik een ingeving kreeg en de juiste gebruikersaccount de data liet weg schrijven
Weet nog niet of ik een fan wordt van deze software .. maar goed.. het loopt.
Had laatste pbs geinstalleerd, maar ben ook nog niet overtuigd.

Kon geen nfs datastore in gui configureren. Maar is dat nu wel het geval of heb je dat via fstab gedaan ?

Voorlopig gebruik ik wel uebackup in een jail op freenas voor file backups.

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
zeroday schreef op maandag 17 augustus 2020 @ 14:09:
[...]
en ook de Proxmox Backup Server nu aan het draaien. Lastigheid: ik wil het naar een NAS hebben, dus dat moest als een datastore. Pffffff.. NFS kon ik vergeten, CIFS leek ook niet te draaien, totdat ik een ingeving kreeg en de juiste gebruikersaccount de data liet weg schrijven
Weet nog niet of ik een fan wordt van deze software .. maar goed.. het loopt.
Ik zou Proxmox PVE niet gelijktrekken als Proxmox Backup Server. Ik doe mijn backups ook allemaal met eigen scripts. Dat is wellicht Proxmox BS ook ruk zal vinden zegt dat voor mij niks over Proxmox PVE.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 20:22
CurlyMo schreef op dinsdag 18 augustus 2020 @ 22:08:
[...]

Ik zou Proxmox PVE niet gelijktrekken als Proxmox Backup Server. Ik doe mijn backups ook allemaal met eigen scripts. Dat is wellicht Proxmox BS ook ruk zal vinden zegt dat voor mij niks over Proxmox PVE.
Ik denk dat hij bedoelt dat hij nog geen fan is van PBS maar wel van PVE. (Althans zo lees ik het)

[ Voor 5% gewijzigd door powerboat op 18-08-2020 22:15 ]


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

powerboat schreef op dinsdag 18 augustus 2020 @ 21:51:
[...]


Had laatste pbs geinstalleerd, maar ben ook nog niet overtuigd.

Kon geen nfs datastore in gui configureren. Maar is dat nu wel het geval of heb je dat via fstab gedaan ?

Voorlopig gebruik ik wel uebackup in een jail op freenas voor file backups.
nfs via fstab was geen beginnen aan. Van alles geprobeerd. Nu zit ik hier thuis met proxmox, dus ik heb de laagste security tussen mijn servers en dat maakt mij dus totaal geen ruk uit, maar PBS vond dat ie geen goede rechten had, wat ik ook probeerde. Totdat het ineens werkte.. bleek achteraf dat ik een S in mijn share was vergeten en dus was tie bezig op zijn VM HDD ;) .. en toen begon het gedoe ..

Ik heb daarom CIFS maar geprobeerd omdat dit volgenshet proxmox forum zou werken. Als je afwijkt van wat daar staat dan kun je het ook vergeten. Zo wilde ik gewoon als admin/root/user de share hebben maar nope dat mocht ook niet welke share rechten ik ook gaf. Dat kreng ;-) wilde gewoon via user backup en group backup rechten hebben en zonder dat: no go ..

dus ik heb de user uid en guid in de share gezet, de backup user in de samba share rechten gegeven en gaan met die banaan .. Nou ja .. die store1 aanmaken was al een gedoe, want die maakt dus heel veel .chunks folders aan .. phoe .. en daar wordt dan je data in gestopt. Het is ook niet zo van laat ik even dat bestand pakken en dan ergens neer plempen .. nee zonder PBS krijg je het ook straks niet gerestored.

Enneu zoals Proxmox ik vind de GUI en het gebruik nog maar niets .. wat een minimale GUI ..

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

CurlyMo schreef op dinsdag 18 augustus 2020 @ 22:08:
[...]

Ik zou Proxmox PVE niet gelijktrekken als Proxmox Backup Server. Ik doe mijn backups ook allemaal met eigen scripts. Dat is wellicht Proxmox BS ook ruk zal vinden zegt dat voor mij niks over Proxmox PVE.
tis even de wijze hoe Proxmox is opgezet en als je VEEAM gewend bent met VMWARE moet je even schakelen.
Nu vond ik de standaard backup optie al goed genoeg voor mijn spul, maar ik hou wel van een beetje testen. de leercurve van PBS was even wat stijler dan gedacht gezien ik afwijk van wat ze propageren. Omdat ik al mijn data gewoon op mijn 30TB NAS wil hebben (en bepaalde folders worden naar een andere machine weer overgezet zodat ik de data nog een keer heb ..

En PVE trek ik zeker niet gelijk met PBS, ben op zich heel blij met Proxmox en hoe deze performed tov dezelfde machines onder VMWARE (en dan gebruik ik nog gewoon een simpele HP Gen8 microserver)

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

powerboat schreef op dinsdag 18 augustus 2020 @ 22:14:
[...]


Ik denk dat hij bedoelt dat hij nog geen fan is van PBS maar wel van PVE. (Althans zo lees ik het)
klopt .. maar het is beta .. Dus we geven het een kans ;)

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 20:22
zeroday schreef op dinsdag 18 augustus 2020 @ 22:56:
[...]


klopt .. maar het is beta .. Dus we geven het een kans ;)
Jaja :p ik wacht ook nog effe af.

Acties:
  • 0 Henk 'm!

  • genesisfm
  • Registratie: Mei 2003
  • Laatst online: 21:27
Ik ben sinds een paar weken met proxmox bezig en druk aan het ontdekken.
Nu zie ik regelmatig jullie praten over docker binnen proxmox, nu is mijn vraag wat de meest eenvoudige manier van het deployen is van docker in proxmox?
En welke manier is dan verstandig VM ?

Ps. ik ben vrij nieuw in de linux wereld dus meer info (en begrijpbaar voor een n00b) is altijd welkom. :)

Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

genesisfm schreef op dinsdag 18 augustus 2020 @ 23:02:
Ik ben sinds een paar weken met proxmox bezig en druk aan het ontdekken.
Nu zie ik regelmatig jullie praten over docker binnen proxmox, nu is mijn vraag wat de meest eenvoudige manier van het deployen is van docker in proxmox?
En welke manier is dan verstandig VM ?

Ps. ik ben vrij nieuw in de linux wereld dus meer info (en begrijpbaar voor een n00b) is altijd welkom. :)
De eerste vraag die ik dan heb: waarom docker?
nu heb ik niets tegen docker, maar wel tegen al die config bestanden die ik moet configgen ..
daarom heb ik meer gekozen voor LXC voor een aantal machines met taken ..
maar gebruik wat je wil gebruiken als je weet waarom je het wil gebruiken ;)

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • genesisfm
  • Registratie: Mei 2003
  • Laatst online: 21:27
Op dit moment heb ik 1 VM en de rest aan LXC's omdat dit makkelijk werkt.
De reden dat ik met docker wil experimenteren is dat ik veel applicaties zie die voor een docker installatie geprepareerd zijn (dus makkelijke installeren).
Daarnaast zie ik veel mensen zichzelf positief uitlaten over Docker dus ook een stuk nieuwschierigheid zit erbij.

Acties:
  • +1 Henk 'm!

  • Miki
  • Registratie: November 2001
  • Nu online
genesisfm schreef op woensdag 19 augustus 2020 @ 11:40:
Op dit moment heb ik 1 VM en de rest aan LXC's omdat dit makkelijk werkt.
De reden dat ik met docker wil experimenteren is dat ik veel applicaties zie die voor een docker installatie geprepareerd zijn (dus makkelijke installeren).
Daarnaast zie ik veel mensen zichzelf positief uitlaten over Docker dus ook een stuk nieuwschierigheid zit erbij.
Beide oplossingen LXC en Docker containers hebben hun specifieke voor- en nadelen. Ik zelf zou niet graag meer terugwillen naar Docker containers vanwege het feit dat ik de software kan installeren en gebruiken zoals bedoeld is en daarbij niet afhankelijk ben van (meestal) derden of er een Docker pakketje is gemaakt. Als ook geen gedoe heb met poorten en IP-adressen. Aan de andere kant is het opzetten van een Docker container appeltje eitje met compose en/of portainer.

Maar goed je kunt ook in Proxmox een VM opzetten en Docker draaien dus wat houdt je tegen om er mee te experimenteren en te bepalen wat je het prettigst vind werken :)

Acties:
  • 0 Henk 'm!

  • Polderviking
  • Registratie: Augustus 2020
  • Laatst online: 21-06 00:31
Zijn er hier mensen met ervaring Windows Server 2019 in een KVM?
Ik ervaar dat als je de e1000 netwerkdrivers gebruikt het netwerk er gewoon arbitrair mee gaat stoppen, schijnbaar als het druk wordt.
Je krijgt zo'n geel "geen internet" driehoekje in je netwerkicoontje rechtsonder maar lokaal kan je ook niets meer pingen moet je de interface vervolgens uit en weer aan zetten om de server weer terug te brengen.

Consensus die ik er op internet over vind (hier bijvoorbeeld) is dat dit wel meer gebeurd en dat je VirtIO netwerk moet gaan gebruiken met recente drivers. Ga ik ook proberen als ik deze server weer deftig offline kan halen vanavond.
Maar ik houd me aanbevolen voor verdere tips...

Acties:
  • +1 Henk 'm!

  • maxxie85
  • Registratie: Augustus 2015
  • Laatst online: 14:46
Polderviking schreef op woensdag 19 augustus 2020 @ 13:49:
Zijn er hier mensen met ervaring Windows Server 2019 in een KVM?
Ik ervaar dat als je de e1000 netwerkdrivers gebruikt het netwerk er gewoon arbitrair mee gaat stoppen, schijnbaar als het druk wordt.
Je krijgt zo'n geel "geen internet" driehoekje in je netwerkicoontje rechtsonder maar lokaal kan je ook niets meer pingen moet je de interface vervolgens uit en weer aan zetten om de server weer terug te brengen.

Consensus die ik er op internet over vind (hier bijvoorbeeld) is dat dit wel meer gebeurd en dat je VirtIO netwerk moet gaan gebruiken met recente drivers. Ga ik ook proberen als ik deze server weer deftig offline kan halen vanavond.
Maar ik houd me aanbevolen voor verdere tips...
https://davejansen.com/re...016-2018-2019-vm-proxmox/

Ik heb deze guide gevolgd om een Win10 KVM op te zetten. Alles werkte prima.
Echter heb ik de VM nog niet intensief gebruikt tot nu toe.

Acties:
  • +1 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 20:22
Polderviking schreef op woensdag 19 augustus 2020 @ 13:49:
Zijn er hier mensen met ervaring Windows Server 2019 in een KVM?
Ik ervaar dat als je de e1000 netwerkdrivers gebruikt het netwerk er gewoon arbitrair mee gaat stoppen, schijnbaar als het druk wordt.
Je krijgt zo'n geel "geen internet" driehoekje in je netwerkicoontje rechtsonder maar lokaal kan je ook niets meer pingen moet je de interface vervolgens uit en weer aan zetten om de server weer terug te brengen.

Consensus die ik er op internet over vind (hier bijvoorbeeld) is dat dit wel meer gebeurd en dat je VirtIO netwerk moet gaan gebruiken met recente drivers. Ga ik ook proberen als ik deze server weer deftig offline kan halen vanavond.
Maar ik houd me aanbevolen voor verdere tips...
Ik heb het in productie draaien met alle virtio devices en de disken op raw, qcow is hierbij niet aan te bevelen.

Acties:
  • +1 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 21-06 20:49
Miki schreef op woensdag 19 augustus 2020 @ 12:23:
[...]

Beide oplossingen LXC en Docker containers hebben hun specifieke voor- en nadelen. Ik zelf zou niet graag meer terugwillen naar Docker containers vanwege het feit dat ik de software kan installeren en gebruiken zoals bedoeld is en daarbij niet afhankelijk ben van (meestal) derden of er een Docker pakketje is gemaakt. Als ook geen gedoe heb met poorten en IP-adressen. Aan de andere kant is het opzetten van een Docker container appeltje eitje met compose en/of portainer.

Maar goed je kunt ook in Proxmox een VM opzetten en Docker draaien dus wat houdt je tegen om er mee te experimenteren en te bepalen wat je het prettigst vind werken :)
Docker werkt ook in een LXC trouwens.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +2 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
A1AD schreef op woensdag 19 augustus 2020 @ 16:18:
[...]


Docker werkt ook in een LXC trouwens.
Mits je juiste template gebruikt en niet ZFS.

Alpine als base geeft issues met de cgroups waardoor het niet aan de praat te krijgen is.
En met ZFS als opslag binnen Proxmox herkent de LXC container en daarmee Docker dat de boel op ZFS draait, alleen zijn enerzijds de ZFS utilities & libraries dan niet beschikbaar, en als je die wel hebt mist /dev/zfs nog steeds. Zelf heb ik daarom in Proxmox een ZVOL aangemaakt die ext4 geformatteerd is die ik op /var/lib/docker bind mount, en daarnaast nog eens expliciet de Docker storage driver op overlay2 gezet. Maar wellicht dat alleen dat laatste ook al voldoende is. Dus alleen tegen Docker zeggen om overlay(2) te draaien op de ZFS directories.

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
RobertMe schreef op woensdag 19 augustus 2020 @ 16:47:
[...]
Zelf heb ik daarom in Proxmox een ZVOL aangemaakt die ext4 geformatteerd is die ik op /var/lib/docker bind mount
Bijna precies zoals ik het ook gedaan heb (y)

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Nu online
CurlyMo schreef op woensdag 19 augustus 2020 @ 21:38:
[...]

Bijna precies zoals ik het ook gedaan heb (y)
Bijna? Dan ben ik wel benieuwd wat je anders hebt.

Acties:
  • 0 Henk 'm!

  • CurlyMo
  • Registratie: Februari 2011
  • Nu online
RobertMe schreef op woensdag 19 augustus 2020 @ 22:22:
[...]

Bijna? Dan ben ik wel benieuwd wat je anders hebt.
Ik heb een aparte storage gemaakt als dir, wat op zichzelf wel een ZFS is.
code:
1
2
3
4
dir: subvol-111-disk-0
        path /data/vm/subvol-111-disk-0
        content images,rootdir
        shared 0

Daar binnen heb ik een raw disk gemaakt die is geformatteerd als ext4:
code:
1
rootfs: subvol-111-disk-0:112/vm-112-disk-0.raw,size=10G

Daarbinnen draait vervolgens docker die ik inderdaad met overlay2 heb gefixeerd.

In een eerdere setup had ik inderdaad ook de /var/lib/docker als bind mount, maar de nieuwe niet meer.

Sinds de 2 dagen regel reageer ik hier niet meer


Acties:
  • +1 Henk 'm!

  • zeroday
  • Registratie: Mei 2007
  • Laatst online: 19-06 15:59

zeroday

There is no alternative!

powerboat schreef op woensdag 19 augustus 2020 @ 15:02:
[...]


Ik heb het in productie draaien met alle virtio devices en de disken op raw, qcow is hierbij niet aan te bevelen.
kun je ook aangeven waarom niet? Ik heb een basis howto van proxmox aangehouden voor een win10 VM en daar heb ik niet de HDD op RAW ingesteld (is ook niet default). Gaat het dan alleen om de performance? Want zowel RAW als qcow hebben zo hun voordelen/nadelen

There are no secrets, only information you do not yet have


Acties:
  • 0 Henk 'm!

  • powerboat
  • Registratie: December 2003
  • Laatst online: 20:22
zeroday schreef op woensdag 19 augustus 2020 @ 23:01:
[...]


kun je ook aangeven waarom niet? Ik heb een basis howto van proxmox aangehouden voor een win10 VM en daar heb ik niet de HDD op RAW ingesteld (is ook niet default). Gaat het dan alleen om de performance? Want zowel RAW als qcow hebben zo hun voordelen/nadelen
Yes, ik heb problemen ondervonden m.b.t. performance, weliswaar draaide hier een Exchange op de Windows VM na het omzetten naar raw geen problemen meer ondervonden.

Overigens staat het ook beschreven in hun documentatie }:O
Proxmox - Windows 10 guest best practices
Pagina: 1 ... 11 ... 57 Laatste