Acties:
  • 0 Henk 'm!

  • MsG
  • Registratie: November 2007
  • Laatst online: 22:17

MsG

Forumzwerver

Ik heb nu eerst de docker images maar geladen in de HassIO VM, dat is namelijk van zichzelf al een verkapte Docker-setup, met verschillende subsystemen die middels docker-images naast elkaar kunnen draaien. Gebruik Portainer om de boel te laden, werkt wel leuk. Al ben ik bang dat 128GB een beetje krap gaat worden :-P.

Denk om uw spatiegebruik. Dit scheelt Tweakers.net kostbare databaseruimte! | Groninger en geïnteresseerd in Domotica? Kom naar DomoticaGrunn


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 19:54

Mars Warrior

Earth, the final frontier

MsG schreef op woensdag 23 oktober 2019 @ 20:44:
Wat is eigenlijk de handigste manier om Docker containers te kunnen draaien? Ik heb een Intel NUC met 128GB SSD en 8GB Ram. Ik heb binnen Proxmox nu 1 virtual machine die HomeAssistant/HassOS draait. Het liefst heb ik niet aldoor voor elke scheet een VM, waarbij je per machine weer de updates en dergelijke bij mag gaan houden. Ik lees wel mensen die Docker rechtstreeks op de Proxmox-debian draaien, maar moet je dat wel willen? Ik wil het liefst zo weinig mogelijk organisatorische en schijfruimtetechnische overhead. En eigenlijk is 99% van de systeempjes die ik wil draaien Linux-gebaseerd. (Ik wil graag OctoPrint draaien bijvoorbeeld, en eventueel PiHole).
Wat is hierbij het nut van proxmox eigenlijk?
Gewoon Ubuntu of Debian en docker erop en je bent ook klaar, toch?

Docker images hoef je niet te backuppen, dus je hoeft dan enkel nog de docker data te backuppen naar een ander systeem of de cloud en je kunt altijd een restore doen als dat nodig is.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +1 Henk 'm!

  • MsG
  • Registratie: November 2007
  • Laatst online: 22:17

MsG

Forumzwerver

Het nut van Proxmox is dat ik in 1 commando Hass-IO installeer, terwijl ik verder weinig last heb van een hypervisor. Ik heb deze package gebruikt: https://github.com/whiskerz007/proxmox_hassos_install

Daarnaast vind ik het wel fijn dat je bij Proxmox dingen nog wat meer kan scheiden. Een aparte VM krijgt met Proxmox gewoon een ander IP, als ware het een fysiek los apparaat in je netwerk. Bij Docker is dat allemaal weer moeilijkmoeilijk, als je dat wil.

Denk om uw spatiegebruik. Dit scheelt Tweakers.net kostbare databaseruimte! | Groninger en geïnteresseerd in Domotica? Kom naar DomoticaGrunn


Acties:
  • 0 Henk 'm!

  • exepti0n
  • Registratie: Maart 2008
  • Niet online

exepti0n

_o-

Wellicht is hier iemand die mij de juiste richting in kan sturen over mijn netwerkconfiguratie.

Omdat ik bepaalde LXC containers via een eigen netwerkpoort op het netwerk wil laten draaien heb ik een quad poort PCi-e kaart op het moederbord aangesloten.

Onder "Network" van mijn node zie ik het volgende staan:

NameTypeActiveAutostartVLAN awarePorts/SlavesBond modeCIDRGateway
eno1Network DeviceYesNoNo
enp3s0f0Network DeviceNoNoNo
enp3s0f1Network DeviceNoNoNo
enp4s0f0Network DeviceNoNoNo
enp4s0f1Network DeviceNoNoNo
enp5s0f0Network DeviceNoNoNo
enp5s0f1Network DeviceNoNoNo
vmbr0Linux BridgeYesYesNoeno1192.168.1.254/24192.168.1.1


Een LXC container is via de Linux bridge ook verbonden met mijn netwerk en heeft via DHCP een IP-adres gekregen.

Ik wil graag dat deze container direct op een netwerkpoort is aangesloten. Hoe krijg ik dat voor elkaar?

Ik heb geprobeerd om een nieuwe bridge aan te maken, bij "Ports/Slaves" dan "enp3s0f0" in te vullen en dan bij de LXC deze bridge te gebruiken met DHCP maar dat lijkt niet te werken want pingen levert "ping: tweakers.net: Temporary failure in name resolution" op :?

Volvo XC40 SMSR Plus (MY24)


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

exepti0n schreef op dinsdag 29 oktober 2019 @ 20:13:
Wellicht is hier iemand die mij de juiste richting in kan sturen over mijn netwerkconfiguratie.

Omdat ik bepaalde LXC containers via een eigen netwerkpoort op het netwerk wil laten draaien heb ik een quad poort PCi-e kaart op het moederbord aangesloten.

Onder "Network" van mijn node zie ik het volgende staan:

NameTypeActiveAutostartVLAN awarePorts/SlavesBond modeCIDRGateway
eno1Network DeviceYesNoNo
enp3s0f0Network DeviceNoNoNo
enp3s0f1Network DeviceNoNoNo
enp4s0f0Network DeviceNoNoNo
enp4s0f1Network DeviceNoNoNo
enp5s0f0Network DeviceNoNoNo
enp5s0f1Network DeviceNoNoNo
vmbr0Linux BridgeYesYesNoeno1192.168.1.254/24192.168.1.1


Een LXC container is via de Linux bridge ook verbonden met mijn netwerk en heeft via DHCP een IP-adres gekregen.

Ik wil graag dat deze container direct op een netwerkpoort is aangesloten. Hoe krijg ik dat voor elkaar?

Ik heb geprobeerd om een nieuwe bridge aan te maken, bij "Ports/Slaves" dan "enp3s0f0" in te vullen en dan bij de LXC deze bridge te gebruiken met DHCP maar dat lijkt niet te werken want pingen levert "ping: tweakers.net: Temporary failure in name resolution" op :?
Heb je de hypervisor wel herstart nadat je de nieuwe vmbr hebt aangemaakt?
Ik zie uberhaupt die vmbr1 er niet bij staan.

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • zx9r_mario
  • Registratie: Oktober 2004
  • Nu online
Als je iedere container een eigen netwerkpoort wil geven, moet je voor iedere netwerkpoort een aparte bridge (vmbrX) aanmaken. Daarna koppel je de container aan de betreffende vmbrX.

Als het puur om bandbreedte gaat kun je ook de 4 netwerkpoorten in een bonded interface hangen (LACP oid).

[ Voor 23% gewijzigd door zx9r_mario op 30-10-2019 09:11 ]


Acties:
  • 0 Henk 'm!

  • exepti0n
  • Registratie: Maart 2008
  • Niet online

exepti0n

_o-

@unezra Meerdere keren herstart zelfs. Het klopt dat je hem niet in het overzicht ziet, ik had hem ook al weer verwijderd (omdat het niet werkt)

Die rij zag er zo uit:

NameTypeActiveAutostartVLAN awarePorts/SlavesBond modeCIDRGateway
vmbr1Linux BridgeYesYesNoenp3s0f0


Deze bridge was vervolgens aan een LXC gekoppeld, maar ik krijg geen IP toegewezen.

Mijn vermoeden is dat dat komt omdat het Network Device niet "Active" is, er zit echter wel gewoon een netwerkkabel in. Alleen weet ik niet hoe ik hem "Active" krijg.

[ Voor 4% gewijzigd door exepti0n op 30-10-2019 09:26 ]

Volvo XC40 SMSR Plus (MY24)


Acties:
  • 0 Henk 'm!

  • unezra
  • Registratie: Maart 2001
  • Laatst online: 11-09 20:15

unezra

Ceci n'est pas un sous-titre.

exepti0n schreef op woensdag 30 oktober 2019 @ 09:25:
@unezra Meerdere keren herstart zelfs. Het klopt dat je hem niet in het overzicht ziet, ik had hem ook al weer verwijderd (omdat het niet werkt)

Die rij zag er zo uit:

NameTypeActiveAutostartVLAN awarePorts/SlavesBond modeCIDRGateway
vmbr1Linux BridgeYesYesNoenp3s0f0


Deze bridge was vervolgens aan een LXC gekoppeld, maar ik krijg geen IP toegewezen.

Mijn vermoeden is dat dat komt omdat het Network Device niet "Active" is, er zit echter wel gewoon een netwerkkabel in. Alleen weet ik niet hoe ik hem "Active" krijg.
Is er wel een DHCP server actief in het LAN waar die NIC aan hangt?

Ná Scaoll. - Don’t Panic.


Acties:
  • 0 Henk 'm!

  • exepti0n
  • Registratie: Maart 2008
  • Niet online

exepti0n

_o-

@unezra Ja, hij zit op dezelfde switch als waar eno1 op ingeprikt is. Die heeft ook een IP-adres gekregen.

Ik ga er van uit dat, omdat ik de devices in Proxmox zie staan, de kaart verder wel goed werkt. Wat ik wel vreemd vindt is dat hij 7 devices weergeeft terwijl er maar 5 poorten zijn.

Zijn er wellicht commands die ik op de Proxmox host kan draaien om e.e.a. na te lopen?

Volvo XC40 SMSR Plus (MY24)


Acties:
  • 0 Henk 'm!

  • SadisticPanda
  • Registratie: Februari 2009
  • Niet online

SadisticPanda

Heet patatje :o

exepti0n schreef op woensdag 30 oktober 2019 @ 11:09:
@unezra Ja, hij zit op dezelfde switch als waar eno1 op ingeprikt is. Die heeft ook een IP-adres gekregen.

Ik ga er van uit dat, omdat ik de devices in Proxmox zie staan, de kaart verder wel goed werkt. Wat ik wel vreemd vindt is dat hij 7 devices weergeeft terwijl er maar 5 poorten zijn.

Zijn er wellicht commands die ik op de Proxmox host kan draaien om e.e.a. na te lopen?
Sommige kaarten met meerdere poorten zien de teaming/bonding functie ook als een apparaat. (of meerdere)
Ook al gebruik je die functie niet. Mss is dat de verklaring?

Marstek 5.12kw v151, CT003 v117, Sagecom Xs212 1P,


Acties:
  • 0 Henk 'm!

  • RoePe
  • Registratie: November 2019
  • Laatst online: 25-01 23:33
Hallo

Ben hier terecht gekomen na het opzoeken van informatie mbt Proxmox VE.
Ik heb ervaring met verschillende smaken desktop virtualisatiepaketten en een beetje met ESXi.
Nu heb voor het eerst v5.4-1 als test op een Optiplex 7010 USFF geïnstalleerd en denk hiermee wel verder te willen gaan. Het gaat me vooral om de onzekerheid mbt het integreren van een file server.
Momenteel heb ik alles op 1HD staan; ttz een paar virtuele machines waarvan 1 ook dienst doet als netwerkshare & een paar LXC's.

Mijn vraag aan jullie: ik heb een 120Gb SSD over en zou deze willen gebruiken om systeem, VM's en LXC's op te zetten en de HD als netwerkshare inzetten. (evt met 'File Server' van turnkeylinux)
Er zitten 3 SATA aansluitingen op het mobo maar de ruimte in de case is beperkt. Misschien dat ik daar wel wat aan kan doen om er 2 HDD's in te krijgen.

Ik heb wel een beetje kennis van *nix systemen, heb ooit nog een debian fileserver gedraaid zonder GUI en kom regelmatig wel in aanraking met een of andere variant.
Op welke manier zou ik dit systeem het best inrichten?

Alvast bedankt voor jullie input!

EDIT: had een tijdje geleden ook al deze vraag gesteld op het proxmox forum maar kreeg geen reaktie.

[ Voor 34% gewijzigd door RoePe op 02-11-2019 10:52 . Reden: added info ]


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

@RoePe Op één of andere manier lijkt het dat jouw post al het antwoord op de vraag bevat: je hebt een idee wat je wil gebruiken en wat je gaat aansluiten, en waar je welke software op gaat installeren. Zo globaal ziet het er uit als redelijke keuzes, dus als je specifiekere vragen hebt kunnen we misschien verder helpen.

Acties:
  • 0 Henk 'm!

  • RoePe
  • Registratie: November 2019
  • Laatst online: 25-01 23:33
Hoi dcm360

Ik was al langer op zoek naar een mogelijkheid om fileserver/NAS functionaliteit te virtualiseren, puur om geen extra toestel hoeven in te zetten en omdat het lijkt dat dit tegenwoordig goed werkt.
Door proxmox denk ik het juiste systeem te hebben gevonden.

Systeem, LXC's en VM's op de 120Gb SSD is waarschijnlijk een no-brainer, of toch niet?
Wat vinden jullie van de turnkeylinux server app?
Ik dacht om de HDD volledig als share in te zetten, backup doe ik naar een externe schijf.
De CPU is een i3-3240 en heb het maximum aan RAM, 16Gb er in zitten.
Tot nu toe heb ik alleen ervaring met EXT - denk dat het destijds 2 was - en NTFS filesystems en uiteraard ook FAT(32).
Ik heb wel weet van ZFS maar niet of dit nu 'het beste' is wat ik kan doen.

Wat zouden jullie doen en evt ook om welke reden die keuze?

Acties:
  • 0 Henk 'm!

  • c0rneel
  • Registratie: December 2002
  • Laatst online: 08-09 16:24
Ik loop tegen een raar issue aan tijdens het rebooten van mijn vm en het krijgen van een ip adres.

Ik heb op het werk een pc ingericht met proxmox om zelf dynamischer te zijn met het verkrijgen van testomgevingen. De pc zelf hangt met een enkele utp kabel op het netwerk en heeft ip 10.113.148.42 gekregen.
Hierop heb ik een ubuntu machine gemaakt die ik naar template heb omgezet. Elke kloon die ik hiervan maak krijgt automatisch een 10.113.148.48 ip adres, vanuit een kloon kan ik dit nog wel begrijpen dat deze gecacht is met een oud ip adres, ik log via de console in en doe een dhclient -r / dhclient -v om een nieuw ip adres te krijgen. DHCP server draait op het netwerk zelf.

Maar het probleem is er ook zodra ik een reboot doe, dan heeft deze ook het *.48 ipadres en moet ik wederom inloggen om weer een nieuw ip adres te krijgen.
Ik kan dit nu oplossen door een startup script te maken die dit elke keer reset maar ik ga er vanuit dat dit komt door een fout instelling oid.

Hebben jullie hier ervaring mee?

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
RoePe schreef op zondag 3 november 2019 @ 23:26:
Hoi dcm360

Ik was al langer op zoek naar een mogelijkheid om fileserver/NAS functionaliteit te virtualiseren, puur om geen extra toestel hoeven in te zetten en omdat het lijkt dat dit tegenwoordig goed werkt.
Door proxmox denk ik het juiste systeem te hebben gevonden.

Systeem, LXC's en VM's op de 120Gb SSD is waarschijnlijk een no-brainer, of toch niet?
Wat vinden jullie van de turnkeylinux server app?
Ik dacht om de HDD volledig als share in te zetten, backup doe ik naar een externe schijf.
De CPU is een i3-3240 en heb het maximum aan RAM, 16Gb er in zitten.
Tot nu toe heb ik alleen ervaring met EXT - denk dat het destijds 2 was - en NTFS filesystems en uiteraard ook FAT(32).
Ik heb wel weet van ZFS maar niet of dit nu 'het beste' is wat ik kan doen.

Wat zouden jullie doen en evt ook om welke reden die keuze?
Zo zou ik het doen:

- OS, VM's op SSD met ZFS als rpool
- van je HDD ook een zpool maken
- zfs backup van SSD > HDD instellen met send and receive, zo heb je een backup van je SSD
- enkele datasets maken op de HDD die je wil gebruiken als share
- LXC Debian 10 VM maken (sambaserver) en de host zfs datasets bindmounten naar je Debian LXC
- SAMBA installeren in LXC debian + SAMBA configgen
- done?

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +1 Henk 'm!

  • exepti0n
  • Registratie: Maart 2008
  • Niet online

exepti0n

_o-

Mijn netwerkprobleem is ook opgelost.

Mijn vermoeden is dat Proxmox extra netwerkapparaten heeft opgeslagen omdat ik waarschijnlijk bij de installatie de kaart in een ander slot had gedrukt, deze is later verplaatst.

Ik heb via de Shell van Proxmox het command
ip a
gedraaid, deze gaf vervolgens deze interfaces terug: enp4s0f0, enp4s0f1, enp5s0f0, enp5s0f1.

Deze heb ik in de netwerkconfig van Proxmox behouden en de rest er uit gehaald.

Vervolgens was het een kwestie van een poort aan een bridge koppelen en voila: verbinding.

Volvo XC40 SMSR Plus (MY24)


Acties:
  • 0 Henk 'm!

  • 3raser
  • Registratie: Mei 2008
  • Laatst online: 12-09 08:32

3raser

⚜️ Premium member

Als ik extra Network Bridges aan maak, is het dan echt nodig om de Proxmox host te herstarten? Dit klinkt nogal omslachtig. Ik dacht even wat uit te proberen met een gescheiden netwerk voor bepaalde VM's maar zo wordt uitproberen wel een lastig klusje.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
3raser schreef op maandag 11 november 2019 @ 16:07:
Als ik extra Network Bridges aan maak, is het dan echt nodig om de Proxmox host te herstarten? Dit klinkt nogal omslachtig. Ik dacht even wat uit te proberen met een gescheiden netwerk voor bepaalde VM's maar zo wordt uitproberen wel een lastig klusje.
Uitproberen doe je best op een test machine ;)

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • 3raser
  • Registratie: Mei 2008
  • Laatst online: 12-09 08:32

3raser

⚜️ Premium member

A1AD schreef op dinsdag 12 november 2019 @ 09:49:
[...]


Uitproberen doe je best op een test machine ;)
Dus ik kan het beste een VM aanmaken en daar Proxmox op installeren? ;)
Maar zonder gekheid, het is dus echt nodig om te herstarten vanwege een netwerk wijziging?

Acties:
  • +1 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
3raser schreef op dinsdag 12 november 2019 @ 10:01:
[...]

Dus ik kan het beste een VM aanmaken en daar Proxmox op installeren? ;)
Maar zonder gekheid, het is dus echt nodig om te herstarten vanwege een netwerk wijziging?
Helpt je dit? https://forum.proxmox.com...ridge-without-reboot.5499

- Deze advertentie is geblokkeerd door Pi-Hole -


  • RoePe
  • Registratie: November 2019
  • Laatst online: 25-01 23:33
A1AD schreef op dinsdag 5 november 2019 @ 13:04:
[...]Zo zou ik het doen:

- OS, VM's op SSD met ZFS als rpool
- van je HDD ook een zpool maken
- zfs backup van SSD > HDD instellen met send and receive, zo heb je een backup van je SSD
- enkele datasets maken op de HDD die je wil gebruiken als share
- LXC Debian 10 VM maken (sambaserver) en de host zfs datasets bindmounten naar je Debian LXC
- SAMBA installeren in LXC debian + SAMBA configgen
- done?
Bedankt A1AD, de installatie op de SSD zoals jij voorstelt is gelukt, heb even moeten uitzoeken wat een rpool is.
Heb er dus een RAID 0/ZFS volume van gemaakt met lz4 compressie.
Nu ben ik al een hele tijd aan het zoeken hoe ik van die HDD een zpool moet maken.

In de proxmox shell met fdisk HDD gewiped, partitie gemaakt maar krijg met "zpool create -f <naampool> /dev/sdb" de melding dat dat die disc in use is en een filesystem bevat.

Kan iemand van jullie me op de juiste weg helpen aub?

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
RoePe schreef op donderdag 14 november 2019 @ 18:54:
[...]

Bedankt A1AD, de installatie op de SSD zoals jij voorstelt is gelukt, heb even moeten uitzoeken wat een rpool is.
Heb er dus een RAID 0/ZFS volume van gemaakt met lz4 compressie.
Nu ben ik al een hele tijd aan het zoeken hoe ik van die HDD een zpool moet maken.

In de proxmox shell met fdisk HDD gewiped, partitie gemaakt maar krijg met "zpool create -f <naampool> /dev/sdb" de melding dat dat die disc in use is en een filesystem bevat.

Kan iemand van jullie me op de juiste weg helpen aub?
Wellicht is je partitie gekoppeld? Bekijk is met het commando "mount" als je daar een referentie tegenkomt van /dev/sdb dan moet je hem eerst unmounten.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Hangtime
  • Registratie: Juni 2015
  • Laatst online: 11-07 10:42
Ik heb totaal geen ervaring met proxmox, maar nu mijn ubuntu server overleden is, wil ik eraan beginnen.

Wat ga ik ermee doen?
- Ubuntu voor WAMP en storage server
- Windows Server 2016 voor relatief zware financiële programma's
- Hackintosh

Ik wil gebruik maken van ZFS voor de 2 SSD's en de 2 HDD's.

Zelf dit lijstje samengesteld, graag jullie mening hierover:
#CategoryProductPrijsSubtotaal
1ProcessorsAMD Ryzen 7 2700X Wraith Boxed€ 171,-€ 171,-
1MoederbordenMSI X470 Gaming Plus€ 125,-€ 125,-
1VideokaartenMSI GeForce GT 710 1GD3H LP€ 34,88€ 34,88
2Interne harde schijvenWD Red (256MB cache), 8TB€ 236,90€ 473,80
1Behuizingenbe quiet! Pure Base 600 Zilver/Zwart€ 68,90€ 68,90
1Geheugen internCorsair Vengeance LPX CMK32GX4M2B3200C16€ 144,90€ 144,90
1VoedingenCorsair VS450 (2018)€ 37,91€ 37,91
2Solid state drivesKingston A2000 500GB€ 63,81€ 127,62
Bekijk collectie
Importeer producten
Totaal€ 1.184,01


Mobo aangepast van Asus PRIME X470-PRO naar MSI X470 Gaming Plus i.v.m. betere support M2 drives.
RAM geheugen aangepast naar 32GB, thnx @rachez
Processor aangepast van ryzen 5 3600 naar ryzen 7 2600x, meer cores, beter voor VM leek me.
Videokaart toegevoegd voor installatie.

[ Voor 12% gewijzigd door Hangtime op 17-11-2019 21:54 ]


Acties:
  • +2 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 17:40
Ik zou er gelijk 2x16GB memory van maken of een reepje van 16GB nemen en later een tweede bijkopen.

Windows lust wel wat memory en mijn ervaring is dat je met Proxmox al gauw tekort komt: je spint al vrij snel weer een nieuwe host op om wat uit te proberen en dan is het fijn als je wat extra ruimte hebt.

Acties:
  • +1 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

@Hangtime Waarom een X470 bord? De 4 SATA devices kunnen ook wel op een B450 bord worden aangesloten en voor het overklokken van het geheugen heb je ook geen X470 nodig.
Vergeet ook niet om een VGA kaart erin te doen tijdens de installatie. Voordat ik overstapte naar de X470D4U had ik altijd een PCIe 1x kaart erin zitten zodat ik toch nog een grafische output had.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • Hangtime
  • Registratie: Juni 2015
  • Laatst online: 11-07 10:42
ocf81 schreef op zondag 17 november 2019 @ 18:20:
@Hangtime Waarom een X470 bord? De 4 SATA devices kunnen ook wel op een B450 bord worden aangesloten en voor het overklokken van het geheugen heb je ook geen X470 nodig.
Vergeet ook niet om een VGA kaart erin te doen tijdens de installatie. Voordat ik overstapte naar de X470D4U had ik altijd een PCIe 1x kaart erin zitten zodat ik toch nog een grafische output had.
2x SATA, 2x M.2 PCI-e

Geen specifieke reden voor het X470 bord, maar vanwege het geringe prijs verschil dacht ik, kan ik net zo goed de X470 halen i.p.v. een B450 :)

VGA kaart? Onboard video kaart gaat niet werken?

Acties:
  • +1 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Hangtime schreef op zondag 17 november 2019 @ 18:38:
[...]


2x SATA, 2x M.2

Geen specifieke reden voor het X470 bord, maar vanwege het geringe prijs verschil dacht ik, kan ik net zo goed de X470 halen i.p.v. een B450 :)

VGA kaart? Onboard video kaart gaat niet werken?
Ryzen heeft geen onboard video tenzij je een G CPU neemt. Op zich hoeft ie er alleen maar in te zitten tijdens de installatie, maar je zal er wel ergens een vandaan moeten halen.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • Crateagus
  • Registratie: Juni 2010
  • Laatst online: 07-09 21:20
Ik ben totaal nieuw met Proxmox en ZFS, maar kom zelfs al niet voorbij de installatie.

Kan of wil iemand mij op weg helpen met het volgende:
Na een eerste installatie met PVE 6 en ZFS heb ik de node de geweldige naam 'koekkoek' gegeven, met het idee eerst maar eens kijken, daarna heb ik zo weer een verse installatie gedaan.

Ondanks dat ik alle schijven los van elkaar installeer, of formatteer krijg ik na een schone installatie weer 'koekkoek' als node te zien, met foutmeldingen over de hostname.
hostname lookup 'koekkoek' failed - failed to get address info for: koekkoek:
Name or service not known (500)
Met onderstaande link dacht ik het op te lossen, maar dat werkt vooralsnog niet. Ik krijg de naam niet anders, wat wel lukt is dat ik de foutmelding over de hostnaam oplos als ik het wijzig naar koekkoek.
https://pve.proxmox.com/wiki/Renaming_a_PVE_node

Los van het feit ik het niet gewijzigd krijg, vind ik het raar dat ondanks nieuwe installatie en geformatteerde schijven ik steeds weer die naam zie staan.

Het ligt ongetwijfeld aan mij 8)7, maar als iemand deze newbie de goeie richting in kan duwen zou dat fijn zijn.

Acties:
  • 0 Henk 'm!

  • _root
  • Registratie: Augustus 2003
  • Laatst online: 18:47
@Crateagus
Zo het kunnen zijn dat je inmiddels van een andere schijf start dan je denkt?
Ik heb je werkwijze diverse malen zo uitgevoerd, maar dit is mij nog nooit overkomen.

Kan je de schijfconfiguratie eens posten?

PVoutput 3250 WP


Acties:
  • 0 Henk 'm!

  • Crateagus
  • Registratie: Juni 2010
  • Laatst online: 07-09 21:20
Dat had ik ook verwacht _root, maar dat is het niet. Net de kast nog eens gecheckt voor de zekerheid.

Heb een https://tweakers.net/pric...357/intel-660p-512gb.html en een https://tweakers.net/pric...ive-(stdr)-5tb-zwart.html.
De laatste is 100% afgekoppeld.

De eerste zit op het bord met m.2 connector. Dat is de enige.

  • Tomsworld
  • Registratie: Maart 2001
  • Niet online

Tomsworld

officieel ele fan :*

Wat zou een leuke config zijn met een node

2 x 480 SSD
2 x 2 TB HDD

Ergens wil ik redundantie en acceleratie het zou leuk zijn als het systeem dynamisch blocks kan verplaatsen let op het is een dedi dus Proxmox moet ook ergens op staan geïnstalleerd.

"De kans dat een snee brood op een nieuw tapijt valt met de beboterde zijde onderaan, is recht evenredig met de prijs van het tapijt"


Acties:
  • 0 Henk 'm!

  • zx9r_mario
  • Registratie: Oktober 2004
  • Nu online
Zfs raid gebruiken zou ik zeggen

Acties:
  • 0 Henk 'm!

  • zx9r_mario
  • Registratie: Oktober 2004
  • Nu online
Proxmox 6.1 is gisteren uitgekomen. https://www.proxmox.com/e...s-releases/proxmox-ve-6-1

[ Voor 46% gewijzigd door zx9r_mario op 05-12-2019 22:00 ]


Acties:
  • 0 Henk 'm!

  • LiquidSmoke
  • Registratie: Maart 2001
  • Laatst online: 11-09 09:36
Nice, vanavond weer wat te doen!

Iemand al ervaringen met updaten van 6.0 -> 6.1?

Acties:
  • +1 Henk 'm!

  • raven22
  • Registratie: Januari 2004
  • Laatst online: 13:19
LiquidSmoke schreef op zaterdag 7 december 2019 @ 14:19:
[...]


Nice, vanavond weer wat te doen!

Iemand al ervaringen met updaten van 6.0 -> 6.1?
ja, draait prima, maar ik heb alleen openmediavault en een paar lxc containers erop.

Acties:
  • 0 Henk 'm!

  • LiquidSmoke
  • Registratie: Maart 2001
  • Laatst online: 11-09 09:36
Inmiddels geupdate naar 6.1, draait als een zonnetje.

Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 11-09 19:56

MvL

Ik loop met een idee in mijn hoofd op mijn setup te veranderen. Ik heb een paar jaar geleden ook al een gekeken naar Proxmox, maar nooit echt uitgevoerd. Ik denk dan aan een Proxmox server met aparte storage. Voor de storage denk ik aan OMV.

Ik heb een Ryzen 3900X over dit moet dan de Proxmox server worden. Er moet nog wel een ander mobo komen, en meer geheugen. Ik zoek een mobo met IPMI. Ik ben al eens voorheen een mobo tegen gekomen die dit heeft, en ook een AM4 socket heeft. Ik ga straks even zoek of ik deze kan vinden.

Ook wil ik graag netwerk poorten (passthrough) geven aan een VM. Is dit mogelijk met Proxmox (zie update 2)?


Update_1:

Ik ben dit bord tegen gekomen: ASRock Rack X470D4U. Deze wordt ook gebruikt door een Proxmox user. Iemand of de bewuste user ervaringen te delen?

Update_2

Ik wil even mijn netwerk verhaal verduidelijken. Ik heb Linux Distro wat fungeert als mijn router. Ik heb dus 2 netwerk poorten nodig. Voor WAN en LAN. Ik heb hiervoor een aparte netwerk kaart. Ik ben aan het Google-en, en als ik het goed begrijp heb ik geen passthrough nodig. Het is mij alleen niet duidelijk hoe ik het moet instellen.

[ Voor 30% gewijzigd door MvL op 15-12-2019 16:58 . Reden: informatie toegevoegd ]


Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

In theorie zou dat moeten lukken, maar ik liep met dat moederbord tegen wat problemen aan met IOMMU. Op 2 (identieke) systemen kreeg ik mijn SSD's niet werkend vanwege signaalverlies met IOMMU aan (zonder werkte dan weer wel, ik begrijp niet helemaal waarom). Op een ander systeem ging het mis in combinatie met TRIM, maar dat zou in de laatste Proxmox (met nieuwere kernel) wel eens opgelost kunnen zijn.

Het kan dus ook zonder IOMMU, dat doe ik op mijn router ook. Dan maak je een bridge aan voor LAN, en een andere bridge voor WAN, en is het een kwestie van de juiste echte adapter matchen met de juiste virtuele adapter die je aan de bridge koppelt. Hier wou ik eigenlijk ook de netwerkkaarten direct doorgeven aan de VM, maar de netwerkkaarten bleken samen met de SSD in dezelfde IOMMU groep te zitten (op een Supermicro bordje met een Atom, niet op de AsRock).

[ Voor 36% gewijzigd door dcm360 op 15-12-2019 17:05 ]


Acties:
  • 0 Henk 'm!

  • MvL
  • Registratie: Juni 2012
  • Laatst online: 11-09 19:56

MvL

dcm360 schreef op zondag 15 december 2019 @ 17:00:
In theorie zou dat moeten lukken, maar ik liep met dat moederbord tegen wat problemen aan met IOMMU. Op 2 (identieke) systemen kreeg ik mijn SSD's niet werkend vanwege signaalverlies met IOMMU aan (zonder werkte dan weer wel, ik begrijp niet helemaal waarom). Op een ander systeem ging het mis in combinatie met TRIM, maar dat zou in de laatste Proxmox (met nieuwere kernel) wel eens opgelost kunnen zijn.
Met IOMMU koppel fysieke hardware aan een VM? Je koppelde dus je SSD aan je VM?
Het kan dus ook zonder IOMMU, dat doe ik op mijn router ook. Dan maak je een bridge aan voor LAN, en een andere bridge voor WAN, en is het een kwestie van de juiste echte adapter matchen met de juiste virtuele adapter die je aan de bridge koppelt. Hier wou ik eigenlijk ook de netwerkkaarten direct doorgeven aan de VM, maar de netwerkkaarten bleken samen met de SSD in dezelfde IOMMU groep te zitten (op een Supermicro bordje met een Atom, niet op de AsRock).
Oke, je SSD en netwerk kaart zaten in dezelfde IOMMU groep. Je heb dit niet geprobeerd op het bewuste Asrock bord wat ik op het oog heb?

Is er ergens een guide te vinden wat betreft het netwerk gebeuren van Proxmox?

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

MvL schreef op zondag 15 december 2019 @ 19:11:
[...]


Met IOMMU koppel fysieke hardware aan een VM? Je koppelde dus je SSD aan je VM?
Als je IOMMU aanzet, dan verandert het één en ander aan hoe geheugenadressering van apparaten werkt, ongeacht of het apparaat aan een VM zit of niet. En dat liep dus niet lekker in de kernel van die Proxmox 6.0 meeleverde.
Oke, je SSD en netwerk kaart zaten in dezelfde IOMMU groep. Je heb dit niet geprobeerd op het bewuste Asrock bord wat ik op het oog heb?
Nee, helaas.
Is er ergens een guide te vinden wat betreft het netwerk gebeuren van Proxmox?
Zelf heb ik de guide voor pfSense gebruikt (om pfSense te installeren als VM dus, het vertaalt wellicht wel aardig naar andere router-OSen): https://docs.netgate.com/...pfsense-with-proxmox.html

Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Ik heb wel ervaring met de X470D4U, maar IOMMU/passthrough functionaliteit gebruik ik niet. Ik gebruik het i.c.m. de 2k serie Ryzen en ECC geheugen en het draait goed hier. Ik heb nog geen ervaring met de 3k serie opgedaan.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 22:49

HellStorm666

BMW S1000XR / Audi S6 Avant C7

Heej allemaal,

Vraagje.
Ik draai op dit moment een Intel G4500 met 8GB ECC Ram met Windows Server 2012R2.
Deze server ga ik morgen upgraden naar een Ryzen 3600 met 2x 16GB ECC op een ASRock B450 Pro4.

Om wat flexibeler te worden, wil ik het spul virtueel gaan draaien.

Op de zaak gebruiken we ESXi en hebben daar nog 1-socket licentie over.
Maar, nu zie ik dat VMware (geheel verwacht trouwens) zowel de CPU als het Mobo als de NIC niet support.

Voor mij een reden om eens naar Proxmox te kijken .

ESXi draai ik normaal gewoon vanaf een 8GB USB stick.
Maar, ik las dat dit voor Proxmox niet wordt aangeraden.
Klopt dit?

Zo ja, ik neem aan dat ProxMox de complete disk gebruikt en ik die disk dus niet meer kan gebruiken voor VM's.
Ook las ik dat een RAID mirror aangeraden wordt voor de install. Correct?

Nu zit ik er eigenlijk niet op te wachten om 1 of 2 (kleine) SSD's bij te moeten kopen om het alsnog draaiende te krijgen. Mede vanwege de beperkte aantal SATA porten die de B450 Pro4 heeft en ook vanwege weer 2 extra disks die stroom verbruiken (wil t systeem uiteraard zo zuinig mogelijk hebben).

Ik heb ook nog een Synology NAS draaien (DS413J). Hier zou ik een iSCSI op kunnen zetten. Maar geen idee of dat wel verstandig is (Draait een 4x 3TB WD Red in RAID5).

Wat raden jullie aan?
A) Proxmox gewoon vanaf USB draaien
B) Proxmox vanaf USB draaien, maar deze op 2 sticks zetten (RAID? Hoe?)
C) Proxmox op een enkele SSD zetten
D) Proxmox op de Synology z'n drive laten zetten (Hoe?)
E) Niet janken, koop gewoon 2 SSD's
F) Iets anders, nl.

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Proxmox installeert op vergelijkbare wijze als anere linux distro's. Je kan zelf kiezen welk filesysteem je gebruikt en hoeveel je gebruikt. Als je ervoor kiest om een hele disk te gebruiken zal een deel van de storage beschikbaar worden gesteld om installatieimages en virtuele disks van te kunnen hosten. Ter illustratie: van een 500GB SSD blijft ca 350GiB (~375GB) over voor gebruik voor VMs, iso's etc.

[ Voor 13% gewijzigd door ocf81 op 16-12-2019 18:53 ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 22:49

HellStorm666

BMW S1000XR / Audi S6 Avant C7

ocf81 schreef op maandag 16 december 2019 @ 17:53:
Proxmox installeert op vergelijkbare wijze als anere linux distro's. Je kan zelf kiezen welk filesysteem je gebruikt en hoeveel je gebruikt. Als je ervoor kiest om een hele disk te gebruiken zal een deel van de storage beschikbaar worden gesteld om installatieimages en virtuele disks van te kunnen hosten. Ter illustratie: van een 500GB SSD blijft ca 350GiB (~375GB) over voor gebruik voor VMs, iso's etc.
Aha.
Ik heb een Corsair Force mp510 van 960gb.
Deze als xfs (of ext4?) formatteren en dan voor proxmox en als storage voor de installatie schijven van de VM's gebruiken is dan dus wel een mooie oplossing?
Na de migratie heb ik dan nog een Crucial MX300 525GB ter beschikking. Welke ik voor oa nzbget, sonarr, radarr en pihole in kan zetten.
En dan nog een 3tb en 6tb hdd voor storage van de films en series.

Bonus vraag: die 3tb en 6tb zijn vol met data en ntfs als systeem. Kan ik die zonder leeg te halen gebruiken?

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

@HellStorm666 Op zich kan alles wat je met een normale linux distro kan, maar Proxmox is er wel op ingericht om vooral KVM VM's en LXC containers te hosten. De Proxmox doctrine zegt dat je voor ander diensten dan een VM of container moet inrichten die deze diensten dan aanbiedt. De files delen vanuit Proxmox is een beetje tegen de Proxmox doctrine in. Als je die schijven voor een NAS wil gaan gebruiken lijkt het mij nuttiger om deze middels passthrough aan een NAS VM aan te bieden en dan zo de files te delen.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 22:49

HellStorm666

BMW S1000XR / Audi S6 Avant C7

ocf81 schreef op maandag 16 december 2019 @ 23:54:
@HellStorm666 Op zich kan alles wat je met een normale linux distro kan, maar Proxmox is er wel op ingericht om vooral KVM VM's en LXC containers te hosten. De Proxmox doctrine zegt dat je voor ander diensten dan een VM of container moet inrichten die deze diensten dan aanbiedt. De files delen vanuit Proxmox is een beetje tegen de Proxmox doctrine in. Als je die schijven voor een NAS wil gaan gebruiken lijkt het mij nuttiger om deze middels passthrough aan een NAS VM aan te bieden en dan zo de files te delen.
Sorry,
Misschien was mijn reactie wat onduidelijk.

Mijn doel is inderdaad alleen proxmox installeren.
Alle andere zaken draaien op VM's.
Maar de vhd's (geen idee nog hoe die heten bij proxmox) komen dan op dezelfde SSD (NVMe) als de installatie van proxmox.
De gewone hdd's wil ik via passtrough aanbieden aan de Windows Server 2019 installatie, welke virtueel draait dus.

Lees her en der trouwens wel dat proxmox ssd's vreet. Is dat nog zo en kan ik dus beter proxmox op een hdd zetten?

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

HellStorm666 schreef op dinsdag 17 december 2019 @ 07:03:
[...]

Sorry,
Misschien was mijn reactie wat onduidelijk.

Mijn doel is inderdaad alleen proxmox installeren.
Alle andere zaken draaien op VM's.
Maar de vhd's (geen idee nog hoe die heten bij proxmox) komen dan op dezelfde SSD (NVMe) als de installatie van proxmox.
De gewone hdd's wil ik via passtrough aanbieden aan de Windows Server 2019 installatie, welke virtueel draait dus.
Ja dat dacht ik wel, maar aannames maken is gevaarlijk, dus vandaar dat ik dat even in het midden liet.
Lees her en der trouwens wel dat proxmox ssd's vreet. Is dat nog zo en kan ik dus beter proxmox op een hdd zetten?
Als je ZFS als filesysteem kiest en trim aanzet zou dat nu geen probleem meer moeten zijn.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 22:49

HellStorm666

BMW S1000XR / Audi S6 Avant C7

ocf81 schreef op dinsdag 17 december 2019 @ 10:32:
[...]

Ja dat dacht ik wel, maar aannames maken is gevaarlijk, dus vandaar dat ik dat even in het midden liet.

[...]

Als je ZFS als filesysteem kiest en trim aanzet zou dat nu geen probleem meer moeten zijn.
Aangezien ik niet meerdere schijven wil gaan bundelen, heeft ZFS niet echt meerwaarde voor mij.

Om de disks even samen te vatten:
1x Corsair Force MP510 960GB (nieuw) || Disk waar de VHD's van de OS-en op komen, oa Server 2019 2x.
1x Crucial MX300 2,5" 525GB (gebruikt) || Bevat momenteel m'n Server 2012R2 installatie, deze gaat uiteindelijk leeg. Waarschijnlijk Disk waar de VHD's op komen van OS-en die minder snel hoeven te zijn. (Pi-hole bijv)
1x Seagate NAS HDD, 3TB (gebruikt) || Staan nu de tijdelijke Downloads van NZBGet op en m'n Series.
1x WD Blue WD60EZRZ, 6TB (gebruikt) || Staan nu de Films op.
1x WD Red 10TB (gebruikt) || Hier staan de Off-site backups van het werk op.

De 3 HDD's bevatten nu data die daar uiteindelijk ook weer op moet.
De 10TB wil ik ook weer in ReFS hebben, dus bij voorkeur deze gewoon in Passtrough naar de Server 2019 VM sturen.
De 3TB en 6TB zouden als JBOD (oid) mogen. heeft geen redundantie nodig. zijn nu bijde NTFS en heb die liever naar ReFS of vergelijkbaar.
Die 3TB en 6TB zou ik evt. tijdelijk naar externe schijven kunnen kopieren om zo de data te bewaren.

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

@HellStorm666 Er is redelijk wat schijfactiviteit. Als je trim aanzet is het probleem met de slijtage van SSD's een stuk minder.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:05
HellStorm666 schreef op dinsdag 17 december 2019 @ 10:41:
[...]

Aangezien ik niet meerdere schijven wil gaan bundelen, heeft ZFS niet echt meerwaarde voor mij.
ZFS heeft wel meer voordelen dan alleen RAID achtige dingen. Dat overal een checksum van wordt opgeslagen en ZFS dus bitrot etc kan detecteren is toch wel handig (leverde mij laatst nog een automatische error mail op dat een schijf lees errors gaf. Onderzoek wees uit dat de schijf bad sectors heeft).
Daarnaast bied het ondersteuning voor snapshots (even snapshot maken van proxmox alvorens systeem updates te draaien bv. Na falende update zou je dan weer rollback kunnen doen). En in combinatie met Proxmox worden VMs i.p.v. in een file weg geschreven in een ZVOL wat een block device op de ZFS pool is weg geschreven. En ook een ZVOL kun je weer snapshotten etc.

Acties:
  • 0 Henk 'm!

  • HellStorm666
  • Registratie: April 2007
  • Laatst online: 22:49

HellStorm666

BMW S1000XR / Audi S6 Avant C7

RobertMe schreef op dinsdag 17 december 2019 @ 11:39:
[...]

ZFS heeft wel meer voordelen dan alleen RAID achtige dingen. Dat overal een checksum van wordt opgeslagen en ZFS dus bitrot etc kan detecteren is toch wel handig (leverde mij laatst nog een automatische error mail op dat een schijf lees errors gaf. Onderzoek wees uit dat de schijf bad sectors heeft).
Daarnaast bied het ondersteuning voor snapshots (even snapshot maken van proxmox alvorens systeem updates te draaien bv. Na falende update zou je dan weer rollback kunnen doen). En in combinatie met Proxmox worden VMs i.p.v. in een file weg geschreven in een ZVOL wat een block device op de ZFS pool is weg geschreven. En ook een ZVOL kun je weer snapshotten etc.
Juist vanwege bitrot gebruik ik ook refs voor de backup schijf.
Welke vanwege de backup software op windows moet draaien.

Maar,
Even terug naar de basis.
Proxmox op usb, ssd, hdd of iSCSI (via iPXE)?

Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

HellStorm666 schreef op dinsdag 17 december 2019 @ 12:28:
[...]

Juist vanwege bitrot gebruik ik ook refs voor de backup schijf.
Welke vanwege de backup software op windows moet draaien.

Maar,
Even terug naar de basis.
Proxmox op usb, ssd, hdd of iSCSI (via iPXE)?
Ja, dat kan allemaal. Ik vraag me echter af of je USB stick een lang leven beschoren is als je van USB gaat booten. Je zou het eens kunnen proberen op deze manier: https://c-nergy.be/blog/?p=1159

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • maomanna
  • Registratie: Februari 2006
  • Laatst online: 12-09 16:00
Ik zit momenteel met een vreemd probleem.

Als ik met mijn vaste pc de nieuwe proxmox installatie webgui wil benaderen, lukt dat niet.
Netmask staat goed: https://forum.proxmox.com...ct-via-web-browser.30645/

De no subscription versie:
https://forum.proxmox.com...x-web-gui-problems.41391/

https certs weggegooid:
https://pve.proxmox.com/w..._to_default_configuration

Op mijn vaste pc kan ik de proxmox webgui niet benaderen, maar mijn telefoon (via wifi binnen hetzelfde lan en netmask) kan daar wel bij.

Hebben jullie enig idee hoe ik dit kan oplossen?

https://pvoutput.org/intraday.jsp?id=102416&sid=90116


Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 02-09 16:28

Kek

3flix

maomanna schreef op dinsdag 17 december 2019 @ 23:35:
Ik zit momenteel met een vreemd probleem.

Als ik met mijn vaste pc de nieuwe proxmox installatie webgui wil benaderen, lukt dat niet.
Netmask staat goed: https://forum.proxmox.com...ct-via-web-browser.30645/

De no subscription versie:
https://forum.proxmox.com...x-web-gui-problems.41391/

https certs weggegooid:
https://pve.proxmox.com/w..._to_default_configuration

Op mijn vaste pc kan ik de proxmox webgui niet benaderen, maar mijn telefoon (via wifi binnen hetzelfde lan en netmask) kan daar wel bij.

Hebben jullie enig idee hoe ik dit kan oplossen?
welke browser/systeem is je vaste PC. en heb je ook andere browsers geprobeerd..?

Acties:
  • 0 Henk 'm!

  • maomanna
  • Registratie: Februari 2006
  • Laatst online: 12-09 16:00
Ik heb Google Chrome, Internet Explorer en Brave geprobeerd.

Zojuist bedacht ik mij dat ik ook nog Firefox kan proberen en toen deed ie het. Nu doen de andere browsers het ook. Wellicht heeft een reboot van mijn vaste pc gewerkt.

https://pvoutput.org/intraday.jsp?id=102416&sid=90116


Acties:
  • 0 Henk 'm!

  • zx9r_mario
  • Registratie: Oktober 2004
  • Nu online
Ik heb mijn proxmox cluster van 5.4 naar 6.1 geupgraded, dat ging allemaal goed maar loopt tegen iets vreemds aan:

In 5.4 zijn de bridges vlan-ware (trunk port op cisco switch) en vm's (LXC) konden via de verschillende nodes met elkaar communiceren via het ingesteld vlan tag.

Na de upgrade naar 6.1 zijn er connectie problemen als de vm's op verschillende nodes staan. PING, SSH of telnet naar een poort werkt wel, maar bij bijv curl, wget oid blijft ie hangen. Firewall is nergens actief, het verkeer zie ik wel in het betreffende vlan langskomen.

De vm's op dezelfde node kunnen wel probleemloos connecten met elkaar

  • ocaj
  • Registratie: Juli 2011
  • Niet online
Ik ben bezig met het inrichten van mijn eerste Proxmox-machine. Gelijk ook mijn eerste ervaring met virtualisatie in het algemeen en ik kom er nog niet helemaal uit, dus bij deze een paar vragen:

1) Ik ben nu eerst de host en een aantal vm's aan het inrichten en wil daarna mijn bestaande zpool verhuizen naar deze nieuwe machine. Mijn bestaande zpool is gemaakt onder OpenIndiana (solaris-variant) en is nog van pool-versie 28. Ik heb die bestaande zpool destijds (2011 of 2012 of zo) aangemaakt als versie 28 omdat de feature-flags toen nog tamelijk nieuw waren. Ik wilde niet het risico lopen vast te zitten aan een feature die alleen onder solaris draaide en nergens anders. Momenteel lijken de feature-flags volwassen genoeg en zou ik de pool kunnen upgraden. Lijkt mij slim om dat pas te doen nadat ik de pool naar de proxmox-machine verhuisd heb. Correct?
Volgens mij zou proxmox met ZFS-on-Lunix een zpool met versie 28 moeiteloos moeten kunnen importeren? Dan zit de storage primair dus gekoppeld aan de host en vanuit de containers benader ik die met bind-mounts.
Van de pool heb ik voor het belangrijskte deel wel backups, maar zou hem graag intact laten (16TB restoren vanaf backups op usb-schijven die off-site liggen is niet ideaal om het zachtjes uit te drukken).
Is het simpelweg een "zpool export" op de oude machien en na verplaatsen van de disks "zpool import" op de proxmox host?Gaat die goed, of kan ik hier nog iets aan fout doen of problemen verwachten?

2) De bestanden op mijn bestaande zpool hebben user-id's 101 tm / 105 in gebruik. Ik kom er niet helemaal uit hoe ik hier praktisch mee om moet gaan.
Ik wil een NAS-LXContainer maken waar samba in draait om de files te sharen.
Daar zou ik iets voor moeten configureren met uid-mapping, maar ik snap nog niet helemaal hoe dat werkt. Moet ik voor elke uid dat op de schijf voorkomt een uid-map maken van de hoge nummers die lxc bedenkt naar de uid's die op de schijf gebruikt worden?

En hoe zit het nu met de accounts zelf? Maak ik die dan alleen in de Samba-container aan, of moet ik die op de proxmox-host aanmaken?

3) In een andere LX-Container ga ik mysql draaien. Ik ga gelijk een mysql-upgrade doen en mijn database omzetten van Myisam naar InnoDB, dus dat wordt een mysqldump en die dan importeren in de nieuwe container. Wel wil ik de data middels een bind-mount op mijn bestaande zpool zetten.
In dat geval is het eigenlijk toch helemaal niet zo relevant dat er op zfs-niveau hele hoge uid's gebruikt worden? Ik gebruik die data immers toch alleen direct vanuit de mysql-container. In dat geval hoef ik dus geen uid-mapping te doen?

Alvast bedankt!

Acties:
  • 0 Henk 'm!

  • Xenophoben
  • Registratie: Augustus 2007
  • Laatst online: 12-09 10:28
Hallo allemaal,

Ik ga mijn eerste proxmox server inrichten. Ik heb een hp dl360 g8 op ebay gekocht voor een mooie prijs. Dit betreft een dual xeon setup met een hardware raid met cache en batterij p420 . Wat raden jullie aan ? De hardware raid gebruiken of zfs gebruiken? Uit ervaring weet ik dat vaak de hw raid van hp slecht door te koppelen is naar zaken als freenas. Hoe zit dit met proxmox?
Het systeem heeft 40 gb ram met nog heel wat slots vrij mocht het nodig zijn.

Acties:
  • 0 Henk 'm!

  • Freeaqingme
  • Registratie: April 2006
  • Laatst online: 18:54
Ik zou bijna per definitie een raid card in HBA/passthrough mode configureren als ik moest kiezen tussen fysieke raid of ZFS.

No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
ocaj schreef op donderdag 26 december 2019 @ 00:17:
Ik ben bezig met het inrichten van mijn eerste Proxmox-machine. Gelijk ook mijn eerste ervaring met virtualisatie in het algemeen en ik kom er nog niet helemaal uit, dus bij deze een paar vragen:

1) Ik ben nu eerst de host en een aantal vm's aan het inrichten en wil daarna mijn bestaande zpool verhuizen naar deze nieuwe machine. Mijn bestaande zpool is gemaakt onder OpenIndiana (solaris-variant) en is nog van pool-versie 28. Ik heb die bestaande zpool destijds (2011 of 2012 of zo) aangemaakt als versie 28 omdat de feature-flags toen nog tamelijk nieuw waren. Ik wilde niet het risico lopen vast te zitten aan een feature die alleen onder solaris draaide en nergens anders. Momenteel lijken de feature-flags volwassen genoeg en zou ik de pool kunnen upgraden. Lijkt mij slim om dat pas te doen nadat ik de pool naar de proxmox-machine verhuisd heb. Correct?
Volgens mij zou proxmox met ZFS-on-Lunix een zpool met versie 28 moeiteloos moeten kunnen importeren? Dan zit de storage primair dus gekoppeld aan de host en vanuit de containers benader ik die met bind-mounts.
Van de pool heb ik voor het belangrijskte deel wel backups, maar zou hem graag intact laten (16TB restoren vanaf backups op usb-schijven die off-site liggen is niet ideaal om het zachtjes uit te drukken).
Is het simpelweg een "zpool export" op de oude machien en na verplaatsen van de disks "zpool import" op de proxmox host?Gaat die goed, of kan ik hier nog iets aan fout doen of problemen verwachten?

2) De bestanden op mijn bestaande zpool hebben user-id's 101 tm / 105 in gebruik. Ik kom er niet helemaal uit hoe ik hier praktisch mee om moet gaan.
Ik wil een NAS-LXContainer maken waar samba in draait om de files te sharen.
Daar zou ik iets voor moeten configureren met uid-mapping, maar ik snap nog niet helemaal hoe dat werkt. Moet ik voor elke uid dat op de schijf voorkomt een uid-map maken van de hoge nummers die lxc bedenkt naar de uid's die op de schijf gebruikt worden?

En hoe zit het nu met de accounts zelf? Maak ik die dan alleen in de Samba-container aan, of moet ik die op de proxmox-host aanmaken?

3) In een andere LX-Container ga ik mysql draaien. Ik ga gelijk een mysql-upgrade doen en mijn database omzetten van Myisam naar InnoDB, dus dat wordt een mysqldump en die dan importeren in de nieuwe container. Wel wil ik de data middels een bind-mount op mijn bestaande zpool zetten.
In dat geval is het eigenlijk toch helemaal niet zo relevant dat er op zfs-niveau hele hoge uid's gebruikt worden? Ik gebruik die data immers toch alleen direct vanuit de mysql-container. In dat geval hoef ik dus geen uid-mapping te doen?

Alvast bedankt!
1: upgrade pas doen op de proxmox host voor alle zekerheid. Het is inderdaad export > import en klaar. Ik weet niet hoe het zit met die versies maar je kan eens booten met een proxmox live cd en een import doen. Zo weet je zeker dat alles mooi werkt.

2 en 3: Die uid-mapping moet je enkel doen wanneer je een unpriviledged container draait, ze raden aan om unpriv LXCs te draaien ja, rechten in je SAMBA LXC goed zetten is voldoende.

Hoe nog wat info: https://pve.proxmox.com/wiki/Unprivileged_LXC_containers

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +1 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
Xenophoben schreef op zaterdag 28 december 2019 @ 15:15:
Hallo allemaal,

Ik ga mijn eerste proxmox server inrichten. Ik heb een hp dl360 g8 op ebay gekocht voor een mooie prijs. Dit betreft een dual xeon setup met een hardware raid met cache en batterij p420 . Wat raden jullie aan ? De hardware raid gebruiken of zfs gebruiken? Uit ervaring weet ik dat vaak de hw raid van hp slecht door te koppelen is naar zaken als freenas. Hoe zit dit met proxmox?
Het systeem heeft 40 gb ram met nog heel wat slots vrij mocht het nodig zijn.
Wil je ZFS (ja dat wil je :) ) dan geen HW raid controller gebruiken. Of inderdaad zoals Freeaqingme aangeeft hem in HBA mode plaatsen.

[ Voor 4% gewijzigd door A1AD op 28-12-2019 15:33 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Xenophoben
  • Registratie: Augustus 2007
  • Laatst online: 12-09 10:28
Kan ik een p420 wel in echte hba mode plaatsen !? Ik lees veel problemen hier mee

Acties:
  • 0 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

A1AD schreef op zaterdag 28 december 2019 @ 15:31:
[...]


1: upgrade pas doen op de proxmox host voor alle zekerheid. Het is inderdaad export > import en klaar. Ik weet niet hoe het zit met die versies maar je kan eens booten met een proxmox live cd en een import doen. Zo weet je zeker dat alles mooi werkt.
Proxmox heeft toch geen live-cd? De twee dingen die de iso kan doen is installeren of een bestaand systeem booten.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
dcm360 schreef op zaterdag 28 december 2019 @ 18:47:
[...]

Proxmox heeft toch geen live-cd? De twee dingen die de iso kan doen is installeren of een bestaand systeem booten.
Je kan met de install cd toch een console sessie starten? Volgens mij heb ik zo al gechroot in mijn defecte setup?

In de console sessie kan je dan testen of je de pool kan importeren.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
A1AD schreef op zaterdag 28 december 2019 @ 15:31:
[...]


1: upgrade pas doen op de proxmox host voor alle zekerheid. Het is inderdaad export > import en klaar. Ik weet niet hoe het zit met die versies maar je kan eens booten met een proxmox live cd en een import doen. Zo weet je zeker dat alles mooi werkt.
Ok, dan doe ik die upgrade pas (een paar dagen) nadat ik de schijven heb overgezet. Hoeft toch niet van een live-cd? Ik heb op mijn nieuwe server al proxmox draaien, kan toch gewoon die installatie gebruiken?
(maar eerst zorgen dat ik de basis-functies draaiend heb, mysql draait al in een aparte container, nu nog een samba-container om de bestanden te ontsluiten)
2 en 3: Die uid-mapping moet je enkel doen wanneer je een unpriviledged container draait, ze raden aan om unpriv LXCs te draaien ja, rechten in je SAMBA LXC goed zetten is voldoende.

Hoe nog wat info: https://pve.proxmox.com/wiki/Unprivileged_LXC_containers
Hmmm, deze is een stuk lastiger. Ik ben nu aan het testen, maar nog niet heel succesvol.
Ik heb geprobeerd de instructie te volgen (na eerst een keer of wat goed doorlezen...). Ik heb even een tijdelijke "zfs create rpool/data/test" gedaan. De bestanden in mijn grote pool hebben allemaal uid 102 of 103, ik dacht met deze aanpassing van /etc/pve/lxc/101.conf de uid's 102 en 103 te mappen op 102/103 van de host:
code:
1
2
3
4
mp0: /rpool/data/test,mp=/data
lxc.idmap: u 0 100000 102
lxc.idmap: u 102 102 2
lxc.idmap: u 104 100104 65432

Maar dat resulteert erin dat de hele container niet meer start, middels lxc-start -F -n 101 krijg ik alleen deze weinig behulpzame output:
code:
1
2
3
4
lxc-start: 101: conf.c: run_buffer: 352 Script exited with status 2
lxc-start: 101: start.c: lxc_init: 897 Failed to run lxc.hook.pre-start for container "101"
lxc-start: 101: start.c: __lxc_start: 2032 Failed to initialize container "101"
Segmentation fault


Update: ook al verwijst de man-page van 'pct' naar de methode middels lxc-start -F, die werkt helemaal niet. Ook bij een correct configuratie die gewoon start met "pct start xxx" geeft het lxc-start-commando een segmentation fault.
Iemand een andere manier om debug-info te krijgen waarom een container niet start?
Output van pct start:
code:
1
2
3
Job for pve-container@101.service failed because the control process exited with error code.
See "systemctl status pve-container@101.service" and "journalctl -xe" for details.
command 'systemctl start pve-container@101' failed: exit code 1


In de container heb ik accounts gemaakt met de uid 102 en 103.

Moet ik overigens ook op de host accounts maken met uid 102 en 103? Of zijn de uid's simpelweg kale nummers die tussen de fysieke schijf en de container doorgegeven moeten worden?

Update2: Ik heb nu ook op de host-machine accounts gemaakt voor uid 102 en uid 103, maar geen verschil. (overigens ware er al accounts met uid 102 en 103, die heb middels usermod aangepast (en de bijbehorende bestanden uiteraard middels chown).

[ Voor 15% gewijzigd door ocaj op 29-12-2019 22:42 ]


Acties:
  • +1 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
Hmmmm, na een paar dagen stoeien dacht ik vandaag "als het niet kan zoals het moet, dan moet het maar zoals het kan", dus had ik het idee om niet meer met de id-mapping in unprivileged containers te werken, maar om dan maar een privileged container te maken die via samba de zfs-pool van de host kan delen in mijn netwerk.
Ik gebruik hem alleen intern in mijn thuis-netwerk en benader de server niet vanaf internet, dus de risico's van een privileged container lijken mij voor nu acceptabel (en dan kan ik in de tussentijd uitzoeken waarom de unprivileged containers niet werken).

Maar ook dat krijg ik niet aan de praat. Wat ik gedaan heb:
- unprivileged container (op basis van debian10-template).
- user met id 102 aangemaakt op zowel de host als in de container.
- via een bind-mountpoint een zfs-map op de host gemount binnen de container
- samba ingericht op de container om via smb deze mount te delen.

Bind-mount werkt prima, ik kan binnen de container alles doen met user 102.
Samba werkt helaas alleen read-only. Alles lijkt te kloppen, ik zie als ik verbinding maak met de 102-user zowel op de container als op de hoost een smbd-proces draaien als user 102, maar ondanks dat kan ik via samba alleen lezen.

Iemand nog goede tips? Ik word er een beetje simpel van dat ik zoiets redelijk basics als een samba-share niet voor elkaar krijg.
(verder wel enthousiast over proxmox hoor, het gemak waarmee je containers kunt toevoegen, inrichten, wat experimenteren en als het niet lukt gewoon weer weggooien werkt heel prettig en vlot)


Update: zucht... Het is gelukt. Blijkt dat samba default alle shares "read-only" maakt, tenzij je dat anders configureert :F 7(8)7 . Wat een idiote default, maar goed. In ieder geval ga ik dat nooit meer vergeten O-)

[ Voor 6% gewijzigd door ocaj op 02-01-2020 13:08 ]


Acties:
  • 0 Henk 'm!

  • OsiriS.nl
  • Registratie: April 2005
  • Laatst online: 12-09 14:10
ocaj schreef op donderdag 2 januari 2020 @ 00:06:
Hmmmm, na een paar dagen stoeien dacht ik vandaag "als het niet kan zoals het moet, dan moet het maar zoals het kan", dus had ik het idee om niet meer met de id-mapping in unprivileged containers te werken, maar om dan maar een privileged container te maken die via samba de zfs-pool van de host kan delen in mijn netwerk.
Ik gebruik hem alleen intern in mijn thuis-netwerk en benader de server niet vanaf internet, dus de risico's van een privileged container lijken mij voor nu acceptabel (en dan kan ik in de tussentijd uitzoeken waarom de unprivileged containers niet werken).

Maar ook dat krijg ik niet aan de praat. Wat ik gedaan heb:
- unprivileged container (op basis van debian10-template).
- user met id 102 aangemaakt op zowel de host als in de container.
- via een bind-mountpoint een zfs-map op de host gemount binnen de container
- samba ingericht op de container om via smb deze mount te delen.

Bind-mount werkt prima, ik kan binnen de container alles doen met user 102.
Samba werkt helaas alleen read-only. Alles lijkt te kloppen, ik zie als ik verbinding maak met de 102-user zowel op de container als op de hoost een smbd-proces draaien als user 102, maar ondanks dat kan ik via samba alleen lezen.

Iemand nog goede tips? Ik word er een beetje simpel van dat ik zoiets redelijk basics als een samba-share niet voor elkaar krijg.
(verder wel enthousiast over proxmox hoor, het gemak waarmee je containers kunt toevoegen, inrichten, wat experimenteren en als het niet lukt gewoon weer weggooien werkt heel prettig en vlot)


Update: zucht... Het is gelukt. Blijkt dat samba default alle shares "read-only" maakt, tenzij je dat anders configureert :F 7(8)7 . Wat een idiote default, maar goed. In ieder geval ga ik dat nooit meer vergeten O-)
Wellicht overbodig maar heb je gezien dat Proxmox default bij unprivileged containers de id's van de container mapt naar een andere range id's op de host: https://pve.proxmox.com/wiki/Unprivileged_LXC_containers

Ik ben daar ook tegenaan gelopen.. Ook ik heb uiteindelijk voor een privileged container met samba gekozen..

Acties:
  • 0 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
OsiriS.nl schreef op vrijdag 3 januari 2020 @ 08:31:
[...]


Wellicht overbodig maar heb je gezien dat Proxmox default bij unprivileged containers de id's van de container mapt naar een andere range id's op de host: https://pve.proxmox.com/wiki/Unprivileged_LXC_containers

Ik ben daar ook tegenaan gelopen.. Ook ik heb uiteindelijk voor een privileged container met samba gekozen..
Dank je, dat had ik inderdaad gezien, maar kreeg ik niet werkend.
Blij te horen dat ik niet de enige ben die samba in een unprivileged container niet aan de praat krijgt.

Ook nog een leuke verrassing: Ik dacht mijn complete data-zpool via een bind-mount aan de container te koppelen, maar dat moet je dus voor elk zfs-filesysteem apart doen.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
ocaj schreef op vrijdag 3 januari 2020 @ 10:26:
[...]


Dank je, dat had ik inderdaad gezien, maar kreeg ik niet werkend.
Blij te horen dat ik niet de enige ben die samba in een unprivileged container niet aan de praat krijgt.

Ook nog een leuke verrassing: Ik dacht mijn complete data-zpool via een bind-mount aan de container te koppelen, maar dat moet je dus voor elk zfs-filesysteem apart doen.
Jah, elke dataset apart koppelen.

Als je meer dan 10 mountpoints nodig heb kan je dit nog gebruiken:
lxc.mount.entry: /bds/NAS/Media/Music /var/lib/lxc/116/rootfs/mnt/NAS/Media/Music none bind,create=dir,optional 0 0

edit: dit hoort dus in je lxc config file

[ Voor 3% gewijzigd door A1AD op 03-01-2020 19:32 ]

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • +1 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
@A1AD Gelukkig zijn het op dit moment maar 6 shares. Wel goed om te weten dat je er meer dan de 10 van proxmox kunt toevoegen.

Acties:
  • 0 Henk 'm!

  • mdbraber
  • Registratie: Juli 2010
  • Niet online
Sinds kort heb ik naast Proxmox voor mijn homelab ook Proxmox op een (remote) dedicated server. De vraag is nu wat de beste security practice is om de hypervisor (Proxmox) te beveiligen en wel toegang te geven tot de individuele VMs. Ik gebruik pfSense (VM) als router/firewall en voor o.a. VPN. Op de Proxmox webinterface is 2FA enabled. De vraag is: op welke wijze is de hypervisor het beste te beveiligen?

Ik zie verschillende mogelijkheden:

1) Hypervisor heeft geen enkel publiek IP en is alleen te benaderen via KVM. Netwerk van de hypervisor als passthrough naar de pfSense VM. Bij onbereikbaarheid van pfSense KVM benodigd. Voorbeeld configuratie: https://github.com/pekare/hetzner-proxmox-pfsense

2) Hypervisor heeft een publiek IP en is alleen toegankelijk met SSH. Dan i.c.m. port-forwarding kan ik het via een intern IP Proxmox (webinterface) benaderen. De hypervisor kan geen pfSense gebruiken maar heeft dan z'n eigen firewall (bijv. de built-in firewall van Proxmox op basis van iptables) en gebruikt fail2ban. Setup in de basis op basis van: https://dominicpratt.de/h...oxmox-pfsense-as-gateway/

3) Andere optie?

Optie (1) is in mijn geval lastig, omdat KVMs in het data-centrum aangevraagd moeten worden en dus niet instant zijn. Er zijn alternatieven met vKVM reboots, maar die heb ik nog niet onderzocht en vergen dus altijd minimaal een reboot. Optie (2) lijkt op zich redelijk genoeg, maar wellicht zie ik nog een optie (3) over het hoofd die een betere oplossing is.

Wat zouden jullie doen?

[ Voor 3% gewijzigd door mdbraber op 07-01-2020 10:13 ]


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
mdbraber schreef op dinsdag 7 januari 2020 @ 10:03:
Sinds kort heb ik naast Proxmox voor mijn homelab ook Proxmox op een (remote) dedicated server. De vraag is nu wat de beste security practice is om de hypervisor (Proxmox) te beveiligen en wel toegang te geven tot de individuele VMs. Ik gebruik pfSense (VM) als router/firewall en voor o.a. VPN. Op de Proxmox webinterface is 2FA enabled. De vraag is: op welke wijze is de hypervisor het beste te beveiligen?

Ik zie verschillende mogelijkheden:

1) Hypervisor heeft geen enkel publiek IP en is alleen te benaderen via KVM. Netwerk van de hypervisor als passthrough naar de pfSense VM. Bij onbereikbaarheid van pfSense KVM benodigd. Voorbeeld configuratie: https://github.com/pekare/hetzner-proxmox-pfsense

2) Hypervisor heeft een publiek IP en is alleen toegankelijk met SSH. Dan i.c.m. port-forwarding kan ik het via een intern IP Proxmox (webinterface) benaderen. De hypervisor kan geen pfSense gebruiken maar heeft dan z'n eigen firewall (bijv. de built-in firewall van Proxmox op basis van iptables) en gebruikt fail2ban. Setup in de basis op basis van: https://dominicpratt.de/h...oxmox-pfsense-as-gateway/

3) Andere optie?

Optie (1) is in mijn geval lastig, omdat KVMs in het data-centrum aangevraagd moeten worden en dus niet instant zijn. Er zijn alternatieven met vKVM reboots, maar die heb ik nog niet onderzocht en vergen dus altijd minimaal een reboot. Optie (2) lijkt op zich redelijk genoeg, maar wellicht zie ik nog een optie (3) over het hoofd die een betere oplossing is.

Wat zouden jullie doen?
Mijn remote Proxmox heeft een pfsense VM instantie en is bereikbaar via de VPN, als fallback heb ik een debian LXC die automatisch start met de host en een publiek IP heeft hierop is de firewall actief en laat enkel SSH door. SSH is geconfigureerd met fail2ban en is uiteraard enkel keybased.

Zo blijft de host toch bereikbaar indien er problemen zijn met de pfsense VM.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • mdbraber
  • Registratie: Juli 2010
  • Niet online
A1AD schreef op dinsdag 7 januari 2020 @ 10:44:
[...]


Mijn remote Proxmox heeft een pfsense KVM instantie en is bereikbaar via de VPN, als fallback heb ik een debian LXC die automatisch start met de host en een publiek IP heeft hierop is de firewall actief en laat enkel SSH door. SSH is geconfigureerd met fail2ban en is uiteraard enkel keybased.

Zo blijft de host toch bereikbaar indien er problemen zijn met de pfsense VM.
Bedoel je een pfSense VM of iets anders? Wel een slimme fallback die net ietsje meer security biedt. Je kan wsl. nog gewoon 'verder' SSH-en vanaf de LXC naar de rest van je interne netwerk inclusief de hypervisor? Wel handig dat dan de poorten van je hypervisor niet hoeft te gaan firewallen.

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
mdbraber schreef op dinsdag 7 januari 2020 @ 10:58:
[...]


Bedoel je een pfSense VM of iets anders? Wel een slimme fallback die net ietsje meer security biedt. Je kan wsl. nog gewoon 'verder' SSH-en vanaf de LXC naar de rest van je interne netwerk inclusief de hypervisor? Wel handig dat dan de poorten van je hypervisor niet hoeft te gaan firewallen.
Ja, pfSense VM.

Je kan dan inderdaad via je fallback LXC verder hoppen naar je Proxmox host.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • mdbraber
  • Registratie: Juli 2010
  • Niet online
A1AD schreef op dinsdag 7 januari 2020 @ 10:44:
[...]
Mijn remote Proxmox heeft een pfsense VM instantie en is bereikbaar via de VPN, als fallback heb ik een debian LXC die automatisch start met de host en een publiek IP heeft hierop is de firewall actief en laat enkel SSH door. SSH is geconfigureerd met fail2ban en is uiteraard enkel keybased.

Zo blijft de host toch bereikbaar indien er problemen zijn met de pfsense VM.
Bedoel je met "de firewall" de Proxmox firewall trouwens? Heb je daar toevallig de rules van hoe je die hebt ingesteld?

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
mdbraber schreef op dinsdag 7 januari 2020 @ 11:07:
[...]


Bedoel je met "de firewall" de Proxmox firewall trouwens? Heb je daar toevallig de rules van hoe je die hebt ingesteld?
De LXC is firewall enabled op de host. De regels zijn super eenvoudig hoor. (In, accept, tcp en dan je SSH port)

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • Matthijs_nl
  • Registratie: November 2019
  • Laatst online: 08-09-2020
Heeft iemand Proxmox (met ZFS) geinstalleed op een H200 welke in IT mode geflashed is inclusief de BIOS ? Ik krijg het systeem niet geboot na een succesvolle installatie.

Zodra het systeem van de harddisk wil booten, welke wel zichtbaar is in de server (DELL) BIOS dan blijft het scherm hangen en gebeurt er niets meer.

Ik heb redelijk veel mensen gezien welke dit probleem hebben maar kan nergens een oplossing vinden dan al niet dat de BIOS op de kaar geflashed moet zijn, welke dat is.


Booten lijkt leek de eerste keer lang te duren, ik onderzoek dit verder.

[ Voor 7% gewijzigd door Matthijs_nl op 07-01-2020 15:47 ]


Acties:
  • 0 Henk 'm!

  • Neophyte808
  • Registratie: Februari 2008
  • Laatst online: 03-09 11:46

Neophyte808

Gadget inspector

Hallo iedereen, ik heb nog een oude PC staan met de volgende specs:

Core2Quad Q6600
6 GB RAM
DFI Lanparty DK P45 (1 Gbit NIC)
180 GB SSD
2x2TB HDD (HGST server schijven, verzekerd voor 2 miljoen draaiuren)
Geforce GT610

Mijn provider is Ziggo en mijn snelheden zijn 250/25 Mbit/s

Het lijkt me leuk om hier een Proxmox server op te hosten, heb nog geen ervaring met virtualiseren, maar ik zat te denken aan de volgende opdeling:

1 core + 1GB RAM + 30 GB voor Proxmox zelf (OS + swap)
1 core + 2GB RAM + 60 GB voor een Source server voor Garry's mod
1 core + 2GB RAM + 60 GB voor een kleinschalige Minecraft (vanilla) server (zeg, max 5 man)
1 core + 1GB RAM + 30 GB voor Nextcloud

Waarbij alles op de SSD komt te staan en de bulk opslag van Nextcloud uiteraard op de HDDs.

Ik vraag me een aantal dingen af:
- Kan ik dit het beste aan kan pakken met VMs of docker containers, en is het handig om zo'n strikte opdeling als de bovenstaande aan te houden of kun je het systeem beter zelf dynamisch resources laten toewijzen?
- Is dit haalbaar met de beperte hoeveelheid RAM?
- Is het realistisch om dit allemaal op één SSD te zetten met oog op het aantal writes?
- Is dit überhaubt een verstandig idee, of kan ik bijvoorbeeld de Nextcloud functionaliteit beter onderbrengen op een andere fysieke machine in de vorm van bijvoorbeeld een NAS?

Het lijkt me leuk als ik dit op mijn bestaande systeem kan draaien, maar ik overweeg een AM3+ systeem met een octocore en wat meer RAM op de kop te tikken als dit niet lukt.

Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Op zich kan het, maar er zijn wel een paar opmerkingen over de hardware:
  • Zonder VT-d zal het toch een stuk langzamer zijn dan met.
  • RAM is net aan genoeg.
  • Één SSD kan technisch, maar is niet aan te raden. Proxmox vreet SSDs zonder trim zo op. Sinds kort is het mogelijk om trim te gebruiken en ik geloof dat het sinds 6.1 ook in Proxmox ondersteund wordt. Ik zou de 2 HDDs in mirrored ZFS doen. De writes zijn dan wel traag maar de reads zijn als bij RAID0.
  • Over het algemeen wordt het aangeraden om docker in een VM te draaien bij proxmox, maar dat is vooral vanuit de separation of concerns gedachte. LXC containers zijn een enorme bult hoofdpijn, dus die zou ik afraden.
Als je iets nieuws draait, dan zal dat bijna zeker weten beter zijn. Overigens zou ik dan eerder voor een goedkoop AM4 systeem gaan omdat dat dan meer toekomstperspectief geeft. je kan goedkoop beginnen met een 2e hands Zen setje.

[ Voor 3% gewijzigd door ocf81 op 07-01-2020 23:19 . Reden: Verkeerd begrip VT-d ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
VT-d is helemaal niet nodig? Dit gebruik je enkel als je hardware wil doorgeven (passtrough) aan je VM. En al helemaal niet als je LXC containers gebruikt.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

A1AD schreef op dinsdag 7 januari 2020 @ 18:37:
VT-d is helemaal niet nodig? Dit gebruik je enkel als je hardware wil doorgeven (passtrough) aan je VM. En al helemaal niet als je LXC containers gebruikt.
Ik dacht altijd dat het ook voor de VM context makkelijker de toegang tot devices regelde middels DMA, maar nu ik het nog eens heb nagelezen moet ik je gelijk geven. Dank je voor de correctie.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • maomanna
  • Registratie: Februari 2006
  • Laatst online: 12-09 16:00
Kek schreef op woensdag 18 december 2019 @ 15:53:
[...]


welke browser/systeem is je vaste PC. en heb je ook andere browsers geprobeerd..?
Binnen mijn eigen netwerk deed hij het.
Op basis daarvan heb ik de machine naar een ander fysieke locatie gebracht en aangesloten. Maar nu blijkt dus dat proxmox host geen ip adres krijgt van de DHCP en de VM die er op draait wel.

Je zou namelijk stellen dat als de VM een ip kan krijgen, dat de host dat sowieso zou krijgen.

Hoe kan ik dat oplossen?

[ Voor 9% gewijzigd door maomanna op 08-01-2020 16:55 ]

https://pvoutput.org/intraday.jsp?id=102416&sid=90116


Acties:
  • 0 Henk 'm!

  • Kek
  • Registratie: Maart 2007
  • Laatst online: 02-09 16:28

Kek

3flix

maomanna schreef op woensdag 8 januari 2020 @ 16:55:
[...]


Binnen mijn eigen netwerk deed hij het.
Op basis daarvan heb ik de machine naar een ander fysieke locatie gebracht en aangesloten. Maar nu blijkt dus dat proxmox host geen ip adres krijgt van de DHCP en de VM die er op draait wel.

Je zou namelijk stellen dat als de VM een ip kan krijgen, dat de host dat sowieso zou krijgen.

Hoe kan ik dat oplossen?
Neen, proxmox heeft standaard DHCP uit staan. Dus zal geen IP krijgen door middel van DHCP.

Dit is op te lossen door een scherm/toetsenbord aan te sluiten en in te loggen op proxmox en het IP adres aan te passen. Ik raad af om dhcp aan te zetten op proxmox.

Acties:
  • 0 Henk 'm!

  • maomanna
  • Registratie: Februari 2006
  • Laatst online: 12-09 16:00
Proxmox krijgt geen ip van het modem. Wellicht dat dat duidelijker is :)

Hoewel kan ik wel bekijken welk ip de proxmox machine heeft gekregen. De ip's in de dhcp tabel maken het er niet duidelijker op :)

inmiddels opgelost door handmatig het ip te wijzigen

[ Voor 11% gewijzigd door maomanna op 08-01-2020 17:24 ]

https://pvoutput.org/intraday.jsp?id=102416&sid=90116


Acties:
  • 0 Henk 'm!

  • Neophyte808
  • Registratie: Februari 2008
  • Laatst online: 03-09 11:46

Neophyte808

Gadget inspector

ocf81 schreef op dinsdag 7 januari 2020 @ 15:45:
Als je iets nieuws draait, dan zal dat bijna zeker weten beter zijn. Overigens zou ik dan eerder voor een goedkoop AM4 systeem gaan omdat dat dan meer toekomstperspectief geeft. je kan goedkoop beginnen met een 2e hands Zen setje.
Heb ik inderdaad eerst naar gekeken. Helaas zijn 2e hands Zen setjes vrijwel net zo duur als nieuwe Zen setjes. Je bespaart misschien 2 tientjes op een 2e hands 1600 of 2600 en voor die prijs heb je een AM3+ hexa/octocore + moederbord + RAM.

De extra rekenkracht vind ik niet zo interessant, maar TDP is eventueel wel een reden om over te stappen op AM4, omdat dat zowel bij die Core2Quad als bij de meeste AM3+ processoren vrij hoog ligt.

Overigens ben je de eerste in dit topic die LXC containers afraadt lijkt het, iedereen is er lyrisch over als ik zo het gemiddelde comment lees. Wat veroorzaakt volgens jou de hoofdpijn?

Bedankt voor je mirrored ZFS tip en de rest van je suggesties trouwens!

Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Neophyte808 schreef op donderdag 9 januari 2020 @ 10:02:
[...]


Heb ik inderdaad eerst naar gekeken. Helaas zijn 2e hands Zen setjes vrijwel net zo duur als nieuwe Zen setjes. Je bespaart misschien 2 tientjes op een 2e hands 1600 of 2600 en voor die prijs heb je een AM3+ hexa/octocore + moederbord + RAM.

De extra rekenkracht vind ik niet zo interessant, maar TDP is eventueel wel een reden om over te stappen op AM4, omdat dat zowel bij die Core2Quad als bij de meeste AM3+ processoren vrij hoog ligt.
Ja, de running cost zal de TCO van een AM3+ systeem wel een stuk hoger maken. Maar er zit bij de AM3+ systemen ook een plafond aan het aantal cores, terwijl je met een goed B450 bordje ook 16 cores kan draaien als je dat ooit zal willen. Maar als je alleen naar wat je nu wil doen kijkt is je huidige systeem ook wel oké. Wellicht een beetje RAM erbij.
Neophyte808 schreef op donderdag 9 januari 2020 @ 10:02:
Overigens ben je de eerste in dit topic die LXC containers afraadt lijkt het, iedereen is er lyrisch over als ik zo het gemiddelde comment lees. Wat veroorzaakt volgens jou de hoofdpijn?

Bedankt voor je mirrored ZFS tip en de rest van je suggesties trouwens!
LXC zou in princiepe unpriviliged moeten kunnen draaien. Echter, bijna alle images van Turnkey moeten toch priviliged draaien en er zijn daarbuiten niet heel veel images beschikbaar. Dus als het gaat om priviliged vs unpriviliged dan is er geen groot verschil met Docker, welke standaard onder root draait. Als je dan gaat kijken naar wat er beschikbaar is aan images en hoe makkelijk het is om iets op te zetten, dan is Docker gewoon 10x beter. Qua beheer is het ook gewoon bijna een VM, dus op dat gebied is er ook geen groot voordeel.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • sailor_dg
  • Registratie: Januari 2019
  • Laatst online: 08:39
ocf81 schreef op dinsdag 7 januari 2020 @ 15:45:
  • Één SSD kan technisch, maar is niet aan te raden. Proxmox vreet SSDs zonder trim zo op. Sinds kort is het mogelijk om trim te gebruiken en ik geloof dat het sinds 6.1 ook in Proxmox ondersteund wordt. Ik zou de 2 HDDs in mirrored ZFS doen. De writes zijn dan wel traag maar de reads zijn als bij RAID0.
Zit hier ook nog te dubben voor mijn nieuwe installatie. Wil zo min mogelijk HDD/SDDs gebruiken om het energieverbruik zo laag mogelijk te houden. Het plan is om 3 VMs te draaien: PFSense, Windows (voor RDS sessies vanaf zakelijke laptops) en een Linux docker omgeving (Plex, Nextcloud, HA, etc...)

Zat zelf te denken om alle VMs vanaf SSD te draaien en een 5TB HDD mass storage beschikbaar te maken via Passthrough aan nextcloud zodat deze het verder op het netwerk kan aanbieden. Backups van de data gaan naar een Synology en vind het niet erg de boel opnieuw te installeren mocht er een schijf kapot gaan.

Ben echter nog steeds huiverig om SSD in te zetten gezien alle verhalen dat deze binnen no-time kapot gaan. Kan ik wellicht beter een kleine HDD bijzetten om Proxmox te draaien en de VM images alleen op de SSD zetten? Hebben jullie tips of best practices?

All-electric | Deye 12KSG04LP3 met 2x Yixiang V2, 32x MB31 314 Ah | Panasonic Aquarea J 5kW | Tesla MY, SmartEVSE | 5.2 kWp PV | Proxmox met HomeAssistant, Docker host, PfSense, TrueNas & Mailcow


Acties:
  • +1 Henk 'm!

  • dcm360
  • Registratie: December 2006
  • Niet online

dcm360

Moderator Discord

HD7767 powered

Aangezien ik ook wel benieuwd was, hier een overzichtje van mijn SSD's waar Proxmox op staat:

pricewatch: Intel 760p 256GB 3% 2.9TBW in 622 uur (zo goed als idle)
pricewatch: Intel DC P4510 1TB 0% 11.5TBW in 2,920 uur (licht tot matig gebruik)
pricewatch: Intel DC P4510 1TB 0% 21.8TBW in 1,381 uur (intensief gebruik)
pricewatch: Intel Optane 900P 2,5" (met U.2 kabelkit) 280GB 0% 34.2TBW in 12,726 uur (licht gebruik)
pricewatch: Micron 5100 MAX 240GB laat geen info los via SMART interessant genoeg (draait wel nog Proxmox 5.4 op).

Van dit setje verwacht ik dus dat de 760P als eerste er doorheen zal zijn in 6 tot 7 jaar, ondanks dat er niets noemenswaardigs op dat systeem draait (het is mn router). Het is ook ruim de goedkoopste uit mijn lijstje, waarbij ik nog meegenomen heb dat de opgegeven TBW nog wel aardig was (veel consumenten-SSD's scoren lager). De winnaar uit mijn rijtje lijkt me overduidelijk de P4510, welke ik ook van harte kan aanraden als deze binnen budget valt (en je 'm kan aansluiten).

Acties:
  • 0 Henk 'm!

  • A1AD
  • Registratie: Juli 2013
  • Laatst online: 27-07 23:41
ocf81 schreef op donderdag 9 januari 2020 @ 10:17:
[...]

Ja, de running cost zal de TCO van een AM3+ systeem wel een stuk hoger maken. Maar er zit bij de AM3+ systemen ook een plafond aan het aantal cores, terwijl je met een goed B450 bordje ook 16 cores kan draaien als je dat ooit zal willen. Maar als je alleen naar wat je nu wil doen kijkt is je huidige systeem ook wel oké. Wellicht een beetje RAM erbij.


[...]

LXC zou in princiepe unpriviliged moeten kunnen draaien. Echter, bijna alle images van Turnkey moeten toch priviliged draaien en er zijn daarbuiten niet heel veel images beschikbaar. Dus als het gaat om priviliged vs unpriviliged dan is er geen groot verschil met Docker, welke standaard onder root draait. Als je dan gaat kijken naar wat er beschikbaar is aan images en hoe makkelijk het is om iets op te zetten, dan is Docker gewoon 10x beter. Qua beheer is het ook gewoon bijna een VM, dus op dat gebied is er ook geen groot voordeel.
Appelen en peren. LXC != Docker.

- Deze advertentie is geblokkeerd door Pi-Hole -


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

A1AD schreef op donderdag 9 januari 2020 @ 17:31:
[...]
Appelen en peren. LXC != Docker.
Mwah, Het zijn beide containerhosts. Als je een scheiding moet maken, dan is het voor mij op het punt waar je wel of geen hypervisor gaat gebruiken. LXC valt daarmee voor mij bij de containers en ik bekijk het ook vanuit dat oogpunt. En als containerhost is LXC gewoon ruk IMHO. LXC wordt op proxmox wel als dé containertechniek gepresenteerd. Geef mij maar Docker.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • +2 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:05
ocf81 schreef op donderdag 9 januari 2020 @ 18:45:
[...]

Mwah, Het zijn beide containerhosts. Als je een scheiding moet maken, dan is het voor mij op het punt waar je wel of geen hypervisor gaat gebruiken. LXC valt daarmee voor mij bij de containers en ik bekijk het ook vanuit dat oogpunt. En als containerhost is LXC gewoon ruk IMHO. LXC wordt op proxmox wel als dé containertechniek gepresenteerd. Geef mij maar Docker.
Toch is het appels en peren, en zit IMO LXC korter tegen VM dan dat het bij Docker zit. LXC is immers een volledig Linux OS, alleen zonder kernel, die in zijn eigen container / runtime zit.
Daar waar Docker is bedoelt voor single process / purpose.
Binnen LXC is het normaal om meerdere processen te draaien, een logging daemon (/syslog bv), SSH, etc. Binnen Docker is dat zwaar not done.

Dus ondanks dat zowel Docker als LXC gebruik maken van dezelfde technieken aangeboden door de Linux kernel is de filosofie compleet anders.

En wat ikzelf nogal irritant vind bij Docker + server is dat je niet (eenvoudig) meerdere interfaces / VLANs kunt gebruiken. Binnen mijn thuisnetwerk heb ik meerdere VLANs waarbij eentje voor IoT. Alle daaraan gerelateerde Docker containers wil ik dus in dat VLAN hebben. Maar daarvoor ben ik door flink wat hoepels moeten springen om dat überhaupt voor elkaar te krijgen. En gevolg daarvan is ook dat elke Docker container in dat netwerk nu direct beschikbaar is op een eigen uniek IP adres. Dus bv Home Assistant op 192.168.1.2, NodeRED op .3, Postgresql DB op .4, .... Niet echt handig dus. Terwijl je binnen LXC gewoon dat netwerk toekent aan de LXC container en alle processen in die container op hetzelfde IP zitten.

Acties:
  • 0 Henk 'm!

  • Freeaqingme
  • Registratie: April 2006
  • Laatst online: 18:54
Ik zou niet m'n best gaan doen om Docker en LXC te vergelijken, omdat het voor heel verschillende toepassingen is. De eerste is bedacht als manier om applicaties makkelijk te kunnen shippen (en tot op zekere hoogte te beveiligen). Daarmee zou je Docker eerder kunnen vergelijken met ideeen als Flatpak of Snaps.

LXC daarentegen - in ieder geval op de manier zoals Proxmox het aanbiedt - biedt vooral lightweight VM's inclusief eigen init systemen etc. Waarbij het (nagenoeg) een heel eigen VM is, maar dan binnen de kernel van de hypervisor draait (en dus zonder eigen kernel).

No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Misschien helpt het daarbij ook niet dat ik gewoon dagelijks Docker gebruik, maar voor mij zit LXC gewoon te dicht bij een VM zit qua opzet. Omdat het zo dichtbij een VM zit is het gewoon eigenlijk van beide niks. Docker is voor mij gewoon de manier om snel serversoftware uit te rollen op een server en daarbij ook nog een keer separation of concerns en datascheiding toe te passen. LXC is geen volledige VM met alle mogelijkheden die daarbij komen en ook niet de veelzijdige en lichtgewicht aanpak van echte containers. Twee keer niks dus. Als je dedicated een swarm gaat neerzetten dan wordt Docker een ander beest, maar daar houdt ik mij persoonlijk niet mee bezig in relatie met proxmox. (Tot op enige hoogte wel op mijn werk)

[ Voor 14% gewijzigd door ocf81 op 09-01-2020 19:16 ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • rachez
  • Registratie: Januari 2003
  • Laatst online: 17:40
RobertMe schreef op donderdag 9 januari 2020 @ 18:59:
[...]

Maar daarvoor ben ik door flink wat hoepels moeten springen om dat überhaupt voor elkaar te krijgen. En gevolg daarvan is ook dat elke Docker container in dat netwerk nu direct beschikbaar is op een eigen uniek IP adres. Dus bv Home Assistant op 192.168.1.2, NodeRED op .3, Postgresql DB op .4, .... Niet echt handig dus. Terwijl je binnen LXC gewoon dat netwerk toekent aan de LXC container en alle processen in die container op hetzelfde IP zitten.
Hoe geef je elke container een eigen ip adres mee die extern binnen je lan te benaderen is (dus niet binnen het docker netwerk)?

Ik gebruik docker-compose thuis en heb daar traefik voor draaien waardoor ik het abstraheer, maar als ik dat niet zou doen heb ik een ip adres (de docker-compose host vm) waarop alle containers draaien op verschillende poorten.

Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 23:05
rachez schreef op donderdag 9 januari 2020 @ 19:28:
[...]


Hoe geef je elke container een eigen ip adres mee die extern binnen je lan te benaderen is (dus niet binnen het docker netwerk)?

Ik gebruik docker-compose thuis en heb daar traefik voor draaien waardoor ik het abstraheer, maar als ik dat niet zou doen heb ik een ip adres (de docker-compose host vm) waarop alle containers draaien op verschillende poorten.
offtopic:
Pfoe, goede vraag en zou ik ook weer in moeten duiken. Maar volgens mij was de techniek/basis mac-vlan. Je moet dan wat dingetjes met Linux zelf doen m.b.t. mac vlan om een extra netwerkinterface aan te maken maar ook zelf een docker netwerk aanmaken met de macvlan driver (i.p.v. de default bridge driver).

Acties:
  • 0 Henk 'm!

  • sailor_dg
  • Registratie: Januari 2019
  • Laatst online: 08:39
dcm360 schreef op donderdag 9 januari 2020 @ 16:07:
Aangezien ik ook wel benieuwd was, hier een overzichtje van mijn SSD's waar Proxmox op staat:

pricewatch: Intel 760p 256GB 3% 2.9TBW in 622 uur (zo goed als idle)
pricewatch: Intel DC P4510 1TB 0% 11.5TBW in 2,920 uur (licht tot matig gebruik)
pricewatch: Intel DC P4510 1TB 0% 21.8TBW in 1,381 uur (intensief gebruik)
pricewatch: Intel Optane 900P 2,5" (met U.2 kabelkit) 280GB 0% 34.2TBW in 12,726 uur (licht gebruik)
pricewatch: Micron 5100 MAX 240GB laat geen info los via SMART interessant genoeg (draait wel nog Proxmox 5.4 op).

Van dit setje verwacht ik dus dat de 760P als eerste er doorheen zal zijn in 6 tot 7 jaar, ondanks dat er niets noemenswaardigs op dat systeem draait (het is mn router). Het is ook ruim de goedkoopste uit mijn lijstje, waarbij ik nog meegenomen heb dat de opgegeven TBW nog wel aardig was (veel consumenten-SSD's scoren lager). De winnaar uit mijn rijtje lijkt me overduidelijk de P4510, welke ik ook van harte kan aanraden als deze binnen budget valt (en je 'm kan aansluiten).
Interessante data en het verval valt me mee. De P4510 is inderdaad wat prijzig voor mijn systeem, dus ga op zoek naar een goede middenmoter. Bedankt

All-electric | Deye 12KSG04LP3 met 2x Yixiang V2, 32x MB31 314 Ah | Panasonic Aquarea J 5kW | Tesla MY, SmartEVSE | 5.2 kWp PV | Proxmox met HomeAssistant, Docker host, PfSense, TrueNas & Mailcow


Acties:
  • 0 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
Ik had begrepen dat Proxmox status-mails stuurt als er bepaalde zaken zijn die meldenswaardig zijn (kun je vast van alles aan instellen, heb ik nog niet onderzocht), maar bij mij worden de mails niet bezorgd.

Op zich niet heel vreemd, want je kunt je niet zomaar als mail-server gaan gedragen.
Het leek mij een logische aanpak om postfix zo in te stellen dat hij alle mail relay-ed naar een externe server.
Ik wil daar de smtp-server van xs4all voor gebruiken en heb een poging gedaan dat zo in te stellen dat hij middels starttls en mijn xs4all-credentials de mail daar aflevert.

Helaas nog geen succes.

/etc/postfix/main.cf
code:
1
2
3
4
5
6
7
relayhost = [smtp.xs4all.nl]:587
smtp_sasl_auth_enable = yes
smtp_sasl_password_maps = hash:/etc/postfix/sasl_passwd
smtp_sasl_security_options = noanonymous, noplaintext
smtp_sasl_tls_security_options = 
smtp_tls_CApath = /etc/ssl/certs
smtp_use_tls = yes


in /etc/postfix/sasl_passwd heb ik staan:
code:
1
[smtp.xs4all.nl] username:wachtwoord

en daarna heb ik postmap /etc/postfix/sasl_passwd gedraaid.

Volgens mij zou dat het moeten zijn, echter melding smtp-server van xs4all:
code:
1
relay=smtp.xs4all.nl[194.109.6.51]:587, delay=2.2, delays=0.01/0/1.1/1.1, dsn=5.1.0, status=bounced (host smtp.xs4all.nl[194.109.6.51] said: 550 5.1.0 Please authenticate using your username and password [181] (in reply to MAIL FROM command))


Wat zie ik over het hoofd (en hoe kan ik dit goed troubleshooten, wireshark helpt niet echt op TLS-verbindingen...)?

Acties:
  • 0 Henk 'm!

  • XiMMiX
  • Registratie: Mei 2012
  • Laatst online: 12-09 15:37
ocaj schreef op donderdag 9 januari 2020 @ 22:36:
in /etc/postfix/sasl_passwd heb ik staan:
code:
1
[smtp.xs4all.nl] username:wachtwoord

en daarna heb ik postmap /etc/postfix/sasl_passwd gedraaid.
[/code]

Wat zie ik over het hoofd (en hoe kan ik dit goed troubleshooten, wireshark helpt niet echt op TLS-verbindingen...)?
Als ik het me goed herinner moet je in sasl_passwd ook het poortnummer opgeven. Dus sasl_passwd moet zijn:
code:
1
[smtp.xs4all.nl]:587 username:wachtwoord

Acties:
  • 0 Henk 'm!

  • ocaj
  • Registratie: Juli 2011
  • Niet online
@XiMMiX Ik kwam inderdaad ook op diverse sites tegen dat je er een poortnummer achter moet zetten, echter dan krijg ik:
code:
1
2
postfix/smtp[18226]: warning: SASL authentication failure: No worthy mechs found
Jan 10 06:43:23 pve postfix/smtp[18226]: 766AB1301E: to=<xxxxxx>, relay=smtp.xs4all.nl[2001:888:0:15::25]:587, delay=2.2, delays=0.01/0.02/2.2/0, dsn=4.7.0, status=deferred (SASL authentication failed; cannot authenticate to server smtp.xs4all.nl[2001:888:0:15::25]: no mechanism available)


Aangezien postfix het met het poortnummer erbij het niet eens gaat proberen, en ik zonder het poortnummer een antwoord van de smtp-server krijg leek mij dat het toch zonder moet, maar misschien zet dat me op een dwaalspoor?

Maar als ik lees op http://www.postfix.org/SASL_README.html , dan zie ik daar trouwens inderdaad:
With the smtp_sasl_password_maps parameter, we configure the Postfix SMTP client to send username and password information to the mail gateway server. As discussed in the next section, the Postfix SMTP client supports multiple ISP accounts. For this reason the username and password are stored in a table that contains one username/password combination for each mail gateway server.

/etc/postfix/sasl_passwd:
# destination credentials
[mail.isp.example] username:password
# Alternative form:
# [mail.isp.example]:submission username:password
Important
Keep the SASL client password file in /etc/postfix, and make the file read+write only for root to protect the username/password combinations against other users. The Postfix SMTP client will still be able to read the SASL client passwords. It opens the file as user root before it drops privileges, and before entering an optional chroot jail.

Use the postmap command whenever you change the /etc/postfix/sasl_passwd file.

If you specify the "[" and "]" in the relayhost destination, then you must use the same form in the smtp_sasl_password_maps file.

If you specify a non-default TCP Port (such as ":submission" or ":587") in the relayhost destination, then you must use the same form in the smtp_sasl_password_maps file.
De laatste zin van dat stukje lijkt te zeggen dat het inderdaad met poortnummer moet.

Maar dan moet ik dus zien uit te vinden waarom hij dan geen "worthy mechanisms" meer kan vinden....

Acties:
  • 0 Henk 'm!

  • XiMMiX
  • Registratie: Mei 2012
  • Laatst online: 12-09 15:37
@ocaj Uit je eerste foutmelding haal ik dat postfix geen poging tot authenticatie doet, uit deze tweede dat postfix het in ieder geval probeert maar dat het mislukt. Dus op zich denk ik dat je wel vooruitgang boekt.

Als ik zonder TLS connectie maak met smtp.xs4all.nl krijg ik:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
~$ telnet smtp.xs4all.nl 25
Trying 194.109.6.51...
Connected to smtp.xs4all.nl.
Escape character is '^]'.
220 smtp-cloud9.xs4all.net smtp-cloud9.xs4all.net ESMTP server ready
EHLO xs4all.nl
250-smtp-cloud9.xs4all.net hello [91.213.195.40], pleased to meet you
250-HELP
250-AUTH LOGIN PLAIN
250-SIZE 157286400
250-ENHANCEDSTATUSCODES
250-8BITMIME
250-STARTTLS
250 OK

Xs4all ondersteunt dus LOGIN en PLAIN. In jouw postfix config staat
code:
1
smtp_sasl_security_options = noanonymous, noplaintext

Je sluit dus plaintext uit, maar LOGIN en PLAIN zijn beide plaintext mechanismes dacht ik. Komt ook overeen met de foutmelding dat er geen "worthy mechanisms" zijn.
Pagina: 1 ... 8 ... 61 Laatste