Denk om uw spatiegebruik. Dit scheelt Tweakers.net kostbare databaseruimte! | Groninger en geïnteresseerd in Domotica? Kom naar DomoticaGrunn
Wat is hierbij het nut van proxmox eigenlijk?MsG schreef op woensdag 23 oktober 2019 @ 20:44:
Wat is eigenlijk de handigste manier om Docker containers te kunnen draaien? Ik heb een Intel NUC met 128GB SSD en 8GB Ram. Ik heb binnen Proxmox nu 1 virtual machine die HomeAssistant/HassOS draait. Het liefst heb ik niet aldoor voor elke scheet een VM, waarbij je per machine weer de updates en dergelijke bij mag gaan houden. Ik lees wel mensen die Docker rechtstreeks op de Proxmox-debian draaien, maar moet je dat wel willen? Ik wil het liefst zo weinig mogelijk organisatorische en schijfruimtetechnische overhead. En eigenlijk is 99% van de systeempjes die ik wil draaien Linux-gebaseerd. (Ik wil graag OctoPrint draaien bijvoorbeeld, en eventueel PiHole).
Gewoon Ubuntu of Debian en docker erop en je bent ook klaar, toch?
Docker images hoef je niet te backuppen, dus je hoeft dan enkel nog de docker data te backuppen naar een ander systeem of de cloud en je kunt altijd een restore doen als dat nodig is.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Daarnaast vind ik het wel fijn dat je bij Proxmox dingen nog wat meer kan scheiden. Een aparte VM krijgt met Proxmox gewoon een ander IP, als ware het een fysiek los apparaat in je netwerk. Bij Docker is dat allemaal weer moeilijkmoeilijk, als je dat wil.
Denk om uw spatiegebruik. Dit scheelt Tweakers.net kostbare databaseruimte! | Groninger en geïnteresseerd in Domotica? Kom naar DomoticaGrunn
Omdat ik bepaalde LXC containers via een eigen netwerkpoort op het netwerk wil laten draaien heb ik een quad poort PCi-e kaart op het moederbord aangesloten.
Onder "Network" van mijn node zie ik het volgende staan:
Name | Type | Active | Autostart | VLAN aware | Ports/Slaves | Bond mode | CIDR | Gateway |
eno1 | Network Device | Yes | No | No | ||||
enp3s0f0 | Network Device | No | No | No | ||||
enp3s0f1 | Network Device | No | No | No | ||||
enp4s0f0 | Network Device | No | No | No | ||||
enp4s0f1 | Network Device | No | No | No | ||||
enp5s0f0 | Network Device | No | No | No | ||||
enp5s0f1 | Network Device | No | No | No | ||||
vmbr0 | Linux Bridge | Yes | Yes | No | eno1 | 192.168.1.254/24 | 192.168.1.1 |
Een LXC container is via de Linux bridge ook verbonden met mijn netwerk en heeft via DHCP een IP-adres gekregen.
Ik wil graag dat deze container direct op een netwerkpoort is aangesloten. Hoe krijg ik dat voor elkaar?
Ik heb geprobeerd om een nieuwe bridge aan te maken, bij "Ports/Slaves" dan "enp3s0f0" in te vullen en dan bij de LXC deze bridge te gebruiken met DHCP maar dat lijkt niet te werken want pingen levert "ping: tweakers.net: Temporary failure in name resolution" op
Volvo XC40 SMSR Plus (MY24)
Heb je de hypervisor wel herstart nadat je de nieuwe vmbr hebt aangemaakt?exepti0n schreef op dinsdag 29 oktober 2019 @ 20:13:
Wellicht is hier iemand die mij de juiste richting in kan sturen over mijn netwerkconfiguratie.
Omdat ik bepaalde LXC containers via een eigen netwerkpoort op het netwerk wil laten draaien heb ik een quad poort PCi-e kaart op het moederbord aangesloten.
Onder "Network" van mijn node zie ik het volgende staan:
Name Type Active Autostart VLAN aware Ports/Slaves Bond mode CIDR Gateway eno1 Network Device Yes No No enp3s0f0 Network Device No No No enp3s0f1 Network Device No No No enp4s0f0 Network Device No No No enp4s0f1 Network Device No No No enp5s0f0 Network Device No No No enp5s0f1 Network Device No No No vmbr0 Linux Bridge Yes Yes No eno1 192.168.1.254/24 192.168.1.1
Een LXC container is via de Linux bridge ook verbonden met mijn netwerk en heeft via DHCP een IP-adres gekregen.
Ik wil graag dat deze container direct op een netwerkpoort is aangesloten. Hoe krijg ik dat voor elkaar?
Ik heb geprobeerd om een nieuwe bridge aan te maken, bij "Ports/Slaves" dan "enp3s0f0" in te vullen en dan bij de LXC deze bridge te gebruiken met DHCP maar dat lijkt niet te werken want pingen levert "ping: tweakers.net: Temporary failure in name resolution" op
Ik zie uberhaupt die vmbr1 er niet bij staan.
Ná Scaoll. - Don’t Panic.
Als het puur om bandbreedte gaat kun je ook de 4 netwerkpoorten in een bonded interface hangen (LACP oid).
[ Voor 23% gewijzigd door zx9r_mario op 30-10-2019 09:11 ]
Die rij zag er zo uit:
Name | Type | Active | Autostart | VLAN aware | Ports/Slaves | Bond mode | CIDR | Gateway |
vmbr1 | Linux Bridge | Yes | Yes | No | enp3s0f0 |
Deze bridge was vervolgens aan een LXC gekoppeld, maar ik krijg geen IP toegewezen.
Mijn vermoeden is dat dat komt omdat het Network Device niet "Active" is, er zit echter wel gewoon een netwerkkabel in. Alleen weet ik niet hoe ik hem "Active" krijg.
[ Voor 4% gewijzigd door exepti0n op 30-10-2019 09:26 ]
Volvo XC40 SMSR Plus (MY24)
Is er wel een DHCP server actief in het LAN waar die NIC aan hangt?exepti0n schreef op woensdag 30 oktober 2019 @ 09:25:
@unezra Meerdere keren herstart zelfs. Het klopt dat je hem niet in het overzicht ziet, ik had hem ook al weer verwijderd (omdat het niet werkt)
Die rij zag er zo uit:
Name Type Active Autostart VLAN aware Ports/Slaves Bond mode CIDR Gateway vmbr1 Linux Bridge Yes Yes No enp3s0f0
Deze bridge was vervolgens aan een LXC gekoppeld, maar ik krijg geen IP toegewezen.
Mijn vermoeden is dat dat komt omdat het Network Device niet "Active" is, er zit echter wel gewoon een netwerkkabel in. Alleen weet ik niet hoe ik hem "Active" krijg.
Ná Scaoll. - Don’t Panic.
Ik ga er van uit dat, omdat ik de devices in Proxmox zie staan, de kaart verder wel goed werkt. Wat ik wel vreemd vindt is dat hij 7 devices weergeeft terwijl er maar 5 poorten zijn.
Zijn er wellicht commands die ik op de Proxmox host kan draaien om e.e.a. na te lopen?
Volvo XC40 SMSR Plus (MY24)
Sommige kaarten met meerdere poorten zien de teaming/bonding functie ook als een apparaat. (of meerdere)exepti0n schreef op woensdag 30 oktober 2019 @ 11:09:
@unezra Ja, hij zit op dezelfde switch als waar eno1 op ingeprikt is. Die heeft ook een IP-adres gekregen.
Ik ga er van uit dat, omdat ik de devices in Proxmox zie staan, de kaart verder wel goed werkt. Wat ik wel vreemd vindt is dat hij 7 devices weergeeft terwijl er maar 5 poorten zijn.
Zijn er wellicht commands die ik op de Proxmox host kan draaien om e.e.a. na te lopen?
Ook al gebruik je die functie niet. Mss is dat de verklaring?
Marstek 5.12kw v151, CT003 v117, Sagecom Xs212 1P,
Ben hier terecht gekomen na het opzoeken van informatie mbt Proxmox VE.
Ik heb ervaring met verschillende smaken desktop virtualisatiepaketten en een beetje met ESXi.
Nu heb voor het eerst v5.4-1 als test op een Optiplex 7010 USFF geïnstalleerd en denk hiermee wel verder te willen gaan. Het gaat me vooral om de onzekerheid mbt het integreren van een file server.
Momenteel heb ik alles op 1HD staan; ttz een paar virtuele machines waarvan 1 ook dienst doet als netwerkshare & een paar LXC's.
Mijn vraag aan jullie: ik heb een 120Gb SSD over en zou deze willen gebruiken om systeem, VM's en LXC's op te zetten en de HD als netwerkshare inzetten. (evt met 'File Server' van turnkeylinux)
Er zitten 3 SATA aansluitingen op het mobo maar de ruimte in de case is beperkt. Misschien dat ik daar wel wat aan kan doen om er 2 HDD's in te krijgen.
Ik heb wel een beetje kennis van *nix systemen, heb ooit nog een debian fileserver gedraaid zonder GUI en kom regelmatig wel in aanraking met een of andere variant.
Op welke manier zou ik dit systeem het best inrichten?
Alvast bedankt voor jullie input!
EDIT: had een tijdje geleden ook al deze vraag gesteld op het proxmox forum maar kreeg geen reaktie.
[ Voor 34% gewijzigd door RoePe op 02-11-2019 10:52 . Reden: added info ]
Ik was al langer op zoek naar een mogelijkheid om fileserver/NAS functionaliteit te virtualiseren, puur om geen extra toestel hoeven in te zetten en omdat het lijkt dat dit tegenwoordig goed werkt.
Door proxmox denk ik het juiste systeem te hebben gevonden.
Systeem, LXC's en VM's op de 120Gb SSD is waarschijnlijk een no-brainer, of toch niet?
Wat vinden jullie van de turnkeylinux server app?
Ik dacht om de HDD volledig als share in te zetten, backup doe ik naar een externe schijf.
De CPU is een i3-3240 en heb het maximum aan RAM, 16Gb er in zitten.
Tot nu toe heb ik alleen ervaring met EXT - denk dat het destijds 2 was - en NTFS filesystems en uiteraard ook FAT(32).
Ik heb wel weet van ZFS maar niet of dit nu 'het beste' is wat ik kan doen.
Wat zouden jullie doen en evt ook om welke reden die keuze?
Ik heb op het werk een pc ingericht met proxmox om zelf dynamischer te zijn met het verkrijgen van testomgevingen. De pc zelf hangt met een enkele utp kabel op het netwerk en heeft ip 10.113.148.42 gekregen.
Hierop heb ik een ubuntu machine gemaakt die ik naar template heb omgezet. Elke kloon die ik hiervan maak krijgt automatisch een 10.113.148.48 ip adres, vanuit een kloon kan ik dit nog wel begrijpen dat deze gecacht is met een oud ip adres, ik log via de console in en doe een dhclient -r / dhclient -v om een nieuw ip adres te krijgen. DHCP server draait op het netwerk zelf.
Maar het probleem is er ook zodra ik een reboot doe, dan heeft deze ook het *.48 ipadres en moet ik wederom inloggen om weer een nieuw ip adres te krijgen.
Ik kan dit nu oplossen door een startup script te maken die dit elke keer reset maar ik ga er vanuit dat dit komt door een fout instelling oid.
Hebben jullie hier ervaring mee?
Zo zou ik het doen:RoePe schreef op zondag 3 november 2019 @ 23:26:
Hoi dcm360
Ik was al langer op zoek naar een mogelijkheid om fileserver/NAS functionaliteit te virtualiseren, puur om geen extra toestel hoeven in te zetten en omdat het lijkt dat dit tegenwoordig goed werkt.
Door proxmox denk ik het juiste systeem te hebben gevonden.
Systeem, LXC's en VM's op de 120Gb SSD is waarschijnlijk een no-brainer, of toch niet?
Wat vinden jullie van de turnkeylinux server app?
Ik dacht om de HDD volledig als share in te zetten, backup doe ik naar een externe schijf.
De CPU is een i3-3240 en heb het maximum aan RAM, 16Gb er in zitten.
Tot nu toe heb ik alleen ervaring met EXT - denk dat het destijds 2 was - en NTFS filesystems en uiteraard ook FAT(32).
Ik heb wel weet van ZFS maar niet of dit nu 'het beste' is wat ik kan doen.
Wat zouden jullie doen en evt ook om welke reden die keuze?
- OS, VM's op SSD met ZFS als rpool
- van je HDD ook een zpool maken
- zfs backup van SSD > HDD instellen met send and receive, zo heb je een backup van je SSD
- enkele datasets maken op de HDD die je wil gebruiken als share
- LXC Debian 10 VM maken (sambaserver) en de host zfs datasets bindmounten naar je Debian LXC
- SAMBA installeren in LXC debian + SAMBA configgen
- done?
- Deze advertentie is geblokkeerd door Pi-Hole -
Mijn vermoeden is dat Proxmox extra netwerkapparaten heeft opgeslagen omdat ik waarschijnlijk bij de installatie de kaart in een ander slot had gedrukt, deze is later verplaatst.
Ik heb via de Shell van Proxmox het command
ip a
Deze heb ik in de netwerkconfig van Proxmox behouden en de rest er uit gehaald.
Vervolgens was het een kwestie van een poort aan een bridge koppelen en voila: verbinding.
Volvo XC40 SMSR Plus (MY24)
Uitproberen doe je best op een test machine3raser schreef op maandag 11 november 2019 @ 16:07:
Als ik extra Network Bridges aan maak, is het dan echt nodig om de Proxmox host te herstarten? Dit klinkt nogal omslachtig. Ik dacht even wat uit te proberen met een gescheiden netwerk voor bepaalde VM's maar zo wordt uitproberen wel een lastig klusje.
- Deze advertentie is geblokkeerd door Pi-Hole -
Dus ik kan het beste een VM aanmaken en daar Proxmox op installeren?
Maar zonder gekheid, het is dus echt nodig om te herstarten vanwege een netwerk wijziging?
Helpt je dit? https://forum.proxmox.com...ridge-without-reboot.54993raser schreef op dinsdag 12 november 2019 @ 10:01:
[...]
Dus ik kan het beste een VM aanmaken en daar Proxmox op installeren?![]()
Maar zonder gekheid, het is dus echt nodig om te herstarten vanwege een netwerk wijziging?
- Deze advertentie is geblokkeerd door Pi-Hole -
Bedankt A1AD, de installatie op de SSD zoals jij voorstelt is gelukt, heb even moeten uitzoeken wat een rpool is.A1AD schreef op dinsdag 5 november 2019 @ 13:04:
[...]Zo zou ik het doen:
- OS, VM's op SSD met ZFS als rpool
- van je HDD ook een zpool maken
- zfs backup van SSD > HDD instellen met send and receive, zo heb je een backup van je SSD
- enkele datasets maken op de HDD die je wil gebruiken als share
- LXC Debian 10 VM maken (sambaserver) en de host zfs datasets bindmounten naar je Debian LXC
- SAMBA installeren in LXC debian + SAMBA configgen
- done?
Heb er dus een RAID 0/ZFS volume van gemaakt met lz4 compressie.
Nu ben ik al een hele tijd aan het zoeken hoe ik van die HDD een zpool moet maken.
In de proxmox shell met fdisk HDD gewiped, partitie gemaakt maar krijg met "zpool create -f <naampool> /dev/sdb" de melding dat dat die disc in use is en een filesystem bevat.
Kan iemand van jullie me op de juiste weg helpen aub?
Wellicht is je partitie gekoppeld? Bekijk is met het commando "mount" als je daar een referentie tegenkomt van /dev/sdb dan moet je hem eerst unmounten.RoePe schreef op donderdag 14 november 2019 @ 18:54:
[...]
Bedankt A1AD, de installatie op de SSD zoals jij voorstelt is gelukt, heb even moeten uitzoeken wat een rpool is.
Heb er dus een RAID 0/ZFS volume van gemaakt met lz4 compressie.
Nu ben ik al een hele tijd aan het zoeken hoe ik van die HDD een zpool moet maken.
In de proxmox shell met fdisk HDD gewiped, partitie gemaakt maar krijg met "zpool create -f <naampool> /dev/sdb" de melding dat dat die disc in use is en een filesystem bevat.
Kan iemand van jullie me op de juiste weg helpen aub?
- Deze advertentie is geblokkeerd door Pi-Hole -
Wat ga ik ermee doen?
- Ubuntu voor WAMP en storage server
- Windows Server 2016 voor relatief zware financiële programma's
- Hackintosh
Ik wil gebruik maken van ZFS voor de 2 SSD's en de 2 HDD's.
Zelf dit lijstje samengesteld, graag jullie mening hierover:
# | Category | Product | Prijs | Subtotaal |
1 | Processors | AMD Ryzen 7 2700X Wraith Boxed | € 171,- | € 171,- |
1 | Moederborden | MSI X470 Gaming Plus | € 125,- | € 125,- |
1 | Videokaarten | MSI GeForce GT 710 1GD3H LP | € 34,88 | € 34,88 |
2 | Interne harde schijven | WD Red (256MB cache), 8TB | € 236,90 | € 473,80 |
1 | Behuizingen | be quiet! Pure Base 600 Zilver/Zwart | € 68,90 | € 68,90 |
1 | Geheugen intern | Corsair Vengeance LPX CMK32GX4M2B3200C16 | € 144,90 | € 144,90 |
1 | Voedingen | Corsair VS450 (2018) | € 37,91 | € 37,91 |
2 | Solid state drives | Kingston A2000 500GB | € 63,81 | € 127,62 |
Bekijk collectie Importeer producten | Totaal | € 1.184,01 |
Mobo aangepast van Asus PRIME X470-PRO naar MSI X470 Gaming Plus i.v.m. betere support M2 drives.
RAM geheugen aangepast naar 32GB, thnx @rachez
Processor aangepast van ryzen 5 3600 naar ryzen 7 2600x, meer cores, beter voor VM leek me.
Videokaart toegevoegd voor installatie.
[ Voor 12% gewijzigd door Hangtime op 17-11-2019 21:54 ]
Windows lust wel wat memory en mijn ervaring is dat je met Proxmox al gauw tekort komt: je spint al vrij snel weer een nieuwe host op om wat uit te proberen en dan is het fijn als je wat extra ruimte hebt.
Vergeet ook niet om een VGA kaart erin te doen tijdens de installatie. Voordat ik overstapte naar de X470D4U had ik altijd een PCIe 1x kaart erin zitten zodat ik toch nog een grafische output had.
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
2x SATA, 2x M.2 PCI-eocf81 schreef op zondag 17 november 2019 @ 18:20:
@Hangtime Waarom een X470 bord? De 4 SATA devices kunnen ook wel op een B450 bord worden aangesloten en voor het overklokken van het geheugen heb je ook geen X470 nodig.
Vergeet ook niet om een VGA kaart erin te doen tijdens de installatie. Voordat ik overstapte naar de X470D4U had ik altijd een PCIe 1x kaart erin zitten zodat ik toch nog een grafische output had.
Geen specifieke reden voor het X470 bord, maar vanwege het geringe prijs verschil dacht ik, kan ik net zo goed de X470 halen i.p.v. een B450
VGA kaart? Onboard video kaart gaat niet werken?
Ryzen heeft geen onboard video tenzij je een G CPU neemt. Op zich hoeft ie er alleen maar in te zitten tijdens de installatie, maar je zal er wel ergens een vandaan moeten halen.Hangtime schreef op zondag 17 november 2019 @ 18:38:
[...]
2x SATA, 2x M.2
Geen specifieke reden voor het X470 bord, maar vanwege het geringe prijs verschil dacht ik, kan ik net zo goed de X470 halen i.p.v. een B450
VGA kaart? Onboard video kaart gaat niet werken?
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Kan of wil iemand mij op weg helpen met het volgende:
Na een eerste installatie met PVE 6 en ZFS heb ik de node de geweldige naam 'koekkoek' gegeven, met het idee eerst maar eens kijken, daarna heb ik zo weer een verse installatie gedaan.
Ondanks dat ik alle schijven los van elkaar installeer, of formatteer krijg ik na een schone installatie weer 'koekkoek' als node te zien, met foutmeldingen over de hostname.
Met onderstaande link dacht ik het op te lossen, maar dat werkt vooralsnog niet. Ik krijg de naam niet anders, wat wel lukt is dat ik de foutmelding over de hostnaam oplos als ik het wijzig naar koekkoek.hostname lookup 'koekkoek' failed - failed to get address info for: koekkoek:
Name or service not known (500)
https://pve.proxmox.com/wiki/Renaming_a_PVE_node
Los van het feit ik het niet gewijzigd krijg, vind ik het raar dat ondanks nieuwe installatie en geformatteerde schijven ik steeds weer die naam zie staan.
Het ligt ongetwijfeld aan mij

Heb een https://tweakers.net/pric...357/intel-660p-512gb.html en een https://tweakers.net/pric...ive-(stdr)-5tb-zwart.html.
De laatste is 100% afgekoppeld.
De eerste zit op het bord met m.2 connector. Dat is de enige.
2 x 480 SSD
2 x 2 TB HDD
Ergens wil ik redundantie en acceleratie het zou leuk zijn als het systeem dynamisch blocks kan verplaatsen let op het is een dedi dus Proxmox moet ook ergens op staan geïnstalleerd.
"De kans dat een snee brood op een nieuw tapijt valt met de beboterde zijde onderaan, is recht evenredig met de prijs van het tapijt"
[ Voor 46% gewijzigd door zx9r_mario op 05-12-2019 22:00 ]
Nice, vanavond weer wat te doen!zx9r_mario schreef op donderdag 5 december 2019 @ 21:55:
Proxmox 6.1 is gisteren uitgekomen. https://www.proxmox.com/e...s-releases/proxmox-ve-6-1
Iemand al ervaringen met updaten van 6.0 -> 6.1?
ja, draait prima, maar ik heb alleen openmediavault en een paar lxc containers erop.LiquidSmoke schreef op zaterdag 7 december 2019 @ 14:19:
[...]
Nice, vanavond weer wat te doen!
Iemand al ervaringen met updaten van 6.0 -> 6.1?
Ik heb een Ryzen 3900X over dit moet dan de Proxmox server worden. Er moet nog wel een ander mobo komen, en meer geheugen. Ik zoek een mobo met IPMI. Ik ben al eens voorheen een mobo tegen gekomen die dit heeft, en ook een AM4 socket heeft. Ik ga straks even zoek of ik deze kan vinden.
Ook wil ik graag netwerk poorten (passthrough) geven aan een VM. Is dit mogelijk met Proxmox (zie update 2)?
Update_1:
Ik ben dit bord tegen gekomen: ASRock Rack X470D4U. Deze wordt ook gebruikt door een Proxmox user. Iemand of de bewuste user ervaringen te delen?
Update_2
Ik wil even mijn netwerk verhaal verduidelijken. Ik heb Linux Distro wat fungeert als mijn router. Ik heb dus 2 netwerk poorten nodig. Voor WAN en LAN. Ik heb hiervoor een aparte netwerk kaart. Ik ben aan het Google-en, en als ik het goed begrijp heb ik geen passthrough nodig. Het is mij alleen niet duidelijk hoe ik het moet instellen.
[ Voor 30% gewijzigd door MvL op 15-12-2019 16:58 . Reden: informatie toegevoegd ]
Het kan dus ook zonder IOMMU, dat doe ik op mijn router ook. Dan maak je een bridge aan voor LAN, en een andere bridge voor WAN, en is het een kwestie van de juiste echte adapter matchen met de juiste virtuele adapter die je aan de bridge koppelt. Hier wou ik eigenlijk ook de netwerkkaarten direct doorgeven aan de VM, maar de netwerkkaarten bleken samen met de SSD in dezelfde IOMMU groep te zitten (op een Supermicro bordje met een Atom, niet op de AsRock).
[ Voor 36% gewijzigd door dcm360 op 15-12-2019 17:05 ]
Met IOMMU koppel fysieke hardware aan een VM? Je koppelde dus je SSD aan je VM?dcm360 schreef op zondag 15 december 2019 @ 17:00:
In theorie zou dat moeten lukken, maar ik liep met dat moederbord tegen wat problemen aan met IOMMU. Op 2 (identieke) systemen kreeg ik mijn SSD's niet werkend vanwege signaalverlies met IOMMU aan (zonder werkte dan weer wel, ik begrijp niet helemaal waarom). Op een ander systeem ging het mis in combinatie met TRIM, maar dat zou in de laatste Proxmox (met nieuwere kernel) wel eens opgelost kunnen zijn.
Oke, je SSD en netwerk kaart zaten in dezelfde IOMMU groep. Je heb dit niet geprobeerd op het bewuste Asrock bord wat ik op het oog heb?Het kan dus ook zonder IOMMU, dat doe ik op mijn router ook. Dan maak je een bridge aan voor LAN, en een andere bridge voor WAN, en is het een kwestie van de juiste echte adapter matchen met de juiste virtuele adapter die je aan de bridge koppelt. Hier wou ik eigenlijk ook de netwerkkaarten direct doorgeven aan de VM, maar de netwerkkaarten bleken samen met de SSD in dezelfde IOMMU groep te zitten (op een Supermicro bordje met een Atom, niet op de AsRock).
Is er ergens een guide te vinden wat betreft het netwerk gebeuren van Proxmox?
Als je IOMMU aanzet, dan verandert het één en ander aan hoe geheugenadressering van apparaten werkt, ongeacht of het apparaat aan een VM zit of niet. En dat liep dus niet lekker in de kernel van die Proxmox 6.0 meeleverde.MvL schreef op zondag 15 december 2019 @ 19:11:
[...]
Met IOMMU koppel fysieke hardware aan een VM? Je koppelde dus je SSD aan je VM?
Nee, helaas.Oke, je SSD en netwerk kaart zaten in dezelfde IOMMU groep. Je heb dit niet geprobeerd op het bewuste Asrock bord wat ik op het oog heb?
Zelf heb ik de guide voor pfSense gebruikt (om pfSense te installeren als VM dus, het vertaalt wellicht wel aardig naar andere router-OSen): https://docs.netgate.com/...pfsense-with-proxmox.htmlIs er ergens een guide te vinden wat betreft het netwerk gebeuren van Proxmox?
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Vraagje.
Ik draai op dit moment een Intel G4500 met 8GB ECC Ram met Windows Server 2012R2.
Deze server ga ik morgen upgraden naar een Ryzen 3600 met 2x 16GB ECC op een ASRock B450 Pro4.
Om wat flexibeler te worden, wil ik het spul virtueel gaan draaien.
Op de zaak gebruiken we ESXi en hebben daar nog 1-socket licentie over.
Maar, nu zie ik dat VMware (geheel verwacht trouwens) zowel de CPU als het Mobo als de NIC niet support.
Voor mij een reden om eens naar Proxmox te kijken .
ESXi draai ik normaal gewoon vanaf een 8GB USB stick.
Maar, ik las dat dit voor Proxmox niet wordt aangeraden.
Klopt dit?
Zo ja, ik neem aan dat ProxMox de complete disk gebruikt en ik die disk dus niet meer kan gebruiken voor VM's.
Ook las ik dat een RAID mirror aangeraden wordt voor de install. Correct?
Nu zit ik er eigenlijk niet op te wachten om 1 of 2 (kleine) SSD's bij te moeten kopen om het alsnog draaiende te krijgen. Mede vanwege de beperkte aantal SATA porten die de B450 Pro4 heeft en ook vanwege weer 2 extra disks die stroom verbruiken (wil t systeem uiteraard zo zuinig mogelijk hebben).
Ik heb ook nog een Synology NAS draaien (DS413J). Hier zou ik een iSCSI op kunnen zetten. Maar geen idee of dat wel verstandig is (Draait een 4x 3TB WD Red in RAID5).
Wat raden jullie aan?
A) Proxmox gewoon vanaf USB draaien
C) Proxmox op een enkele SSD zetten
D) Proxmox op de Synology z'n drive laten zetten (Hoe?)
E) Niet janken, koop gewoon 2 SSD's
F) Iets anders, nl.
Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1
[ Voor 13% gewijzigd door ocf81 op 16-12-2019 18:53 ]
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Aha.ocf81 schreef op maandag 16 december 2019 @ 17:53:
Proxmox installeert op vergelijkbare wijze als anere linux distro's. Je kan zelf kiezen welk filesysteem je gebruikt en hoeveel je gebruikt. Als je ervoor kiest om een hele disk te gebruiken zal een deel van de storage beschikbaar worden gesteld om installatieimages en virtuele disks van te kunnen hosten. Ter illustratie: van een 500GB SSD blijft ca 350GiB (~375GB) over voor gebruik voor VMs, iso's etc.
Ik heb een Corsair Force mp510 van 960gb.
Deze als xfs (of ext4?) formatteren en dan voor proxmox en als storage voor de installatie schijven van de VM's gebruiken is dan dus wel een mooie oplossing?
Na de migratie heb ik dan nog een Crucial MX300 525GB ter beschikking. Welke ik voor oa nzbget, sonarr, radarr en pihole in kan zetten.
En dan nog een 3tb en 6tb hdd voor storage van de films en series.
Bonus vraag: die 3tb en 6tb zijn vol met data en ntfs als systeem. Kan ik die zonder leeg te halen gebruiken?
Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Sorry,ocf81 schreef op maandag 16 december 2019 @ 23:54:
@HellStorm666 Op zich kan alles wat je met een normale linux distro kan, maar Proxmox is er wel op ingericht om vooral KVM VM's en LXC containers te hosten. De Proxmox doctrine zegt dat je voor ander diensten dan een VM of container moet inrichten die deze diensten dan aanbiedt. De files delen vanuit Proxmox is een beetje tegen de Proxmox doctrine in. Als je die schijven voor een NAS wil gaan gebruiken lijkt het mij nuttiger om deze middels passthrough aan een NAS VM aan te bieden en dan zo de files te delen.
Misschien was mijn reactie wat onduidelijk.
Mijn doel is inderdaad alleen proxmox installeren.
Alle andere zaken draaien op VM's.
Maar de vhd's (geen idee nog hoe die heten bij proxmox) komen dan op dezelfde SSD (NVMe) als de installatie van proxmox.
De gewone hdd's wil ik via passtrough aanbieden aan de Windows Server 2019 installatie, welke virtueel draait dus.
Lees her en der trouwens wel dat proxmox ssd's vreet. Is dat nog zo en kan ik dus beter proxmox op een hdd zetten?
Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1
Ja dat dacht ik wel, maar aannames maken is gevaarlijk, dus vandaar dat ik dat even in het midden liet.HellStorm666 schreef op dinsdag 17 december 2019 @ 07:03:
[...]
Sorry,
Misschien was mijn reactie wat onduidelijk.
Mijn doel is inderdaad alleen proxmox installeren.
Alle andere zaken draaien op VM's.
Maar de vhd's (geen idee nog hoe die heten bij proxmox) komen dan op dezelfde SSD (NVMe) als de installatie van proxmox.
De gewone hdd's wil ik via passtrough aanbieden aan de Windows Server 2019 installatie, welke virtueel draait dus.
Als je ZFS als filesysteem kiest en trim aanzet zou dat nu geen probleem meer moeten zijn.Lees her en der trouwens wel dat proxmox ssd's vreet. Is dat nog zo en kan ik dus beter proxmox op een hdd zetten?
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Aangezien ik niet meerdere schijven wil gaan bundelen, heeft ZFS niet echt meerwaarde voor mij.ocf81 schreef op dinsdag 17 december 2019 @ 10:32:
[...]
Ja dat dacht ik wel, maar aannames maken is gevaarlijk, dus vandaar dat ik dat even in het midden liet.
[...]
Als je ZFS als filesysteem kiest en trim aanzet zou dat nu geen probleem meer moeten zijn.
Om de disks even samen te vatten:
1x Corsair Force MP510 960GB (nieuw) || Disk waar de VHD's van de OS-en op komen, oa Server 2019 2x.
1x Crucial MX300 2,5" 525GB (gebruikt) || Bevat momenteel m'n Server 2012R2 installatie, deze gaat uiteindelijk leeg. Waarschijnlijk Disk waar de VHD's op komen van OS-en die minder snel hoeven te zijn. (Pi-hole bijv)
1x Seagate NAS HDD, 3TB (gebruikt) || Staan nu de tijdelijke Downloads van NZBGet op en m'n Series.
1x WD Blue WD60EZRZ, 6TB (gebruikt) || Staan nu de Films op.
1x WD Red 10TB (gebruikt) || Hier staan de Off-site backups van het werk op.
De 3 HDD's bevatten nu data die daar uiteindelijk ook weer op moet.
De 10TB wil ik ook weer in ReFS hebben, dus bij voorkeur deze gewoon in Passtrough naar de Server 2019 VM sturen.
De 3TB en 6TB zouden als JBOD (oid) mogen. heeft geen redundantie nodig. zijn nu bijde NTFS en heb die liever naar ReFS of vergelijkbaar.
Die 3TB en 6TB zou ik evt. tijdelijk naar externe schijven kunnen kopieren om zo de data te bewaren.
Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
ZFS heeft wel meer voordelen dan alleen RAID achtige dingen. Dat overal een checksum van wordt opgeslagen en ZFS dus bitrot etc kan detecteren is toch wel handig (leverde mij laatst nog een automatische error mail op dat een schijf lees errors gaf. Onderzoek wees uit dat de schijf bad sectors heeft).HellStorm666 schreef op dinsdag 17 december 2019 @ 10:41:
[...]
Aangezien ik niet meerdere schijven wil gaan bundelen, heeft ZFS niet echt meerwaarde voor mij.
Daarnaast bied het ondersteuning voor snapshots (even snapshot maken van proxmox alvorens systeem updates te draaien bv. Na falende update zou je dan weer rollback kunnen doen). En in combinatie met Proxmox worden VMs i.p.v. in een file weg geschreven in een ZVOL wat een block device op de ZFS pool is weg geschreven. En ook een ZVOL kun je weer snapshotten etc.
Juist vanwege bitrot gebruik ik ook refs voor de backup schijf.RobertMe schreef op dinsdag 17 december 2019 @ 11:39:
[...]
ZFS heeft wel meer voordelen dan alleen RAID achtige dingen. Dat overal een checksum van wordt opgeslagen en ZFS dus bitrot etc kan detecteren is toch wel handig (leverde mij laatst nog een automatische error mail op dat een schijf lees errors gaf. Onderzoek wees uit dat de schijf bad sectors heeft).
Daarnaast bied het ondersteuning voor snapshots (even snapshot maken van proxmox alvorens systeem updates te draaien bv. Na falende update zou je dan weer rollback kunnen doen). En in combinatie met Proxmox worden VMs i.p.v. in een file weg geschreven in een ZVOL wat een block device op de ZFS pool is weg geschreven. En ook een ZVOL kun je weer snapshotten etc.
Welke vanwege de backup software op windows moet draaien.
Maar,
Even terug naar de basis.
Proxmox op usb, ssd, hdd of iSCSI (via iPXE)?
Scientia Potentia Est
Xbox-Live GamerTag: H3llStorm666
19x Q.Cell G5 325wp op APsystems QS1
Ja, dat kan allemaal. Ik vraag me echter af of je USB stick een lang leven beschoren is als je van USB gaat booten. Je zou het eens kunnen proberen op deze manier: https://c-nergy.be/blog/?p=1159HellStorm666 schreef op dinsdag 17 december 2019 @ 12:28:
[...]
Juist vanwege bitrot gebruik ik ook refs voor de backup schijf.
Welke vanwege de backup software op windows moet draaien.
Maar,
Even terug naar de basis.
Proxmox op usb, ssd, hdd of iSCSI (via iPXE)?
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Als ik met mijn vaste pc de nieuwe proxmox installatie webgui wil benaderen, lukt dat niet.
Netmask staat goed: https://forum.proxmox.com...ct-via-web-browser.30645/
De no subscription versie:
https://forum.proxmox.com...x-web-gui-problems.41391/
https certs weggegooid:
https://pve.proxmox.com/w..._to_default_configuration
Op mijn vaste pc kan ik de proxmox webgui niet benaderen, maar mijn telefoon (via wifi binnen hetzelfde lan en netmask) kan daar wel bij.
Hebben jullie enig idee hoe ik dit kan oplossen?
https://pvoutput.org/intraday.jsp?id=102416&sid=90116
welke browser/systeem is je vaste PC. en heb je ook andere browsers geprobeerd..?maomanna schreef op dinsdag 17 december 2019 @ 23:35:
Ik zit momenteel met een vreemd probleem.
Als ik met mijn vaste pc de nieuwe proxmox installatie webgui wil benaderen, lukt dat niet.
Netmask staat goed: https://forum.proxmox.com...ct-via-web-browser.30645/
De no subscription versie:
https://forum.proxmox.com...x-web-gui-problems.41391/
https certs weggegooid:
https://pve.proxmox.com/w..._to_default_configuration
Op mijn vaste pc kan ik de proxmox webgui niet benaderen, maar mijn telefoon (via wifi binnen hetzelfde lan en netmask) kan daar wel bij.
Hebben jullie enig idee hoe ik dit kan oplossen?
Zojuist bedacht ik mij dat ik ook nog Firefox kan proberen en toen deed ie het. Nu doen de andere browsers het ook. Wellicht heeft een reboot van mijn vaste pc gewerkt.
https://pvoutput.org/intraday.jsp?id=102416&sid=90116
In 5.4 zijn de bridges vlan-ware (trunk port op cisco switch) en vm's (LXC) konden via de verschillende nodes met elkaar communiceren via het ingesteld vlan tag.
Na de upgrade naar 6.1 zijn er connectie problemen als de vm's op verschillende nodes staan. PING, SSH of telnet naar een poort werkt wel, maar bij bijv curl, wget oid blijft ie hangen. Firewall is nergens actief, het verkeer zie ik wel in het betreffende vlan langskomen.
De vm's op dezelfde node kunnen wel probleemloos connecten met elkaar
1) Ik ben nu eerst de host en een aantal vm's aan het inrichten en wil daarna mijn bestaande zpool verhuizen naar deze nieuwe machine. Mijn bestaande zpool is gemaakt onder OpenIndiana (solaris-variant) en is nog van pool-versie 28. Ik heb die bestaande zpool destijds (2011 of 2012 of zo) aangemaakt als versie 28 omdat de feature-flags toen nog tamelijk nieuw waren. Ik wilde niet het risico lopen vast te zitten aan een feature die alleen onder solaris draaide en nergens anders. Momenteel lijken de feature-flags volwassen genoeg en zou ik de pool kunnen upgraden. Lijkt mij slim om dat pas te doen nadat ik de pool naar de proxmox-machine verhuisd heb. Correct?
Volgens mij zou proxmox met ZFS-on-Lunix een zpool met versie 28 moeiteloos moeten kunnen importeren? Dan zit de storage primair dus gekoppeld aan de host en vanuit de containers benader ik die met bind-mounts.
Van de pool heb ik voor het belangrijskte deel wel backups, maar zou hem graag intact laten (16TB restoren vanaf backups op usb-schijven die off-site liggen is niet ideaal om het zachtjes uit te drukken).
Is het simpelweg een "zpool export" op de oude machien en na verplaatsen van de disks "zpool import" op de proxmox host?Gaat die goed, of kan ik hier nog iets aan fout doen of problemen verwachten?
2) De bestanden op mijn bestaande zpool hebben user-id's 101 tm / 105 in gebruik. Ik kom er niet helemaal uit hoe ik hier praktisch mee om moet gaan.
Ik wil een NAS-LXContainer maken waar samba in draait om de files te sharen.
Daar zou ik iets voor moeten configureren met uid-mapping, maar ik snap nog niet helemaal hoe dat werkt. Moet ik voor elke uid dat op de schijf voorkomt een uid-map maken van de hoge nummers die lxc bedenkt naar de uid's die op de schijf gebruikt worden?
En hoe zit het nu met de accounts zelf? Maak ik die dan alleen in de Samba-container aan, of moet ik die op de proxmox-host aanmaken?
3) In een andere LX-Container ga ik mysql draaien. Ik ga gelijk een mysql-upgrade doen en mijn database omzetten van Myisam naar InnoDB, dus dat wordt een mysqldump en die dan importeren in de nieuwe container. Wel wil ik de data middels een bind-mount op mijn bestaande zpool zetten.
In dat geval is het eigenlijk toch helemaal niet zo relevant dat er op zfs-niveau hele hoge uid's gebruikt worden? Ik gebruik die data immers toch alleen direct vanuit de mysql-container. In dat geval hoef ik dus geen uid-mapping te doen?
Alvast bedankt!
Ik ga mijn eerste proxmox server inrichten. Ik heb een hp dl360 g8 op ebay gekocht voor een mooie prijs. Dit betreft een dual xeon setup met een hardware raid met cache en batterij p420 . Wat raden jullie aan ? De hardware raid gebruiken of zfs gebruiken? Uit ervaring weet ik dat vaak de hw raid van hp slecht door te koppelen is naar zaken als freenas. Hoe zit dit met proxmox?
Het systeem heeft 40 gb ram met nog heel wat slots vrij mocht het nodig zijn.
No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.
1: upgrade pas doen op de proxmox host voor alle zekerheid. Het is inderdaad export > import en klaar. Ik weet niet hoe het zit met die versies maar je kan eens booten met een proxmox live cd en een import doen. Zo weet je zeker dat alles mooi werkt.ocaj schreef op donderdag 26 december 2019 @ 00:17:
Ik ben bezig met het inrichten van mijn eerste Proxmox-machine. Gelijk ook mijn eerste ervaring met virtualisatie in het algemeen en ik kom er nog niet helemaal uit, dus bij deze een paar vragen:
1) Ik ben nu eerst de host en een aantal vm's aan het inrichten en wil daarna mijn bestaande zpool verhuizen naar deze nieuwe machine. Mijn bestaande zpool is gemaakt onder OpenIndiana (solaris-variant) en is nog van pool-versie 28. Ik heb die bestaande zpool destijds (2011 of 2012 of zo) aangemaakt als versie 28 omdat de feature-flags toen nog tamelijk nieuw waren. Ik wilde niet het risico lopen vast te zitten aan een feature die alleen onder solaris draaide en nergens anders. Momenteel lijken de feature-flags volwassen genoeg en zou ik de pool kunnen upgraden. Lijkt mij slim om dat pas te doen nadat ik de pool naar de proxmox-machine verhuisd heb. Correct?
Volgens mij zou proxmox met ZFS-on-Lunix een zpool met versie 28 moeiteloos moeten kunnen importeren? Dan zit de storage primair dus gekoppeld aan de host en vanuit de containers benader ik die met bind-mounts.
Van de pool heb ik voor het belangrijskte deel wel backups, maar zou hem graag intact laten (16TB restoren vanaf backups op usb-schijven die off-site liggen is niet ideaal om het zachtjes uit te drukken).
Is het simpelweg een "zpool export" op de oude machien en na verplaatsen van de disks "zpool import" op de proxmox host?Gaat die goed, of kan ik hier nog iets aan fout doen of problemen verwachten?
2) De bestanden op mijn bestaande zpool hebben user-id's 101 tm / 105 in gebruik. Ik kom er niet helemaal uit hoe ik hier praktisch mee om moet gaan.
Ik wil een NAS-LXContainer maken waar samba in draait om de files te sharen.
Daar zou ik iets voor moeten configureren met uid-mapping, maar ik snap nog niet helemaal hoe dat werkt. Moet ik voor elke uid dat op de schijf voorkomt een uid-map maken van de hoge nummers die lxc bedenkt naar de uid's die op de schijf gebruikt worden?
En hoe zit het nu met de accounts zelf? Maak ik die dan alleen in de Samba-container aan, of moet ik die op de proxmox-host aanmaken?
3) In een andere LX-Container ga ik mysql draaien. Ik ga gelijk een mysql-upgrade doen en mijn database omzetten van Myisam naar InnoDB, dus dat wordt een mysqldump en die dan importeren in de nieuwe container. Wel wil ik de data middels een bind-mount op mijn bestaande zpool zetten.
In dat geval is het eigenlijk toch helemaal niet zo relevant dat er op zfs-niveau hele hoge uid's gebruikt worden? Ik gebruik die data immers toch alleen direct vanuit de mysql-container. In dat geval hoef ik dus geen uid-mapping te doen?
Alvast bedankt!
2 en 3: Die uid-mapping moet je enkel doen wanneer je een unpriviledged container draait, ze raden aan om unpriv LXCs te draaien ja, rechten in je SAMBA LXC goed zetten is voldoende.
Hoe nog wat info: https://pve.proxmox.com/wiki/Unprivileged_LXC_containers
- Deze advertentie is geblokkeerd door Pi-Hole -
Wil je ZFS (ja dat wil jeXenophoben schreef op zaterdag 28 december 2019 @ 15:15:
Hallo allemaal,
Ik ga mijn eerste proxmox server inrichten. Ik heb een hp dl360 g8 op ebay gekocht voor een mooie prijs. Dit betreft een dual xeon setup met een hardware raid met cache en batterij p420 . Wat raden jullie aan ? De hardware raid gebruiken of zfs gebruiken? Uit ervaring weet ik dat vaak de hw raid van hp slecht door te koppelen is naar zaken als freenas. Hoe zit dit met proxmox?
Het systeem heeft 40 gb ram met nog heel wat slots vrij mocht het nodig zijn.
[ Voor 4% gewijzigd door A1AD op 28-12-2019 15:33 ]
- Deze advertentie is geblokkeerd door Pi-Hole -
Proxmox heeft toch geen live-cd? De twee dingen die de iso kan doen is installeren of een bestaand systeem booten.A1AD schreef op zaterdag 28 december 2019 @ 15:31:
[...]
1: upgrade pas doen op de proxmox host voor alle zekerheid. Het is inderdaad export > import en klaar. Ik weet niet hoe het zit met die versies maar je kan eens booten met een proxmox live cd en een import doen. Zo weet je zeker dat alles mooi werkt.
Je kan met de install cd toch een console sessie starten? Volgens mij heb ik zo al gechroot in mijn defecte setup?dcm360 schreef op zaterdag 28 december 2019 @ 18:47:
[...]
Proxmox heeft toch geen live-cd? De twee dingen die de iso kan doen is installeren of een bestaand systeem booten.
In de console sessie kan je dan testen of je de pool kan importeren.
- Deze advertentie is geblokkeerd door Pi-Hole -
Ok, dan doe ik die upgrade pas (een paar dagen) nadat ik de schijven heb overgezet. Hoeft toch niet van een live-cd? Ik heb op mijn nieuwe server al proxmox draaien, kan toch gewoon die installatie gebruiken?A1AD schreef op zaterdag 28 december 2019 @ 15:31:
[...]
1: upgrade pas doen op de proxmox host voor alle zekerheid. Het is inderdaad export > import en klaar. Ik weet niet hoe het zit met die versies maar je kan eens booten met een proxmox live cd en een import doen. Zo weet je zeker dat alles mooi werkt.
(maar eerst zorgen dat ik de basis-functies draaiend heb, mysql draait al in een aparte container, nu nog een samba-container om de bestanden te ontsluiten)
Hmmm, deze is een stuk lastiger. Ik ben nu aan het testen, maar nog niet heel succesvol.2 en 3: Die uid-mapping moet je enkel doen wanneer je een unpriviledged container draait, ze raden aan om unpriv LXCs te draaien ja, rechten in je SAMBA LXC goed zetten is voldoende.
Hoe nog wat info: https://pve.proxmox.com/wiki/Unprivileged_LXC_containers
Ik heb geprobeerd de instructie te volgen (na eerst een keer of wat goed doorlezen...). Ik heb even een tijdelijke "zfs create rpool/data/test" gedaan. De bestanden in mijn grote pool hebben allemaal uid 102 of 103, ik dacht met deze aanpassing van /etc/pve/lxc/101.conf de uid's 102 en 103 te mappen op 102/103 van de host:
1
2
3
4
| mp0: /rpool/data/test,mp=/data lxc.idmap: u 0 100000 102 lxc.idmap: u 102 102 2 lxc.idmap: u 104 100104 65432 |
Maar dat resulteert erin dat de hele container niet meer start, middels lxc-start -F -n 101 krijg ik alleen deze weinig behulpzame output:
1
2
3
4
| lxc-start: 101: conf.c: run_buffer: 352 Script exited with status 2 lxc-start: 101: start.c: lxc_init: 897 Failed to run lxc.hook.pre-start for container "101" lxc-start: 101: start.c: __lxc_start: 2032 Failed to initialize container "101" Segmentation fault |
Update: ook al verwijst de man-page van 'pct' naar de methode middels lxc-start -F, die werkt helemaal niet. Ook bij een correct configuratie die gewoon start met "pct start xxx" geeft het lxc-start-commando een segmentation fault.
Iemand een andere manier om debug-info te krijgen waarom een container niet start?
Output van pct start:
1
2
3
| Job for pve-container@101.service failed because the control process exited with error code. See "systemctl status pve-container@101.service" and "journalctl -xe" for details. command 'systemctl start pve-container@101' failed: exit code 1 |
In de container heb ik accounts gemaakt met de uid 102 en 103.
Moet ik overigens ook op de host accounts maken met uid 102 en 103? Of zijn de uid's simpelweg kale nummers die tussen de fysieke schijf en de container doorgegeven moeten worden?
Update2: Ik heb nu ook op de host-machine accounts gemaakt voor uid 102 en uid 103, maar geen verschil. (overigens ware er al accounts met uid 102 en 103, die heb middels usermod aangepast (en de bijbehorende bestanden uiteraard middels chown).
[ Voor 15% gewijzigd door ocaj op 29-12-2019 22:42 ]
Ik gebruik hem alleen intern in mijn thuis-netwerk en benader de server niet vanaf internet, dus de risico's van een privileged container lijken mij voor nu acceptabel (en dan kan ik in de tussentijd uitzoeken waarom de unprivileged containers niet werken).
Maar ook dat krijg ik niet aan de praat. Wat ik gedaan heb:
- unprivileged container (op basis van debian10-template).
- user met id 102 aangemaakt op zowel de host als in de container.
- via een bind-mountpoint een zfs-map op de host gemount binnen de container
- samba ingericht op de container om via smb deze mount te delen.
Bind-mount werkt prima, ik kan binnen de container alles doen met user 102.
Samba werkt helaas alleen read-only. Alles lijkt te kloppen, ik zie als ik verbinding maak met de 102-user zowel op de container als op de hoost een smbd-proces draaien als user 102, maar ondanks dat kan ik via samba alleen lezen.
Iemand nog goede tips? Ik word er een beetje simpel van dat ik zoiets redelijk basics als een samba-share niet voor elkaar krijg.
(verder wel enthousiast over proxmox hoor, het gemak waarmee je containers kunt toevoegen, inrichten, wat experimenteren en als het niet lukt gewoon weer weggooien werkt heel prettig en vlot)
Update: zucht... Het is gelukt. Blijkt dat samba default alle shares "read-only" maakt, tenzij je dat anders configureert



[ Voor 6% gewijzigd door ocaj op 02-01-2020 13:08 ]
Wellicht overbodig maar heb je gezien dat Proxmox default bij unprivileged containers de id's van de container mapt naar een andere range id's op de host: https://pve.proxmox.com/wiki/Unprivileged_LXC_containersocaj schreef op donderdag 2 januari 2020 @ 00:06:
Hmmmm, na een paar dagen stoeien dacht ik vandaag "als het niet kan zoals het moet, dan moet het maar zoals het kan", dus had ik het idee om niet meer met de id-mapping in unprivileged containers te werken, maar om dan maar een privileged container te maken die via samba de zfs-pool van de host kan delen in mijn netwerk.
Ik gebruik hem alleen intern in mijn thuis-netwerk en benader de server niet vanaf internet, dus de risico's van een privileged container lijken mij voor nu acceptabel (en dan kan ik in de tussentijd uitzoeken waarom de unprivileged containers niet werken).
Maar ook dat krijg ik niet aan de praat. Wat ik gedaan heb:
- unprivileged container (op basis van debian10-template).
- user met id 102 aangemaakt op zowel de host als in de container.
- via een bind-mountpoint een zfs-map op de host gemount binnen de container
- samba ingericht op de container om via smb deze mount te delen.
Bind-mount werkt prima, ik kan binnen de container alles doen met user 102.
Samba werkt helaas alleen read-only. Alles lijkt te kloppen, ik zie als ik verbinding maak met de 102-user zowel op de container als op de hoost een smbd-proces draaien als user 102, maar ondanks dat kan ik via samba alleen lezen.
Iemand nog goede tips? Ik word er een beetje simpel van dat ik zoiets redelijk basics als een samba-share niet voor elkaar krijg.
(verder wel enthousiast over proxmox hoor, het gemak waarmee je containers kunt toevoegen, inrichten, wat experimenteren en als het niet lukt gewoon weer weggooien werkt heel prettig en vlot)
Update: zucht... Het is gelukt. Blijkt dat samba default alle shares "read-only" maakt, tenzij je dat anders configureert![]()
. Wat een idiote default, maar goed. In ieder geval ga ik dat nooit meer vergeten
Ik ben daar ook tegenaan gelopen.. Ook ik heb uiteindelijk voor een privileged container met samba gekozen..
Dank je, dat had ik inderdaad gezien, maar kreeg ik niet werkend.OsiriS.nl schreef op vrijdag 3 januari 2020 @ 08:31:
[...]
Wellicht overbodig maar heb je gezien dat Proxmox default bij unprivileged containers de id's van de container mapt naar een andere range id's op de host: https://pve.proxmox.com/wiki/Unprivileged_LXC_containers
Ik ben daar ook tegenaan gelopen.. Ook ik heb uiteindelijk voor een privileged container met samba gekozen..
Blij te horen dat ik niet de enige ben die samba in een unprivileged container niet aan de praat krijgt.
Ook nog een leuke verrassing: Ik dacht mijn complete data-zpool via een bind-mount aan de container te koppelen, maar dat moet je dus voor elk zfs-filesysteem apart doen.
Jah, elke dataset apart koppelen.ocaj schreef op vrijdag 3 januari 2020 @ 10:26:
[...]
Dank je, dat had ik inderdaad gezien, maar kreeg ik niet werkend.
Blij te horen dat ik niet de enige ben die samba in een unprivileged container niet aan de praat krijgt.
Ook nog een leuke verrassing: Ik dacht mijn complete data-zpool via een bind-mount aan de container te koppelen, maar dat moet je dus voor elk zfs-filesysteem apart doen.
Als je meer dan 10 mountpoints nodig heb kan je dit nog gebruiken:
lxc.mount.entry: /bds/NAS/Media/Music /var/lib/lxc/116/rootfs/mnt/NAS/Media/Music none bind,create=dir,optional 0 0
edit: dit hoort dus in je lxc config file
[ Voor 3% gewijzigd door A1AD op 03-01-2020 19:32 ]
- Deze advertentie is geblokkeerd door Pi-Hole -
Ik zie verschillende mogelijkheden:
1) Hypervisor heeft geen enkel publiek IP en is alleen te benaderen via KVM. Netwerk van de hypervisor als passthrough naar de pfSense VM. Bij onbereikbaarheid van pfSense KVM benodigd. Voorbeeld configuratie: https://github.com/pekare/hetzner-proxmox-pfsense
2) Hypervisor heeft een publiek IP en is alleen toegankelijk met SSH. Dan i.c.m. port-forwarding kan ik het via een intern IP Proxmox (webinterface) benaderen. De hypervisor kan geen pfSense gebruiken maar heeft dan z'n eigen firewall (bijv. de built-in firewall van Proxmox op basis van iptables) en gebruikt fail2ban. Setup in de basis op basis van: https://dominicpratt.de/h...oxmox-pfsense-as-gateway/
3) Andere optie?
Optie (1) is in mijn geval lastig, omdat KVMs in het data-centrum aangevraagd moeten worden en dus niet instant zijn. Er zijn alternatieven met vKVM reboots, maar die heb ik nog niet onderzocht en vergen dus altijd minimaal een reboot. Optie (2) lijkt op zich redelijk genoeg, maar wellicht zie ik nog een optie (3) over het hoofd die een betere oplossing is.
Wat zouden jullie doen?
[ Voor 3% gewijzigd door mdbraber op 07-01-2020 10:13 ]
Mijn remote Proxmox heeft een pfsense VM instantie en is bereikbaar via de VPN, als fallback heb ik een debian LXC die automatisch start met de host en een publiek IP heeft hierop is de firewall actief en laat enkel SSH door. SSH is geconfigureerd met fail2ban en is uiteraard enkel keybased.mdbraber schreef op dinsdag 7 januari 2020 @ 10:03:
Sinds kort heb ik naast Proxmox voor mijn homelab ook Proxmox op een (remote) dedicated server. De vraag is nu wat de beste security practice is om de hypervisor (Proxmox) te beveiligen en wel toegang te geven tot de individuele VMs. Ik gebruik pfSense (VM) als router/firewall en voor o.a. VPN. Op de Proxmox webinterface is 2FA enabled. De vraag is: op welke wijze is de hypervisor het beste te beveiligen?
Ik zie verschillende mogelijkheden:
1) Hypervisor heeft geen enkel publiek IP en is alleen te benaderen via KVM. Netwerk van de hypervisor als passthrough naar de pfSense VM. Bij onbereikbaarheid van pfSense KVM benodigd. Voorbeeld configuratie: https://github.com/pekare/hetzner-proxmox-pfsense
2) Hypervisor heeft een publiek IP en is alleen toegankelijk met SSH. Dan i.c.m. port-forwarding kan ik het via een intern IP Proxmox (webinterface) benaderen. De hypervisor kan geen pfSense gebruiken maar heeft dan z'n eigen firewall (bijv. de built-in firewall van Proxmox op basis van iptables) en gebruikt fail2ban. Setup in de basis op basis van: https://dominicpratt.de/h...oxmox-pfsense-as-gateway/
3) Andere optie?
Optie (1) is in mijn geval lastig, omdat KVMs in het data-centrum aangevraagd moeten worden en dus niet instant zijn. Er zijn alternatieven met vKVM reboots, maar die heb ik nog niet onderzocht en vergen dus altijd minimaal een reboot. Optie (2) lijkt op zich redelijk genoeg, maar wellicht zie ik nog een optie (3) over het hoofd die een betere oplossing is.
Wat zouden jullie doen?
Zo blijft de host toch bereikbaar indien er problemen zijn met de pfsense VM.
- Deze advertentie is geblokkeerd door Pi-Hole -
Bedoel je een pfSense VM of iets anders? Wel een slimme fallback die net ietsje meer security biedt. Je kan wsl. nog gewoon 'verder' SSH-en vanaf de LXC naar de rest van je interne netwerk inclusief de hypervisor? Wel handig dat dan de poorten van je hypervisor niet hoeft te gaan firewallen.A1AD schreef op dinsdag 7 januari 2020 @ 10:44:
[...]
Mijn remote Proxmox heeft een pfsense KVM instantie en is bereikbaar via de VPN, als fallback heb ik een debian LXC die automatisch start met de host en een publiek IP heeft hierop is de firewall actief en laat enkel SSH door. SSH is geconfigureerd met fail2ban en is uiteraard enkel keybased.
Zo blijft de host toch bereikbaar indien er problemen zijn met de pfsense VM.
Ja, pfSense VM.mdbraber schreef op dinsdag 7 januari 2020 @ 10:58:
[...]
Bedoel je een pfSense VM of iets anders? Wel een slimme fallback die net ietsje meer security biedt. Je kan wsl. nog gewoon 'verder' SSH-en vanaf de LXC naar de rest van je interne netwerk inclusief de hypervisor? Wel handig dat dan de poorten van je hypervisor niet hoeft te gaan firewallen.
Je kan dan inderdaad via je fallback LXC verder hoppen naar je Proxmox host.
- Deze advertentie is geblokkeerd door Pi-Hole -
Bedoel je met "de firewall" de Proxmox firewall trouwens? Heb je daar toevallig de rules van hoe je die hebt ingesteld?A1AD schreef op dinsdag 7 januari 2020 @ 10:44:
[...]
Mijn remote Proxmox heeft een pfsense VM instantie en is bereikbaar via de VPN, als fallback heb ik een debian LXC die automatisch start met de host en een publiek IP heeft hierop is de firewall actief en laat enkel SSH door. SSH is geconfigureerd met fail2ban en is uiteraard enkel keybased.
Zo blijft de host toch bereikbaar indien er problemen zijn met de pfsense VM.
De LXC is firewall enabled op de host. De regels zijn super eenvoudig hoor. (In, accept, tcp en dan je SSH port)mdbraber schreef op dinsdag 7 januari 2020 @ 11:07:
[...]
Bedoel je met "de firewall" de Proxmox firewall trouwens? Heb je daar toevallig de rules van hoe je die hebt ingesteld?
- Deze advertentie is geblokkeerd door Pi-Hole -
Zodra het systeem van de harddisk wil booten, welke wel zichtbaar is in de server (DELL) BIOS dan blijft het scherm hangen en gebeurt er niets meer.
Ik heb redelijk veel mensen gezien welke dit probleem hebben maar kan nergens een oplossing vinden dan al niet dat de BIOS op de kaar geflashed moet zijn, welke dat is.
Booten lijkt leek de eerste keer lang te duren, ik onderzoek dit verder.
[ Voor 7% gewijzigd door Matthijs_nl op 07-01-2020 15:47 ]
Core2Quad Q6600
6 GB RAM
DFI Lanparty DK P45 (1 Gbit NIC)
180 GB SSD
2x2TB HDD (HGST server schijven, verzekerd voor 2 miljoen draaiuren)
Geforce GT610
Mijn provider is Ziggo en mijn snelheden zijn 250/25 Mbit/s
Het lijkt me leuk om hier een Proxmox server op te hosten, heb nog geen ervaring met virtualiseren, maar ik zat te denken aan de volgende opdeling:
1 core + 1GB RAM + 30 GB voor Proxmox zelf (OS + swap)
1 core + 2GB RAM + 60 GB voor een Source server voor Garry's mod
1 core + 2GB RAM + 60 GB voor een kleinschalige Minecraft (vanilla) server (zeg, max 5 man)
1 core + 1GB RAM + 30 GB voor Nextcloud
Waarbij alles op de SSD komt te staan en de bulk opslag van Nextcloud uiteraard op de HDDs.
Ik vraag me een aantal dingen af:
- Kan ik dit het beste aan kan pakken met VMs of docker containers, en is het handig om zo'n strikte opdeling als de bovenstaande aan te houden of kun je het systeem beter zelf dynamisch resources laten toewijzen?
- Is dit haalbaar met de beperte hoeveelheid RAM?
- Is het realistisch om dit allemaal op één SSD te zetten met oog op het aantal writes?
- Is dit überhaubt een verstandig idee, of kan ik bijvoorbeeld de Nextcloud functionaliteit beter onderbrengen op een andere fysieke machine in de vorm van bijvoorbeeld een NAS?
Het lijkt me leuk als ik dit op mijn bestaande systeem kan draaien, maar ik overweeg een AM3+ systeem met een octocore en wat meer RAM op de kop te tikken als dit niet lukt.
- Zonder VT-d zal het toch een stuk langzamer zijn dan met.
- RAM is net aan genoeg.
- Één SSD kan technisch, maar is niet aan te raden. Proxmox vreet SSDs zonder trim zo op. Sinds kort is het mogelijk om trim te gebruiken en ik geloof dat het sinds 6.1 ook in Proxmox ondersteund wordt. Ik zou de 2 HDDs in mirrored ZFS doen. De writes zijn dan wel traag maar de reads zijn als bij RAID0.
- Over het algemeen wordt het aangeraden om docker in een VM te draaien bij proxmox, maar dat is vooral vanuit de separation of concerns gedachte. LXC containers zijn een enorme bult hoofdpijn, dus die zou ik afraden.
[ Voor 3% gewijzigd door ocf81 op 07-01-2020 23:19 . Reden: Verkeerd begrip VT-d ]
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
- Deze advertentie is geblokkeerd door Pi-Hole -
Ik dacht altijd dat het ook voor de VM context makkelijker de toegang tot devices regelde middels DMA, maar nu ik het nog eens heb nagelezen moet ik je gelijk geven. Dank je voor de correctie.A1AD schreef op dinsdag 7 januari 2020 @ 18:37:
VT-d is helemaal niet nodig? Dit gebruik je enkel als je hardware wil doorgeven (passtrough) aan je VM. En al helemaal niet als je LXC containers gebruikt.
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Binnen mijn eigen netwerk deed hij het.Kek schreef op woensdag 18 december 2019 @ 15:53:
[...]
welke browser/systeem is je vaste PC. en heb je ook andere browsers geprobeerd..?
Op basis daarvan heb ik de machine naar een ander fysieke locatie gebracht en aangesloten. Maar nu blijkt dus dat proxmox host geen ip adres krijgt van de DHCP en de VM die er op draait wel.
Je zou namelijk stellen dat als de VM een ip kan krijgen, dat de host dat sowieso zou krijgen.
Hoe kan ik dat oplossen?
[ Voor 9% gewijzigd door maomanna op 08-01-2020 16:55 ]
https://pvoutput.org/intraday.jsp?id=102416&sid=90116
Neen, proxmox heeft standaard DHCP uit staan. Dus zal geen IP krijgen door middel van DHCP.maomanna schreef op woensdag 8 januari 2020 @ 16:55:
[...]
Binnen mijn eigen netwerk deed hij het.
Op basis daarvan heb ik de machine naar een ander fysieke locatie gebracht en aangesloten. Maar nu blijkt dus dat proxmox host geen ip adres krijgt van de DHCP en de VM die er op draait wel.
Je zou namelijk stellen dat als de VM een ip kan krijgen, dat de host dat sowieso zou krijgen.
Hoe kan ik dat oplossen?
Dit is op te lossen door een scherm/toetsenbord aan te sluiten en in te loggen op proxmox en het IP adres aan te passen. Ik raad af om dhcp aan te zetten op proxmox.
Hoewel kan ik wel bekijken welk ip de proxmox machine heeft gekregen. De ip's in de dhcp tabel maken het er niet duidelijker op
inmiddels opgelost door handmatig het ip te wijzigen
[ Voor 11% gewijzigd door maomanna op 08-01-2020 17:24 ]
https://pvoutput.org/intraday.jsp?id=102416&sid=90116
Heb ik inderdaad eerst naar gekeken. Helaas zijn 2e hands Zen setjes vrijwel net zo duur als nieuwe Zen setjes. Je bespaart misschien 2 tientjes op een 2e hands 1600 of 2600 en voor die prijs heb je een AM3+ hexa/octocore + moederbord + RAM.ocf81 schreef op dinsdag 7 januari 2020 @ 15:45:
Als je iets nieuws draait, dan zal dat bijna zeker weten beter zijn. Overigens zou ik dan eerder voor een goedkoop AM4 systeem gaan omdat dat dan meer toekomstperspectief geeft. je kan goedkoop beginnen met een 2e hands Zen setje.
De extra rekenkracht vind ik niet zo interessant, maar TDP is eventueel wel een reden om over te stappen op AM4, omdat dat zowel bij die Core2Quad als bij de meeste AM3+ processoren vrij hoog ligt.
Overigens ben je de eerste in dit topic die LXC containers afraadt lijkt het, iedereen is er lyrisch over als ik zo het gemiddelde comment lees. Wat veroorzaakt volgens jou de hoofdpijn?
Bedankt voor je mirrored ZFS tip en de rest van je suggesties trouwens!
Ja, de running cost zal de TCO van een AM3+ systeem wel een stuk hoger maken. Maar er zit bij de AM3+ systemen ook een plafond aan het aantal cores, terwijl je met een goed B450 bordje ook 16 cores kan draaien als je dat ooit zal willen. Maar als je alleen naar wat je nu wil doen kijkt is je huidige systeem ook wel oké. Wellicht een beetje RAM erbij.Neophyte808 schreef op donderdag 9 januari 2020 @ 10:02:
[...]
Heb ik inderdaad eerst naar gekeken. Helaas zijn 2e hands Zen setjes vrijwel net zo duur als nieuwe Zen setjes. Je bespaart misschien 2 tientjes op een 2e hands 1600 of 2600 en voor die prijs heb je een AM3+ hexa/octocore + moederbord + RAM.
De extra rekenkracht vind ik niet zo interessant, maar TDP is eventueel wel een reden om over te stappen op AM4, omdat dat zowel bij die Core2Quad als bij de meeste AM3+ processoren vrij hoog ligt.
LXC zou in princiepe unpriviliged moeten kunnen draaien. Echter, bijna alle images van Turnkey moeten toch priviliged draaien en er zijn daarbuiten niet heel veel images beschikbaar. Dus als het gaat om priviliged vs unpriviliged dan is er geen groot verschil met Docker, welke standaard onder root draait. Als je dan gaat kijken naar wat er beschikbaar is aan images en hoe makkelijk het is om iets op te zetten, dan is Docker gewoon 10x beter. Qua beheer is het ook gewoon bijna een VM, dus op dat gebied is er ook geen groot voordeel.Neophyte808 schreef op donderdag 9 januari 2020 @ 10:02:
Overigens ben je de eerste in dit topic die LXC containers afraadt lijkt het, iedereen is er lyrisch over als ik zo het gemiddelde comment lees. Wat veroorzaakt volgens jou de hoofdpijn?
Bedankt voor je mirrored ZFS tip en de rest van je suggesties trouwens!
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Zit hier ook nog te dubben voor mijn nieuwe installatie. Wil zo min mogelijk HDD/SDDs gebruiken om het energieverbruik zo laag mogelijk te houden. Het plan is om 3 VMs te draaien: PFSense, Windows (voor RDS sessies vanaf zakelijke laptops) en een Linux docker omgeving (Plex, Nextcloud, HA, etc...)ocf81 schreef op dinsdag 7 januari 2020 @ 15:45:
- Één SSD kan technisch, maar is niet aan te raden. Proxmox vreet SSDs zonder trim zo op. Sinds kort is het mogelijk om trim te gebruiken en ik geloof dat het sinds 6.1 ook in Proxmox ondersteund wordt. Ik zou de 2 HDDs in mirrored ZFS doen. De writes zijn dan wel traag maar de reads zijn als bij RAID0.
Zat zelf te denken om alle VMs vanaf SSD te draaien en een 5TB HDD mass storage beschikbaar te maken via Passthrough aan nextcloud zodat deze het verder op het netwerk kan aanbieden. Backups van de data gaan naar een Synology en vind het niet erg de boel opnieuw te installeren mocht er een schijf kapot gaan.
Ben echter nog steeds huiverig om SSD in te zetten gezien alle verhalen dat deze binnen no-time kapot gaan. Kan ik wellicht beter een kleine HDD bijzetten om Proxmox te draaien en de VM images alleen op de SSD zetten? Hebben jullie tips of best practices?
All-electric | Deye 12KSG04LP3 met 2x Yixiang V2, 32x MB31 314 Ah | Panasonic Aquarea J 5kW | Tesla MY, SmartEVSE | 5.2 kWp PV | Proxmox met HomeAssistant, Docker host, PfSense, TrueNas & Mailcow
pricewatch: Intel 760p 256GB 3% 2.9TBW in 622 uur (zo goed als idle)
pricewatch: Intel DC P4510 1TB 0% 11.5TBW in 2,920 uur (licht tot matig gebruik)
pricewatch: Intel DC P4510 1TB 0% 21.8TBW in 1,381 uur (intensief gebruik)
pricewatch: Intel Optane 900P 2,5" (met U.2 kabelkit) 280GB 0% 34.2TBW in 12,726 uur (licht gebruik)
pricewatch: Micron 5100 MAX 240GB laat geen info los via SMART interessant genoeg (draait wel nog Proxmox 5.4 op).
Van dit setje verwacht ik dus dat de 760P als eerste er doorheen zal zijn in 6 tot 7 jaar, ondanks dat er niets noemenswaardigs op dat systeem draait (het is mn router). Het is ook ruim de goedkoopste uit mijn lijstje, waarbij ik nog meegenomen heb dat de opgegeven TBW nog wel aardig was (veel consumenten-SSD's scoren lager). De winnaar uit mijn rijtje lijkt me overduidelijk de P4510, welke ik ook van harte kan aanraden als deze binnen budget valt (en je 'm kan aansluiten).
Appelen en peren. LXC != Docker.ocf81 schreef op donderdag 9 januari 2020 @ 10:17:
[...]
Ja, de running cost zal de TCO van een AM3+ systeem wel een stuk hoger maken. Maar er zit bij de AM3+ systemen ook een plafond aan het aantal cores, terwijl je met een goed B450 bordje ook 16 cores kan draaien als je dat ooit zal willen. Maar als je alleen naar wat je nu wil doen kijkt is je huidige systeem ook wel oké. Wellicht een beetje RAM erbij.
[...]
LXC zou in princiepe unpriviliged moeten kunnen draaien. Echter, bijna alle images van Turnkey moeten toch priviliged draaien en er zijn daarbuiten niet heel veel images beschikbaar. Dus als het gaat om priviliged vs unpriviliged dan is er geen groot verschil met Docker, welke standaard onder root draait. Als je dan gaat kijken naar wat er beschikbaar is aan images en hoe makkelijk het is om iets op te zetten, dan is Docker gewoon 10x beter. Qua beheer is het ook gewoon bijna een VM, dus op dat gebied is er ook geen groot voordeel.
- Deze advertentie is geblokkeerd door Pi-Hole -
Mwah, Het zijn beide containerhosts. Als je een scheiding moet maken, dan is het voor mij op het punt waar je wel of geen hypervisor gaat gebruiken. LXC valt daarmee voor mij bij de containers en ik bekijk het ook vanuit dat oogpunt. En als containerhost is LXC gewoon ruk IMHO. LXC wordt op proxmox wel als dé containertechniek gepresenteerd. Geef mij maar Docker.
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Toch is het appels en peren, en zit IMO LXC korter tegen VM dan dat het bij Docker zit. LXC is immers een volledig Linux OS, alleen zonder kernel, die in zijn eigen container / runtime zit.ocf81 schreef op donderdag 9 januari 2020 @ 18:45:
[...]
Mwah, Het zijn beide containerhosts. Als je een scheiding moet maken, dan is het voor mij op het punt waar je wel of geen hypervisor gaat gebruiken. LXC valt daarmee voor mij bij de containers en ik bekijk het ook vanuit dat oogpunt. En als containerhost is LXC gewoon ruk IMHO. LXC wordt op proxmox wel als dé containertechniek gepresenteerd. Geef mij maar Docker.
Daar waar Docker is bedoelt voor single process / purpose.
Binnen LXC is het normaal om meerdere processen te draaien, een logging daemon (/syslog bv), SSH, etc. Binnen Docker is dat zwaar not done.
Dus ondanks dat zowel Docker als LXC gebruik maken van dezelfde technieken aangeboden door de Linux kernel is de filosofie compleet anders.
En wat ikzelf nogal irritant vind bij Docker + server is dat je niet (eenvoudig) meerdere interfaces / VLANs kunt gebruiken. Binnen mijn thuisnetwerk heb ik meerdere VLANs waarbij eentje voor IoT. Alle daaraan gerelateerde Docker containers wil ik dus in dat VLAN hebben. Maar daarvoor ben ik door flink wat hoepels moeten springen om dat überhaupt voor elkaar te krijgen. En gevolg daarvan is ook dat elke Docker container in dat netwerk nu direct beschikbaar is op een eigen uniek IP adres. Dus bv Home Assistant op 192.168.1.2, NodeRED op .3, Postgresql DB op .4, .... Niet echt handig dus. Terwijl je binnen LXC gewoon dat netwerk toekent aan de LXC container en alle processen in die container op hetzelfde IP zitten.
LXC daarentegen - in ieder geval op de manier zoals Proxmox het aanbiedt - biedt vooral lightweight VM's inclusief eigen init systemen etc. Waarbij het (nagenoeg) een heel eigen VM is, maar dan binnen de kernel van de hypervisor draait (en dus zonder eigen kernel).
No trees were harmed in creating this message. However, a large number of electrons were terribly inconvenienced.
[ Voor 14% gewijzigd door ocf81 op 09-01-2020 19:16 ]
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Hoe geef je elke container een eigen ip adres mee die extern binnen je lan te benaderen is (dus niet binnen het docker netwerk)?RobertMe schreef op donderdag 9 januari 2020 @ 18:59:
[...]
Maar daarvoor ben ik door flink wat hoepels moeten springen om dat überhaupt voor elkaar te krijgen. En gevolg daarvan is ook dat elke Docker container in dat netwerk nu direct beschikbaar is op een eigen uniek IP adres. Dus bv Home Assistant op 192.168.1.2, NodeRED op .3, Postgresql DB op .4, .... Niet echt handig dus. Terwijl je binnen LXC gewoon dat netwerk toekent aan de LXC container en alle processen in die container op hetzelfde IP zitten.
Ik gebruik docker-compose thuis en heb daar traefik voor draaien waardoor ik het abstraheer, maar als ik dat niet zou doen heb ik een ip adres (de docker-compose host vm) waarop alle containers draaien op verschillende poorten.
rachez schreef op donderdag 9 januari 2020 @ 19:28:
[...]
Hoe geef je elke container een eigen ip adres mee die extern binnen je lan te benaderen is (dus niet binnen het docker netwerk)?
Ik gebruik docker-compose thuis en heb daar traefik voor draaien waardoor ik het abstraheer, maar als ik dat niet zou doen heb ik een ip adres (de docker-compose host vm) waarop alle containers draaien op verschillende poorten.
Pfoe, goede vraag en zou ik ook weer in moeten duiken. Maar volgens mij was de techniek/basis mac-vlan. Je moet dan wat dingetjes met Linux zelf doen m.b.t. mac vlan om een extra netwerkinterface aan te maken maar ook zelf een docker netwerk aanmaken met de macvlan driver (i.p.v. de default bridge driver).
Interessante data en het verval valt me mee. De P4510 is inderdaad wat prijzig voor mijn systeem, dus ga op zoek naar een goede middenmoter. Bedanktdcm360 schreef op donderdag 9 januari 2020 @ 16:07:
Aangezien ik ook wel benieuwd was, hier een overzichtje van mijn SSD's waar Proxmox op staat:
pricewatch: Intel 760p 256GB 3% 2.9TBW in 622 uur (zo goed als idle)
pricewatch: Intel DC P4510 1TB 0% 11.5TBW in 2,920 uur (licht tot matig gebruik)
pricewatch: Intel DC P4510 1TB 0% 21.8TBW in 1,381 uur (intensief gebruik)
pricewatch: Intel Optane 900P 2,5" (met U.2 kabelkit) 280GB 0% 34.2TBW in 12,726 uur (licht gebruik)
pricewatch: Micron 5100 MAX 240GB laat geen info los via SMART interessant genoeg (draait wel nog Proxmox 5.4 op).
Van dit setje verwacht ik dus dat de 760P als eerste er doorheen zal zijn in 6 tot 7 jaar, ondanks dat er niets noemenswaardigs op dat systeem draait (het is mn router). Het is ook ruim de goedkoopste uit mijn lijstje, waarbij ik nog meegenomen heb dat de opgegeven TBW nog wel aardig was (veel consumenten-SSD's scoren lager). De winnaar uit mijn rijtje lijkt me overduidelijk de P4510, welke ik ook van harte kan aanraden als deze binnen budget valt (en je 'm kan aansluiten).
All-electric | Deye 12KSG04LP3 met 2x Yixiang V2, 32x MB31 314 Ah | Panasonic Aquarea J 5kW | Tesla MY, SmartEVSE | 5.2 kWp PV | Proxmox met HomeAssistant, Docker host, PfSense, TrueNas & Mailcow
Op zich niet heel vreemd, want je kunt je niet zomaar als mail-server gaan gedragen.
Het leek mij een logische aanpak om postfix zo in te stellen dat hij alle mail relay-ed naar een externe server.
Ik wil daar de smtp-server van xs4all voor gebruiken en heb een poging gedaan dat zo in te stellen dat hij middels starttls en mijn xs4all-credentials de mail daar aflevert.
Helaas nog geen succes.
/etc/postfix/main.cf
1
2
3
4
5
6
7
| relayhost = [smtp.xs4all.nl]:587 smtp_sasl_auth_enable = yes smtp_sasl_password_maps = hash:/etc/postfix/sasl_passwd smtp_sasl_security_options = noanonymous, noplaintext smtp_sasl_tls_security_options = smtp_tls_CApath = /etc/ssl/certs smtp_use_tls = yes |
in /etc/postfix/sasl_passwd heb ik staan:
1
| [smtp.xs4all.nl] username:wachtwoord |
en daarna heb ik postmap /etc/postfix/sasl_passwd gedraaid.
Volgens mij zou dat het moeten zijn, echter melding smtp-server van xs4all:
1
| relay=smtp.xs4all.nl[194.109.6.51]:587, delay=2.2, delays=0.01/0/1.1/1.1, dsn=5.1.0, status=bounced (host smtp.xs4all.nl[194.109.6.51] said: 550 5.1.0 Please authenticate using your username and password [181] (in reply to MAIL FROM command)) |
Wat zie ik over het hoofd (en hoe kan ik dit goed troubleshooten, wireshark helpt niet echt op TLS-verbindingen...)?
Als ik het me goed herinner moet je in sasl_passwd ook het poortnummer opgeven. Dus sasl_passwd moet zijn:ocaj schreef op donderdag 9 januari 2020 @ 22:36:
in /etc/postfix/sasl_passwd heb ik staan:
code:
1 [smtp.xs4all.nl] username:wachtwoord
en daarna heb ik postmap /etc/postfix/sasl_passwd gedraaid.
[/code]
Wat zie ik over het hoofd (en hoe kan ik dit goed troubleshooten, wireshark helpt niet echt op TLS-verbindingen...)?
1
| [smtp.xs4all.nl]:587 username:wachtwoord |
1
2
| postfix/smtp[18226]: warning: SASL authentication failure: No worthy mechs found Jan 10 06:43:23 pve postfix/smtp[18226]: 766AB1301E: to=<xxxxxx>, relay=smtp.xs4all.nl[2001:888:0:15::25]:587, delay=2.2, delays=0.01/0.02/2.2/0, dsn=4.7.0, status=deferred (SASL authentication failed; cannot authenticate to server smtp.xs4all.nl[2001:888:0:15::25]: no mechanism available) |
Aangezien postfix het met het poortnummer erbij het niet eens gaat proberen, en ik zonder het poortnummer een antwoord van de smtp-server krijg leek mij dat het toch zonder moet, maar misschien zet dat me op een dwaalspoor?
Maar als ik lees op http://www.postfix.org/SASL_README.html , dan zie ik daar trouwens inderdaad:
De laatste zin van dat stukje lijkt te zeggen dat het inderdaad met poortnummer moet.With the smtp_sasl_password_maps parameter, we configure the Postfix SMTP client to send username and password information to the mail gateway server. As discussed in the next section, the Postfix SMTP client supports multiple ISP accounts. For this reason the username and password are stored in a table that contains one username/password combination for each mail gateway server.
/etc/postfix/sasl_passwd:
# destination credentials
[mail.isp.example] username:password
# Alternative form:
# [mail.isp.example]:submission username:password
Important
Keep the SASL client password file in /etc/postfix, and make the file read+write only for root to protect the username/password combinations against other users. The Postfix SMTP client will still be able to read the SASL client passwords. It opens the file as user root before it drops privileges, and before entering an optional chroot jail.
Use the postmap command whenever you change the /etc/postfix/sasl_passwd file.
If you specify the "[" and "]" in the relayhost destination, then you must use the same form in the smtp_sasl_password_maps file.
If you specify a non-default TCP Port (such as ":submission" or ":587") in the relayhost destination, then you must use the same form in the smtp_sasl_password_maps file.
Maar dan moet ik dus zien uit te vinden waarom hij dan geen "worthy mechanisms" meer kan vinden....
Als ik zonder TLS connectie maak met smtp.xs4all.nl krijg ik:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
| ~$ telnet smtp.xs4all.nl 25 Trying 194.109.6.51... Connected to smtp.xs4all.nl. Escape character is '^]'. 220 smtp-cloud9.xs4all.net smtp-cloud9.xs4all.net ESMTP server ready EHLO xs4all.nl 250-smtp-cloud9.xs4all.net hello [91.213.195.40], pleased to meet you 250-HELP 250-AUTH LOGIN PLAIN 250-SIZE 157286400 250-ENHANCEDSTATUSCODES 250-8BITMIME 250-STARTTLS 250 OK |
Xs4all ondersteunt dus LOGIN en PLAIN. In jouw postfix config staat
1
| smtp_sasl_security_options = noanonymous, noplaintext |
Je sluit dus plaintext uit, maar LOGIN en PLAIN zijn beide plaintext mechanismes dacht ik. Komt ook overeen met de foutmelding dat er geen "worthy mechanisms" zijn.