Backups kunnen differentieel worden gemaakt en via een soort van filebrowser kun je in de backupbestanden kijken.
Sinds vandaag op een HP microserver gen8 met 16GB Proxmox geinstalleerd
Nu zit ik met verbazing te kijken hoe snel ik een LXC container in de lucht kreeg maar ik lees hier @A1AD
LXC met ZFS gebindmount en beheerd door de proxmox host.
wat betekent dat eerste?
Zelf werk ik op dit moment met VMs in ESXI die via NFS naar een NAS gaan voor de data
Dat wil ik dus vanaf de container en/of VM in Proxmox ook
En op basis van de containers zie ik al dat ik sneller bepaalde applicaties naast elkaar kan draaien zonder dat ze elkaar in de weg gaan zitten door CPU/Geheugen
Maar ik zou wel de juiste installatie keuze willen maken bij de inrichting van zo'n container in proxmox
Nu zit ik met verbazing te kijken hoe snel ik een LXC container in de lucht kreeg maar ik lees hier @A1AD
LXC met ZFS gebindmount en beheerd door de proxmox host.
wat betekent dat eerste?
Zelf werk ik op dit moment met VMs in ESXI die via NFS naar een NAS gaan voor de data
Dat wil ik dus vanaf de container en/of VM in Proxmox ook
En op basis van de containers zie ik al dat ik sneller bepaalde applicaties naast elkaar kan draaien zonder dat ze elkaar in de weg gaan zitten door CPU/Geheugen
Maar ik zou wel de juiste installatie keuze willen maken bij de inrichting van zo'n container in proxmox
There are no secrets, only information you do not yet have
Wat is nu concreet je vraag? Wat LXC is? Daar kan je best een hoop over vinden op google?
Of wat de beste container solution in Proxmox is?
Of hoe je zo'n LXC container daadwerkelijk inricht?
Of wat de beste container solution in Proxmox is?
Of hoe je zo'n LXC container daadwerkelijk inricht?
[ Voor 15% gewijzigd door FireDrunk op 22-07-2020 15:51 ]
Even niets...
nee wat isFireDrunk schreef op woensdag 22 juli 2020 @ 15:51:
Wat is nu concreet je vraag? Wat LXC is? Daar kan je best een hoop over vinden op google?
Of wat de beste container solution in Proxmox is?
Of hoe je zo'n LXC container daadwerkelijk inricht?
LXC met ZFS gebindmount en beheerd door de proxmox host.
There are no secrets, only information you do not yet have
LXC is een container techniek, ZFS (o.a.) een filesystem.
Elke container heeft zijn eigen 'root' nodig.
In Proxmox kan je die automatisch aan laten maken als een ZFS filesystem.
Dat managed Proxmox dan voor je. Hierdoor is elk filesystem van elke container een eigen ZFS filesystem.
Geeft je mooie features als snapshotten van je containers.
Elke container heeft zijn eigen 'root' nodig.
In Proxmox kan je die automatisch aan laten maken als een ZFS filesystem.
Dat managed Proxmox dan voor je. Hierdoor is elk filesystem van elke container een eigen ZFS filesystem.
Geeft je mooie features als snapshotten van je containers.
Even niets...
In zijn geval dat zijn file shares zoals door samba geserveerd vanuit een LXC container worden geregeld i.p.v. vanuit een VM (met passthrough schijven) zoals je het in ESXi doet en i.p.v. je samba shares vanuit je host laten serveren.zeroday schreef op woensdag 22 juli 2020 @ 15:52:
[...]
nee wat is
LXC met ZFS gebindmount en beheerd door de proxmox host.
Sinds de 2 dagen regel reageer ik hier niet meer
Ja wat @CurlyMo zegt.zeroday schreef op woensdag 22 juli 2020 @ 15:52:
[...]
nee wat is
LXC met ZFS gebindmount en beheerd door de proxmox host.
Ik heb een SSD die enkel als datastore dient voor het rootfs van de LXC containers.
Daarnaast heb ik een grote Raidz2 pool beheerd door de Proxmox host. Op die pool staan verschillende datasets waar de verschillende LXCs aan moeten kunnen.
Bvb: download lxc moet aan mijn media dataset kunnen, plex moet ook aan die dataset kunnen.
Om alles zo efficient mogelijk te maken "bind mounten" we de datatsets in de LXC container, zo kan je met je LXC aan de data op de ZFS host zonder gebruik te moeten maken van NFS of Samba oid.
2de vb: dataset voor nextcloud data is gemound in de nextcloud LXC en in de backup LXC
[ Voor 5% gewijzigd door A1AD op 22-07-2020 21:14 ]
- Deze advertentie is geblokkeerd door Pi-Hole -
Ah helder .. niet iets wat gedaan wordt in de GUI zo lijkt het.A1AD schreef op woensdag 22 juli 2020 @ 21:12:
[...]
Ja wat @CurlyMo zegt.
Ik heb een SSD die enkel als datastore dient voor het rootfs van de LXC containers.
Daarnaast heb ik een grote Raidz2 pool beheerd door de Proxmox host. Op die pool staan verschillende datasets waar de verschillende LXCs aan moeten kunnen.
Bvb: download lxc moet aan mijn media dataset kunnen, plex moet ook aan die dataset kunnen.
Om alles zo efficient mogelijk te maken "bind mounten" we de datatsets in de LXC container, zo kan je met je LXC aan de data op de ZFS host zonder gebruik te moeten maken van NFS of Samba oid.
2de vb: dataset voor nextcloud data is gemound in de nextcloud LXC en in de backup LXC
https://pve.proxmox.com/w...tainer#_bind_mount_points
maar dat is iets om een keer uit te zoeken
Het was al even een dingetje om NFS, Apache2 te laten starten in een LXC. Dus wat dat betreft geeft Proxmox een kleine leercurve met het instellen van dingen
There are no secrets, only information you do not yet have
Klopt, en met unprivileged container ook even opletten met rechten. Maar daar heeft CurlyMo een heldere uitleg over geschreven in dit topic.zeroday schreef op woensdag 22 juli 2020 @ 21:21:
[...]
Ah helder .. niet iets wat gedaan wordt in de GUI zo lijkt het.
https://pve.proxmox.com/w...tainer#_bind_mount_points
maar dat is iets om een keer uit te zoeken
- Deze advertentie is geblokkeerd door Pi-Hole -
ik heb even een simpele test gedaan met een folder om die te binden aan een container vanuit proxmoxA1AD schreef op donderdag 23 juli 2020 @ 13:37:
[...]
Klopt, en met unprivileged container ook even opletten met rechten. Maar daar heeft CurlyMo een heldere uitleg over geschreven in dit topic.
Sjee als je even weet wat de regel moet zijn is dat ook makkelijk.
Dat gaat me weer wat mounts schelen om een certificaat over de verschillende containers te verspreiden
Over rechten maak ik me geen zorgen: alles is huis tuin gebruik zonder ingang van het internet.
There are no secrets, only information you do not yet have
en ik maar denken dat het verschil tussen privileged and uprivileged iets was als een 0 in de config zetten ipv de 1 .. het is dat ik aan het testen was maar anders was ik even droevig gewordenA1AD schreef op donderdag 23 juli 2020 @ 13:37:
[...]
Klopt, en met unprivileged container ook even opletten met rechten. Maar daar heeft CurlyMo een heldere uitleg over geschreven in dit topic.
Nu 5 containertjes aan het draaien om te zien of het werkt
sabnzbd v3
sonarr v3
heimdal
wildcard certificaat op proxmox doorgegeven via bind mount
en nog wat andere meuk
Easy peacy..
There are no secrets, only information you do not yet have
Je kan altijd een backup maken en bij het restoren kiezen voor al dan niet unpirvileged.zeroday schreef op zaterdag 25 juli 2020 @ 09:21:
[...]
en ik maar denken dat het verschil tussen privileged and uprivileged iets was als een 0 in de config zetten ipv de 1 .. het is dat ik aan het testen was maar anders was ik even droevig gewordenDat bleek dus niet zo te zijn ..
- Deze advertentie is geblokkeerd door Pi-Hole -
Ja klopt, maar daarvoor had ik denk ik al teveel kapot gemaakt, want toen kreeg ik allemaal userID errors bij het uitpakken/terugzetten en was de container ineens foetsieA1AD schreef op zaterdag 25 juli 2020 @ 09:23:
[...]
Je kan altijd een backup maken en bij het restoren kiezen voor al dan niet unpirvileged.
[ Voor 4% gewijzigd door zeroday op 25-07-2020 10:12 ]
There are no secrets, only information you do not yet have
Ik heb een Fujitsu D3644-B moederbord met daarop Proxmox, en wil graag SATA hot plugging gebruiken (/beschikbaar hebben voor als een drive zou falen). Echter lijkt dit niet te werken. Als ik een schijf aansluit of uit trek dat blijft die gewoon beschikbaar (/zichtbaar als /dev/sdX etc). Hot plugging heb ik in het moederbord uiteraard ingeschakeld, en in eerste instantie dacht ik dan ook dat hardwarematig (/bios config) wat mis ging. Maar ik heb zojuist even mij USB stick met Arch Linux ingeprikt en dan zie ik wel na een aantal seconden dat de drive wordt toegevoegd of verwijderd. Dus het probleem lijkt dan toch in Proxmox te zitten. Ik heb al gegoogled op Proxmox sata hot plug, maar helaas zonder resultaat. Zijn er hier dus die mij in de juiste richting kunnen wijzen?
@RobertMe Je moet een sata rescan doen na je acties. Dat doet die niet automatisch.
Sinds de 2 dagen regel reageer ik hier niet meer
Gekke is dan dus wel dat het wel werkt met Arch Linux (gebruikte ik zowel op oude hardware, als nu dan met die USB stick). Wellicht dat powertop roet in het eten gooit en een periodieke scan stopt?CurlyMo schreef op zondag 26 juli 2020 @ 11:27:
@RobertMe Je moet een sata rescan doen na je acties. Dat doet die niet automatisch.
Zit dus inderdaad in powertop en niet in Proxmox: RobertMe in "Het grote zuinige server topic - deel 2"RobertMe schreef op zondag 26 juli 2020 @ 11:36:
[...]
Gekke is dan dus wel dat het wel werkt met Arch Linux (gebruikte ik zowel op oude hardware, als nu dan met die USB stick). Wellicht dat powertop roet in het eten gooit en een periodieke scan stopt?
:strip_exif()/f/image/KOcJ26IXKcUg1IxbcazHE5eH.jpg?f=fotoalbum_large)
Wanneer ik op _console druk binnen proxmox waarbij ik een LXC container wil benaderen dan krijg ik in de GUI van het beheerconsole binnen proxmox een ' connection ' failed. Dubbelklik ik dan opent een nieuw window en wordt er wel een geldige connectie opgezet. Ook als ik naar NOVNC ga dan krijg ik een terminal, alleen ik vind het vaag waarom het systeem zonder die 'popup' een connectie failed aangeeft, terwijl bij andere LXC containers het wel goed werkt. Ben dus even zoekende wat er fout is gegaan of wat ik wellicht fout doe.
Ik heb tevens de qemu agent geinstalleerd maar in het beheer van proxmox zie ik bij de LXC containers niet wat het IP adres is van de machine terwijl als ik een Windows VM heb dit wel getoond wordt.
is er een mogelijkheid om de IP automatisch in de GUI van proxmox te zien ? zonder dat ik dat bijv. zelf handmatig in de notes zet?
mm bij de LXC containers zie ik dat de agent niet start
A dependency job for qemu-guest-agent.service failed
uhh..
[ Voor 4% gewijzigd door zeroday op 27-07-2020 08:34 ]
There are no secrets, only information you do not yet have
QEMU en LXC zijn twee verschillende dingen. QEMU is een techniek voor virtual machines. LXC is een vorm van containers. Dat QEMU niet werkt binnen een LXC container is an zich dus niet heel gek. Beetje hetzelfde als dat bv de VirtualBox guest additions niet werken binnen een QEMU VM. Ander virtualisatieplatform dus ook daarbij snapt de een de ander niet.zeroday schreef op maandag 27 juli 2020 @ 08:30:
Ik heb tevens de qemu agent geinstalleerd maar in het beheer van proxmox zie ik bij de LXC containers niet wat het IP adres is van de machine terwijl als ik een Windows VM heb dit wel getoond wordt.
is er een mogelijkheid om de IP automatisch in de GUI van proxmox te zien ? zonder dat ik dat bijv. zelf handmatig in de notes zet?
mm bij de LXC containers zie ik dat de agent niet start
A dependency job for qemu-guest-agent.service failed
uhh..
En naar mijn idee stel je juist bij LXC eerder een static IP in (is ook de default). Dus dan kun je in het config tabje terug vinden welk IP adres je hebt ingesteld voor de interface..
Duidelijk.RobertMe schreef op maandag 27 juli 2020 @ 08:58:
[...]
QEMU en LXC zijn twee verschillende dingen. QEMU is een techniek voor virtual machines. LXC is een vorm van containers. Dat QEMU niet werkt binnen een LXC container is an zich dus niet heel gek. Beetje hetzelfde als dat bv de VirtualBox guest additions niet werken binnen een QEMU VM. Ander virtualisatieplatform dus ook daarbij snapt de een de ander niet.
En naar mijn idee stel je juist bij LXC eerder een static IP in (is ook de default). Dus dan kun je in het config tabje terug vinden welk IP adres je hebt ingesteld voor de interface..
dat de shell btw niet werkt is m.i. een time-out van een sessie, ga ik naar Summary en keer ik dan terug dan doet ie het wel.
Weer wat geleerd op deze eerste werkdag van de week
There are no secrets, only information you do not yet have
Maak gewoon een ssh sessie naar je pve host zelf en doe dan: pct list gevolgd door pct enter "lxcid"zeroday schreef op maandag 27 juli 2020 @ 09:11:
[...]
Duidelijk.
dat de shell btw niet werkt is m.i. een time-out van een sessie, ga ik naar Summary en keer ik dan terug dan doet ie het wel.
Weer wat geleerd op deze eerste werkdag van de week
- Deze advertentie is geblokkeerd door Pi-Hole -
da's een optieA1AD schreef op maandag 27 juli 2020 @ 09:24:
[...]
Maak gewoon een ssh sessie naar je pve host zelf en doe dan: pct list gevolgd door pct enter "lxcid"
There are no secrets, only information you do not yet have
Daar heb ik ook veel last van gehad, ik dacht dat het iets met het self-signed certificaat te maken had. Niet elke browser vond het leuk om dat in de 'achtergrond' te doen, terwijl het in een popup wel mocht.zeroday schreef op maandag 27 juli 2020 @ 08:30:
[Afbeelding]
Wanneer ik op _console druk binnen proxmox waarbij ik een LXC container wil benaderen dan krijg ik in de GUI van het beheerconsole binnen proxmox een ' connection ' failed. Dubbelklik ik dan opent een nieuw window en wordt er wel een geldige connectie opgezet. Ook als ik naar NOVNC ga dan krijg ik een terminal, alleen ik vind het vaag waarom het systeem zonder die 'popup' een connectie failed aangeeft, terwijl bij andere LXC containers het wel goed werkt. Ben dus even zoekende wat er fout is gegaan of wat ik wellicht fout doe.
*knip*
Misschien even Firefox <-> Chrome proberen (doorhalen wat je al gebruikt
Niet helemaal, QEMU was 'vroegah' een Emulator, het kon al Virtualisation voordat CPU's het konden, volledig in Software. Daar zijn later de qemu-kvm extensions aan toegevoegd om emulatie te doen met behulp van die extra functies in de CPU's.RobertMe schreef op maandag 27 juli 2020 @ 08:58:
[...]
QEMU en LXC zijn twee verschillende dingen. QEMU is een techniek voor virtual machines. LXC is een vorm van containers. Dat QEMU niet werkt binnen een LXC container is an zich dus niet heel gek. Beetje hetzelfde als dat bv de VirtualBox guest additions niet werken binnen een QEMU VM. Ander virtualisatieplatform dus ook daarbij snapt de een de ander niet.
En naar mijn idee stel je juist bij LXC eerder een static IP in (is ook de default). Dus dan kun je in het config tabje terug vinden welk IP adres je hebt ingesteld voor de interface..
QEMU in de basis is vooral een emulator, en snapt vooral dingen over het delen van devices, disks, ISO's, en nog wat meer.
Hoewel qemu-kvm tegenwoordig volgens mij gewoon vast onderdeel is van qemu, is qemu in de basis niet verplicht een Virtualisatie platform
De Hypervisor extensies van de linux kernel, komen ook niet van QEMU bijvoorbeeld, maar QEMU gebruikt ze wel.
libvirtd, de meest gebruikte management tooling onder Linux, gebruikt standaard qemu, en Proxmox gebruikt zijn eigen schil rondom qemu (geen libvirtd dacht ik).
[ Voor 38% gewijzigd door FireDrunk op 27-07-2020 10:39 ]
Even niets...
Heb al een goede workaround voor mezelf nu.FireDrunk schreef op maandag 27 juli 2020 @ 10:36:
[...]
Daar heb ik ook veel last van gehad, ik dacht dat het iets met het self-signed certificaat te maken had. Niet elke browser vond het leuk om dat in de 'achtergrond' te doen, terwijl het in een popup wel mocht.
Misschien even Firefox <-> Chrome proberen (doorhalen wat je al gebruikt)
Heb geen self-signed certificaat, ik heb op proxmox een wildcard lets encrypt certificaat geïnstalleerd. Die heb ik vanuit de acme.sh folder gemount intern naar /export/certificate en die bind mount ik dan door naar de LXC's
enige nadeel bij de wildcard is dat ik elke keer een DNS challenge moet aanpassen in mijn DNS, maar dat is 2 minuten werk. het vernieuwen is dan 2 shell regels
daar heb ik al meer leren leven
There are no secrets, only information you do not yet have
Installeer dan gewoon Traefik of een andere Let's Encrypt proxy 
Proxmox' systeem daar voor misbruiken lijkt me ook onhandig.
Proxmox' systeem daar voor misbruiken lijkt me ook onhandig.
Even niets...
Dan is mijn antwoord: dank voor de tip, maar ik moest NU iets hebben en niet iets waar ik me nog in moet verdiepenFireDrunk schreef op maandag 27 juli 2020 @ 10:51:
Installeer dan gewoon Traefik of een andere Let's Encrypt proxy
Proxmox' systeem daar voor misbruiken lijkt me ook onhandig.
en dat moest ongeveer werken zoals het in mijn andere omgeving(en) ook werkt.
dat er verschillende wegen naar rome leiden weet ik, maar ik zou niet weten waarom dat onhandig zou zijn. Maar ik ga dat maar even van je aannemen want waarschijnlijk ben je dat traject al gepasseerd.
NB (ik gebruik proxmox in een thuis omgeving) dus als er iets mis gaat heeft dat niet direct heftige gevolgen voor de mensheid.
There are no secrets, only information you do not yet have
Begrijp ik, het is vooral een risico om die private key te delen met veel VM's / Containers.
Ook is het vernieuwen van het certificaat mogelijk onhandig, maar als je de plek van dat certificaat deelt, zou je er omheen moeten kunnen werken. Lang niet alle applicaties vinden het leuk, als je het certificaat wijzigt terwijl de applicatie de file open heeft.
Maar om op je probleem terug te komen, als je een signed certificaat hebt, zou dat dus niet het probleem van je falende verbinding moeten veroorzaken.
Wat zegt F12 (Developers Console in Firefox en Chrome) terwijl je op die Console knop klikt?
Ook is het vernieuwen van het certificaat mogelijk onhandig, maar als je de plek van dat certificaat deelt, zou je er omheen moeten kunnen werken. Lang niet alle applicaties vinden het leuk, als je het certificaat wijzigt terwijl de applicatie de file open heeft.
Maar om op je probleem terug te komen, als je een signed certificaat hebt, zou dat dus niet het probleem van je falende verbinding moeten veroorzaken.
Wat zegt F12 (Developers Console in Firefox en Chrome) terwijl je op die Console knop klikt?
Even niets...
Tsja. proxmox geeft nu geen enkele issue meer op 2 verschillende systemen als ik proxmox GUI benader en dan naar de _Console ga. Alles doet ie weer exact wat ie moet doen ook op het systeem die de melding gaf.. Ik hou het even in mijn achterhoofd.FireDrunk schreef op maandag 27 juli 2020 @ 11:19:
Begrijp ik, het is vooral een risico om die private key te delen met veel VM's / Containers.
Ook is het vernieuwen van het certificaat mogelijk onhandig, maar als je de plek van dat certificaat deelt, zou je er omheen moeten kunnen werken. Lang niet alle applicaties vinden het leuk, als je het certificaat wijzigt terwijl de applicatie de file open heeft.
Maar om op je probleem terug te komen, als je een signed certificaat hebt, zou dat dus niet het probleem van je falende verbinding moeten veroorzaken.
Wat zegt F12 (Developers Console in Firefox en Chrome) terwijl je op die Console knop klikt?
De enige applicatie die het certificaat gebruikt is of een node process of een apache/nginx proces. Die moet je dan even restarten om het nieuwe certificaat te laten gebruiken. Sofar altijd goed gewerkt.
There are no secrets, only information you do not yet have
Voor mijn nieuwe server zit ik te denken aan het draaien van ProxMox; ik zie een aantal opties voorbij komen dat je het van een USB stick kan draaien maar ook een aantal die een ZFS mirror gemaakt hebben, zoals hier bijvoorbeeld: YouTube: Home Networking: 100TB 10Gbit Server - Installing Proxmox and basic ...
Wat is het risico als je ProxMox op een USB stick draait t.o.v. het installeerd op 2 SSD disks? Ben je bij een corrupte USB stick je hele setup kwijt?
Stel ik wil het wel op 2x SSDs installeren; dan heb ik nog steeds 6 SATA poorten nodig voor mijn disks (waarschijnlijk start ik eerst met 5x WD-RED in RAID-Z2 ==> ~10.4TB beschikbaar)
Het huidige gekochte (maar niet niet binnen zijnde) moederbord is een Fujitsu D3644-B; die heeft 2 NVME slots maar ik weet niet of ik beide voor een harddisk kan gebruiken. Een alternatief zou misschien een Asus P11C-X zijn.
Tips/alternatieven?
Wat is het risico als je ProxMox op een USB stick draait t.o.v. het installeerd op 2 SSD disks? Ben je bij een corrupte USB stick je hele setup kwijt?
Stel ik wil het wel op 2x SSDs installeren; dan heb ik nog steeds 6 SATA poorten nodig voor mijn disks (waarschijnlijk start ik eerst met 5x WD-RED in RAID-Z2 ==> ~10.4TB beschikbaar)
Het huidige gekochte (maar niet niet binnen zijnde) moederbord is een Fujitsu D3644-B; die heeft 2 NVME slots maar ik weet niet of ik beide voor een harddisk kan gebruiken. Een alternatief zou misschien een Asus P11C-X zijn.
Tips/alternatieven?
Misschien een domme vraag, maar waarom 1 USB stick, of 2 SSDs in mirror? Je kunt het toch ook op 1 SSD draaien.xces schreef op maandag 27 juli 2020 @ 14:13:
Voor mijn nieuwe server zit ik te denken aan het draaien van ProxMox; ik zie een aantal opties voorbij komen dat je het van een USB stick kan draaien maar ook een aantal die een ZFS mirror gemaakt hebben, zoals hier bijvoorbeeld: YouTube: Home Networking: 100TB 10Gbit Server - Installing Proxmox and basic ...
Wat is het risico als je ProxMox op een USB stick draait t.o.v. het installeerd op 2 SSD disks? Ben je bij een corrupte USB stick je hele setup kwijt?
Stel ik wil het wel op 2x SSDs installeren; dan heb ik nog steeds 6 SATA poorten nodig voor mijn disks (waarschijnlijk start ik eerst met 5x WD-RED in RAID-Z2 ==> ~10.4TB beschikbaar)
Het huidige gekochte (maar niet niet binnen zijnde) moederbord is een Fujitsu D3644-B; die heeft 2 NVME slots maar ik weet niet of ik beide voor een harddisk kan gebruiken.
Overigens ondersteund dat moederbord maar 1 NVME SSD (en ook alleen NVME SSDs, en geen SATA SSDs met M.2 aansluiting). Het moederbord heeft wel 2 M.2 slots, waarvan 1 voor een NVME SSD, en een voor bv een wifi module (IIRC, in ieder geval "een andere M.2 variant"). Dan zou je dus een NVME PCIe insteekkaart moeten bijplaatsen (uit China te krijgen voor een paar euro). Dan kun je wel twee NVME SSDs gebruiken (een rechtstreeks op het moederbord, en de ander via die PCIe kaart).
En wat ik zelf heb gedaan is alles geinstalleerd met ZFS, en dan nog een pool op HDDs. De rpool van op de SSD repliceer ik vervolgens naar de HDDs en that's it. Mocht de SSD overleiden, tsja, shit happens en moet ik een nieuwe erin zetten en de rpool van backup terug zetten. De VMs & containers heb ik dan dus wel lekker snel vanaf een SSD draaien, en de "veiligheid" voor uitval door te backuppen naar HDD.
Ga je van op een USB stick draaien dan ga je waarschijnlijk ook alles (VMs / containers) vanaf de HDDs draaien, en qua performance kan dat lijkt mij wel eens minder zijn. Of je moet dus al Proxmox zelf op USB zetten, vervolgens de VMs & containers op een SSD, en de bulk opslag op HDDs. Maar vraag is dan of je het jezelf niet onnodig complex maakt.
Edit:
Even snel gekeken, maar deze is nog minder dan de Fujitsu? Deze heeft wel 2 M.2 slots waar je een SSD in kunt plaatsen, maar een van beide ondersteund alleen SATA, en de ander wel SATA en NVME. Maar er staat ook bij dat als je SATA gebruikt op de M.2 slots dat dan een corresponderende SATA poort wordt uitgeschakeld. Dus je kunt ook op dat bord maar 1 M.2 NVME drive gebruiken met 6 SATA poorten, of 1 of 2 M.2 SATA SSDs maar dan kun je ook maar 5 of 4 SATA poorten gebruiken. Dus effectief heb je dan hetzelfde als de Fujitsu. Je kunt geen M.2 SATA SSDs gebruiken (tenzij je niet meer 6 SATA poorten wilt gebruiken).Een alternatief zou misschien een Asus P11C-X zijn.
[ Voor 15% gewijzigd door RobertMe op 27-07-2020 14:38 ]
Ok, ik snap wat je zegt maar nog niet hoe je het gedaan hebt 
Correct me if i'm wrong:
- Je hebt bij de installatie van proxmox gekozen voor een RAID0 op je SSD disk die op je moederbord zit.
- OS + VMS + Containers draaien dan vanaf de SSD.
- Bevat de rpool (google leert me: Root Pool) alle configuratie van de Proxmox installatie? Kun je hierover uitwijden hoe je die dan backupped?
Correct me if i'm wrong:
- Je hebt bij de installatie van proxmox gekozen voor een RAID0 op je SSD disk die op je moederbord zit.
- OS + VMS + Containers draaien dan vanaf de SSD.
- Bevat de rpool (google leert me: Root Pool) alle configuratie van de Proxmox installatie? Kun je hierover uitwijden hoe je die dan backupped?
Waarom zou je niet gewoon alles op een SSD mirror zetten. Als die te klein is, dan zet je de LXC containers / VM's toch (deels) op je datapool?
Sinds de 2 dagen regel reageer ik hier niet meer
@CurlyMo omdat ik een hybride docker + nas server zou willen maken.
Voor de storage pool zou ik voor nu mijn 4x WD RED 4TB disks willen gebruiken; en misschien koop ik er nog 1 bij. Docker images trek ik op dat moment wel opnieuw van internet. Eigen docker images bouw ik met een script zo weer op.
Momenteel was mijn server een single node docker server; maar zonder NAS storage. Voordelen van Proxmox zouden zijn dat deze mijn pool in de gaten kunnen houden als er een disk kapot gaat enzv.
Dan zou ik in proxmox VE meerdere VMs willen draaien op Ubuntu en daarop Docker draaien - ik begreep dat dit de 'way to go' is.
edit: als docker image kan ik dan evt crashplan draaien die een bepaald deel van de storage pool naar internet backupped.
Voor de storage pool zou ik voor nu mijn 4x WD RED 4TB disks willen gebruiken; en misschien koop ik er nog 1 bij. Docker images trek ik op dat moment wel opnieuw van internet. Eigen docker images bouw ik met een script zo weer op.
Momenteel was mijn server een single node docker server; maar zonder NAS storage. Voordelen van Proxmox zouden zijn dat deze mijn pool in de gaten kunnen houden als er een disk kapot gaat enzv.
Dan zou ik in proxmox VE meerdere VMs willen draaien op Ubuntu en daarop Docker draaien - ik begreep dat dit de 'way to go' is.
edit: als docker image kan ik dan evt crashplan draaien die een bepaald deel van de storage pool naar internet backupped.
[ Voor 9% gewijzigd door xces op 27-07-2020 15:12 ]
Als het je puur om het draaien van Docker gaat kun je IMO net zo goed Ubuntu of Debian gebruiken, met ZFS als filesystem.xces schreef op maandag 27 juli 2020 @ 15:12:
@CurlyMo omdat ik een hybride docker + nas server zou willen maken.
Voor de storage pool zou ik voor nu mijn 4x WD RED 4TB disks willen gebruiken; en misschien koop ik er nog 1 bij. Docker images trek ik op dat moment wel opnieuw van internet. Eigen docker images bouw ik met een script zo weer op.
Momenteel was mijn server een single node docker server; maar zonder NAS storage. Voordelen van Proxmox zouden zijn dat deze mijn pool in de gaten kunnen houden als er een disk kapot gaat enzv.
Dan zou ik in proxmox VE meerdere VMs willen draaien op Ubuntu en daarop Docker draaien - ik begreep dat dit de 'way to go' is.
edit: als docker image kan ik dan evt crashplan draaien die een bepaald deel van de storage pool naar internet backupped.
Zelf draai ik vervolgens wel ook grotendeels alles in Docker, maar ik heb dan wel meerdere containers / VMs die allemaal in een eigen VLAN hangen. Met Docker is dat een stuk lastiger in te regelen om de ene set containers in het ene VLAN te plaatsen en een andere set containers in een ander VLAN. Maar tot nu toe heb ik verschillende jaren een Arch Linux installatie gedraaid, ook met ZFS, en dan Docker daar op. Alleen liep ik dan dus tegen "probleem" aan dat alles in hetzelfde VLAN zat (of met macvlan alles aan eigen netwerk interface hangen maar dan krijgt elke Docker container zijn eigen IP wat ook verre van ideaal is).
@RobertMe ik heb gestoeid met meerdere VLANs en alhoewel het werkte ben ik me ook af gaan vragen wat het toegevoegde nut (voor mij) ervan was. Ik maak nu mijn netwerk aan met dit commando;
Pre's voor proxmox zouden dan voor mij zijn:
* Docker in swarm mode kunnen draaien met meerdere VMs op zelfde hardware
* Dat proxmox de volumes in de gaten houd en mailt als er iets met de pools aan de hand is
* Geen custom setup van het core OS nodig buiten de proxmox installatie.
Toch?
code:
1
2
3
4
5
| if [ ! "$(docker network ls | grep -w halan)" ]; then echo "- Creating ..." docker network create -d macvlan --subnet=192.168.1.0/24 --gateway=192.168.1.1 -o parent=eth0 halan sleep 2 fi |
Pre's voor proxmox zouden dan voor mij zijn:
* Docker in swarm mode kunnen draaien met meerdere VMs op zelfde hardware
* Dat proxmox de volumes in de gaten houd en mailt als er iets met de pools aan de hand is
* Geen custom setup van het core OS nodig buiten de proxmox installatie.
Toch?
[ Voor 0% gewijzigd door xces op 27-07-2020 15:33 . Reden: quote !== code ]
Nginx script met loadbalancing/failover wat ik zelf gebruik (proxmox nodes zitten in een lokaal subnet)FireDrunk schreef op maandag 27 juli 2020 @ 10:51:
Installeer dan gewoon Traefik of een andere Let's Encrypt proxy
Proxmox' systeem daar voor misbruiken lijkt me ook onhandig.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
| upstream proxmox { server <IP1>:8006; server <IP2>:8006; server <IP3>:8006; # Keep the connection sticky (otherwise the noVNC console redirection will only work randomly). ip_hash; keepalive 1; } server { server_name proxmox.xxx.nl; listen 80; listen [::]:80; rewrite ^(.*) https://$host$1 permanent; access_log /var/log/nginx/proxmox.access.log; error_log /var/log/nginx/proxmox.error.log; } server { listen 443 ssl http2; listen [::]:443 ssl http2; server_name proxmox.xxx.nl; ssl on; ssl_certificate /etc/letsencrypt/live/proxmox.xxx.nl/fullchain.pem; # managed by Certbot ssl_certificate_key /etc/letsencrypt/live/proxmox.xxx.nl/privkey.pem; # managed by Certbot access_log /var/log/nginx/proxmox.access.log; error_log /var/log/nginx/proxmox.error.log; proxy_redirect off; location / { proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection "upgrade"; proxy_buffering off; client_max_body_size 0; proxy_connect_timeout 3600s; proxy_read_timeout 3600s; proxy_send_timeout 3600s; send_timeout 3600s; proxy_pass https://proxmox; } } |
Voor de mensen hier die op Proxmox ook hun router hebben draaien. Hebben jullie nog iets qua High Availability ingesteld zodat een fysieke backup router het kan overnemen? Of hoe zien jullie dat risico?
Sinds de 2 dagen regel reageer ik hier niet meer
Ik heb op mijn server o.a. opnsense draaien, waar middels een dubbele NIC het internet binnenkomt (WAN) en eruit gaat (LAN). Als de server uit gaat, wat natuurlijk als het goed is niet veel voorkomt, ligt het internet ook eruit. Helaas, jammer dan. Als het echt nodig is, kan ik de twee kabels die naar de NIC gaan nog aan elkaar koppelen om zo een fysieke bypass te maken. Risico is niet zo groot, als het niet werkt is er geen man overboord.CurlyMo schreef op vrijdag 31 juli 2020 @ 15:31:
Voor de mensen hier die op Proxmox ook hun router hebben draaien. Hebben jullie nog iets qua High Availability ingesteld zodat een fysieke backup router het kan overnemen? Of hoe zien jullie dat risico?
Hier ongeveer zelfde verhaal als @Sandolution .CurlyMo schreef op vrijdag 31 juli 2020 @ 15:31:
Voor de mensen hier die op Proxmox ook hun router hebben draaien. Hebben jullie nog iets qua High Availability ingesteld zodat een fysieke backup router het kan overnemen? Of hoe zien jullie dat risico?
Ik draai hier nu sinds het voorjaar van 2019 een Shuttle DH310 met daarin een Core i3-8100 en 16 GB RAM, met daarop ook OPNSense als 'main router' in een KVM VM.
De vNIC voor LAN komt gewoon uit een 'traditionele' bridge op het host OS met daarin ook de fysieke NIC.
De fysieke NIC voor WAN wordt via VT-d/pcie-passthrough direct aan de OPNSense VM gegeven.
Dit draait, na het initieel wel wat tweaken aan kernel settings in OPNSense, 100% stabiel. De enige downtime die ik tot dusver heb gehad is van updates aan Proxmox danwel OPNSense, of een enkele storing bij de internetprovider. En de 1 Gbps van mijn verbinding bij Tweak wordt met gemak gedraaid.
Wel is het verder nog vrij 'rustig' op de server. Behalve Proxmox draait er op dit moment alleen een LXC met Nightscout (een NodeJS server waar bloedglucosewaarden van m'n vriendin haar glucosesensor vanuit haar smartphone naartoe worden gestuurd). Ik had veel 'grotere' plannen met de Proxmox machine, maar het ontbreekt me door de gezinssituatie verder nogal aan tijd en motivatie
Maar goed, mocht er in deze setup ooit eens iets echt falen, dan ligt er nog wel ergens een routertje op zolder dat ik in no time in het netwerk kan hangen om snel weer een voorziening voor internet te hebben.
Marstek Venus 5.12kWh v151, CT003 V114 DSMR4, PV 11xEnphase IQ7+ Z-O, 5xEnphase IQ7+ N-W - ~4,7Wp theoretisch, ~3,5Wp praktijk
Ik heb 2 pve machines, de "backup" pve machine draait 2 openwrt lxc's (main en gasten) en dient als ZFS backup target van de main machine. De openwrt lxc's zijn gesynced met de main machine dmv pve-zsync elk 15min.CurlyMo schreef op vrijdag 31 juli 2020 @ 15:31:
Voor de mensen hier die op Proxmox ook hun router hebben draaien. Hebben jullie nog iets qua High Availability ingesteld zodat een fysieke backup router het kan overnemen? Of hoe zien jullie dat risico?
Als de backup pve onderhoudt nodig heeft start ik de routers op de main.
- Deze advertentie is geblokkeerd door Pi-Hole -
Ik krijg het toch niet helemaal werkend. Mijn glasvezel komt binnen op VLAN 34 en mijn netwerk loopt over VLAN 1. Ik heb dus twee netwerk adapters aangemaakt:
Ik kan verbinden met mijn glasvezel provider, de DHCP server doet het ook prima, alleen krijgen mijn clients geen internet verbinding. Moet ik nog iets speciaals doen om een forward te doen tussen LAN en WAN?
Ik draai overigens OpenWRT.
De OpenWRT LXC container heeft ook gewoon internet verbinding.
Daarbovenop vraag ik me af wat je met het IP adres doet van Proxmox zelf en de OpenWRT LXC container. Krijgen die beide een statisch ip adres? Je wil namelijk niet dat Proxmox onbereikbaar is als de OpenWRT LXC container niet start.
code:
1
2
| net0: name=eth0,bridge=vmbr0,hwaddr=XX:XX:XX:XX:XX,ip=10.0.0.1/24,ip6=dhcp,tag=1,type=veth net1: name=wan0,bridge=vmbr0,hwaddr=XX:XX:XX:XX:XX,ip=dhcp,ip6=dhcp,tag=34,type=veth |
Ik kan verbinden met mijn glasvezel provider, de DHCP server doet het ook prima, alleen krijgen mijn clients geen internet verbinding. Moet ik nog iets speciaals doen om een forward te doen tussen LAN en WAN?
Ik draai overigens OpenWRT.
De OpenWRT LXC container heeft ook gewoon internet verbinding.
Daarbovenop vraag ik me af wat je met het IP adres doet van Proxmox zelf en de OpenWRT LXC container. Krijgen die beide een statisch ip adres? Je wil namelijk niet dat Proxmox onbereikbaar is als de OpenWRT LXC container niet start.
[ Voor 20% gewijzigd door CurlyMo op 31-07-2020 22:41 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Wat heb je gewijzigd? Hier draait het 99% stabiel, met uitzondering dat heel af en toe de verbinding naar WAN 'bevriest' zonder entries in de log. Een herstart van de vm is dan wel voldoende om het weer aan de gang te krijgen. Heb nog niet kunnen achterhalen waar dat aan kan liggen. Wellicht kan jouw tweak iets veranderen daaraan.eymey schreef op vrijdag 31 juli 2020 @ 16:39:
[...]
Dit draait, na het initieel wel wat tweaken aan kernel settings in OPNSense, 100% stabiel.
Mijn netwerk staat altijd op DHCP in de proxmox gui. Fixed adressen config ik dan verder in OpenWRT. Ik meen me te herinneren dat er een dingetje was hiermee.CurlyMo schreef op vrijdag 31 juli 2020 @ 20:16:
Ik krijg het toch niet helemaal werkend. Mijn glasvezel komt binnen op VLAN 34 en mijn netwerk loopt over VLAN 1. Ik heb dus twee netwerk adapters aangemaakt:
code:
1 2 net0: name=eth0,bridge=vmbr0,hwaddr=XX:XX:XX:XX:XX,ip=10.0.0.1/24,ip6=dhcp,tag=1,type=veth net1: name=wan0,bridge=vmbr0,hwaddr=XX:XX:XX:XX:XX,ip=dhcp,ip6=dhcp,tag=34,type=veth
Ik kan verbinden met mijn glasvezel provider, de DHCP server doet het ook prima, alleen krijgen mijn clients geen internet verbinding. Moet ik nog iets speciaals doen om een forward te doen tussen LAN en WAN?
Ik draai overigens OpenWRT.
De OpenWRT LXC container heeft ook gewoon internet verbinding.
Daarbovenop vraag ik me af wat je met het IP adres doet van Proxmox zelf en de OpenWRT LXC container. Krijgen die beide een statisch ip adres? Je wil namelijk niet dat Proxmox onbereikbaar is als de OpenWRT LXC container niet start.
Config main router:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
| arch: amd64 cores: 2 hostname: oWRT-Main memory: 256 net0: name=eth1,bridge=vmbr1,hwaddr=5E:1A:B0:B9:F0:D5,ip=dhcp,ip6=dhcp,type=veth net1: name=eth10,bridge=vmbr0,hwaddr=9A:2B:42:7D:6F:A2,ip=dhcp,ip6=dhcp,tag=10,type=veth net2: name=eth52,bridge=vmbr1,hwaddr=BE:1D:06:44:2B:DC,ip=dhcp,ip6=dhcp,tag=52,type=veth net6: name=eth666,bridge=vmbr0,hwaddr=A6:CE:60:3B:98:FF,ip=dhcp,ip6=dhcp,tag=666,type=veth net7: name=eth50,bridge=vmbr0,hwaddr=76:81:FE:2A:61:1B,tag=50,type=veth onboot: 1 ostype: unmanaged rootfs: local-zfs:subvol-117-disk-0,size=4G swap: 0 unprivileged: 1 lxc.include: /usr/share/lxc/config/openwrt.common.conf lxc.include: /usr/share/lxc/config/common.conf lxc.cap.drop: sys_admin lxc.mount.entry: tmp tmp tmpfs rw,nodev,relatime,mode=1777 0 0 |
Config gasten router
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
| arch: amd64 cores: 2 hostname: oWRT-Gasten memory: 256 net0: name=eth0,bridge=vmbr1,hwaddr=42:3A:CF:1A:2F:ED,ip=dhcp,type=veth net1: name=eth10,bridge=vmbr0,hwaddr=EA:3A:22:13:70:ED,ip=dhcp,ip6=dhcp,tag=10,type=veth net2: name=eth53,bridge=vmbr1,hwaddr=0A:18:AF:07:D0:8E,ip=dhcp,ip6=dhcp,tag=53,type=veth net3: name=eth54,bridge=vmbr1,hwaddr=B6:41:34:9A:D1:12,ip=dhcp,ip6=dhcp,tag=54,type=veth net4: name=eth55,bridge=vmbr1,hwaddr=12:00:82:CB:F8:53,ip=dhcp,ip6=dhcp,tag=55,type=veth onboot: 1 ostype: unmanaged rootfs: local-zfs:subvol-118-disk-1,size=4G swap: 0 unprivileged: 1 lxc.include: /usr/share/lxc/config/common.conf lxc.cap.drop: sys_admin lxc.mount.entry: tmp tmp tmpfs rw,nodev,relatime,mode=1777 0 0 |
Ik heb 2 fysieke netwerk kaarten in de host beide gebridged (VMBR1 en VMBR0)
Beide zitten in de smartswitch, vmbr0 wordt gebruikt voor de WAN tag (10), de DMZ tag (666) en de tag voor het publieke wifi (50). vmbr1 voor de verschillende client netwerken. (52,53,54,55).
De lan maak je dan static langs de OpenWRT kant:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| config interface 'lanadmin' option ifname 'eth1' option proto 'static' option ipaddr '192.168.1.1' option netmask '255.255.255.0' option delegate '0' option type 'bridge' config interface 'LANSTUDIO' option proto 'static' option ifname 'eth54' option type 'bridge' option netmask '255.255.255.0' option delegate '0' option ipaddr '10.30.54.1' |
al dan niet met DHCP enabled:
code:
1
2
3
4
5
6
7
8
9
| config dhcp 'lanadmin' option interface 'lan' option ignore '1' config dhcp 'LANSTUDIO' option interface 'LANSTUDIO' option start '150' option leasetime '4h' option limit '170' |
De PVE hosts zitten in vlan1 mijn mgmnt vlan enkel met fixed IP's. Ik heb op mijn switchen telkens een poort beschikbaar untagged in die vlan plus de verschillende wifi ap's zenden een SSID uit in deze vlan met een belachelijk moeilijk ww met WPA3. Genoeg mogelijkheden om met de mgmnt vlan te verbinden indien er iets gebeurd met de routers.
Routing tussen main en gasten router gebeurd ook via deze vlan.
- Deze advertentie is geblokkeerd door Pi-Hole -
Als je OpenWRT LXC container op een of andere manier niet opkomt, dan kan je dus ook niet verbinden met Proxmox, omdat die geen IP toegewezen krijgt?A1AD schreef op zaterdag 1 augustus 2020 @ 09:53:
[...]
Mijn netwerk staat altijd op DHCP in de proxmox gui. Fixed adressen config ik dan verder in OpenWRT. Ik meen me te herinneren dat er een dingetje was hiermee.
Sinds de 2 dagen regel reageer ik hier niet meer
Jawel, lees mijn laatste paragraaf?CurlyMo schreef op zaterdag 1 augustus 2020 @ 10:34:
[...]
Als je OpenWRT LXC container op een of andere manier niet opkomt, dan kan je dus ook niet verbinden met Proxmox, omdat die geen IP toegewezen krijgt?
Of bedoel je iets anders?De PVE hosts zitten in vlan1 mijn mgmnt vlan enkel met fixed IP's. Ik heb op mijn switchen telkens een poort beschikbaar untagged in die vlan plus de verschillende wifi ap's zenden een SSID uit in deze vlan met een belachelijk moeilijk ww met WPA3. Genoeg mogelijkheden om met de mgmnt vlan te verbinden indien er iets gebeurd met de routers.
Edit: routing tussen de client vlans en de mgmnt vlan zal dan uiteraard niet werken. Vandaar dat ik dan rechstreeks op vlan1 zal verbinden met laptop en fixed ip.
[ Voor 10% gewijzigd door A1AD op 01-08-2020 10:57 ]
- Deze advertentie is geblokkeerd door Pi-Hole -
Omdat de IP's dan nog altijd van een router moeten komen, die dan niet werkt. Fixed of niet.A1AD schreef op zaterdag 1 augustus 2020 @ 10:55:
[...]
Jawel, lees mijn laatste paragraaf?
Of bedoel je iets anders?
Sinds de 2 dagen regel reageer ik hier niet meer
CurlyMo schreef op zaterdag 1 augustus 2020 @ 12:04:
[...]
Omdat de IP's dan nog altijd van een router moeten komen, die dan niet werkt. Fixed of niet.
In geval van router down steek ik mijn laptop in het zelfde layer2 netwerk als de pve en geef ik hem(laptop) een fixed ip.
[ Voor 12% gewijzigd door A1AD op 01-08-2020 13:17 ]
- Deze advertentie is geblokkeerd door Pi-Hole -
Ok, dus proxmox zelf een fixed IP, en je containers en VM's DHCP. Ik las dat je alle vaste IP adressen vanuit OpenWRT liet komen:A1AD schreef op zaterdag 1 augustus 2020 @ 13:13:
[...]
nee toch... als je pve een fixed ip heeft en je laptop ook een fixed ip (in geval van router down) kan je er toch gewoon aan. Je hebt toch geen routers nodig om een netwerk bereikbaar te maken.
In geval van router down steek ik mijn laptop in het zelfde layer2 netwerk als de pve en geef ik hem een fixed ip.
Kan je je Proxmox hoofd netwerk config plaatsen?A1AD schreef op zaterdag 1 augustus 2020 @ 09:53:
[...]
Mijn netwerk staat altijd op DHCP in de proxmox gui. Fixed adressen config ik dan verder in OpenWRT.
Sinds de 2 dagen regel reageer ik hier niet meer
Proxmox heeft bij mij inderdaad altijd een fixed IP, de netwerk interfaces in de OpenWRT LXC staan op DHCP gezien vanuit de Proxmox GUI maar ik maak er wel static interfaces van in de config van OpenWRT.CurlyMo schreef op zaterdag 1 augustus 2020 @ 13:17:
[...]
Ok, dus proxmox zelf een fixed IP, en je containers en VM's DHCP. Ik las dat je alle vaste IP adressen vanuit OpenWRT liet komen:
De andere VM's en LXC"s kies je zelf, ik heb meestal een kleine DHCP range (100-150 oid) voor clients en een fixed "range" voor vaste spullen zoals AP's en LXC's.
vb: 1-10 routers, 11 - 20 AP's, 20-50 LXC's, ... 100-150 DHCP.
PVE netwerk:CurlyMo schreef op zaterdag 1 augustus 2020 @ 13:17:
[...]
Kan je je Proxmox hoofd netwerk config plaatsen?
:strip_exif()/f/image/LdI9IR4jF0MIiKZFFDypRN0B.jpg?f=fotoalbum_large)
oWRT-Gasten:
:strip_exif()/f/image/tKVn4qIYDiIdQap6A4FN3zsZ.jpg?f=fotoalbum_large)
oWRT-Main:
:strip_exif()/f/image/ZhK8grAg22vMTn9ic5LYElSo.jpg?f=fotoalbum_large)
Op mijn hoofd server staan beide oWRT's klaar om gestart te worden indien de andere server faalt:
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/lEqnis037ZroOVPCtFN2g4Kw.jpg?f=user_large)
- Deze advertentie is geblokkeerd door Pi-Hole -
En die overige LXC containers staan ook allemaal op DHCP?
Sinds de 2 dagen regel reageer ik hier niet meer
De meeste op fixed. Ik heb het niet zo voor DHCP als het over servers gaat. Ik vind het ook veel overzichtelijker om het IP van de LXC te zien in de Proxmox GUI en dat kan voorlopig enkel als je hem fixed instelt.CurlyMo schreef op zaterdag 1 augustus 2020 @ 13:35:
En die overige LXC containers staan ook allemaal op DHCP?
Fixed: duidelijk zichtbaar, DHCP niet:
:strip_exif()/f/image/goCiN4s6QQMC1zIpT2Ppb8fk.jpg?f=fotoalbum_large)
Ik gebruik PHPIPAM (lxc) als IP beheer tool.
- Deze advertentie is geblokkeerd door Pi-Hole -
Aha nu begrijp ik de verwarring. Nee ik spreek over echte statische IP's en geen fixed DHCP leases!CurlyMo schreef op zaterdag 1 augustus 2020 @ 13:17:
[...]
Ok, dus proxmox zelf een fixed IP, en je containers en VM's DHCP. Ik las dat je alle vaste IP adressen vanuit OpenWRT liet komen:
- Deze advertentie is geblokkeerd door Pi-Hole -
Om het e.e.a. te testen probeer ik het volgende wat dus ook al niet werkt.
Bridge0: Hoofd netwerk 10.0.0.*
Bridge1: Intern netwerk voor proxmox containers 192.168.0.*
Alle containers zitten sowieso in het Bridge1 netwerk. Dat levert de snelste verbinding op tussen containers. Ze zitten ook in Bridge0 netwerk zodat er vanaf buiten de Proxmox host verbinding te maken is met de containers en ze internet toegang hebben.
Ik dacht eens te gaan experimenten met een forward in de OpenWRT container. Hiervoor heb ik dus een container aangemaakt die enkel toegang heeft tot het Bridge1 netwerk. Via de OpenWRT container zou ik graag het Bridge0 en Bridge1 willen verbinden zodat containers die alleen toegang hebben tot het Bridge1 netwerk alsnog bij apparaten uit het Bridge0 netwerk kunnen.
Dit om mijn setup voor te bereiden op de situatie waarin in internet toegang laat regelen vanuit de Proxmox OpenWRT instantie.
Bridge0: Hoofd netwerk 10.0.0.*
Bridge1: Intern netwerk voor proxmox containers 192.168.0.*
Alle containers zitten sowieso in het Bridge1 netwerk. Dat levert de snelste verbinding op tussen containers. Ze zitten ook in Bridge0 netwerk zodat er vanaf buiten de Proxmox host verbinding te maken is met de containers en ze internet toegang hebben.
Ik dacht eens te gaan experimenten met een forward in de OpenWRT container. Hiervoor heb ik dus een container aangemaakt die enkel toegang heeft tot het Bridge1 netwerk. Via de OpenWRT container zou ik graag het Bridge0 en Bridge1 willen verbinden zodat containers die alleen toegang hebben tot het Bridge1 netwerk alsnog bij apparaten uit het Bridge0 netwerk kunnen.
Dit om mijn setup voor te bereiden op de situatie waarin in internet toegang laat regelen vanuit de Proxmox OpenWRT instantie.
Sinds de 2 dagen regel reageer ik hier niet meer
Waarom de keuze voor een intern netwerk en niet gewoon je hoofdnetwerk? Puur om een WAN - LAN situatie na te bootsen of zit er meer achter? Toon is wat config files, wat heb je getest? Wat lukt er juist niet? Traceroutes?CurlyMo schreef op zaterdag 1 augustus 2020 @ 21:14:
Om het e.e.a. te testen probeer ik het volgende wat dus ook al niet werkt.
Bridge0: Hoofd netwerk 10.0.0.*
Bridge1: Intern netwerk voor proxmox containers 192.168.0.*
Alle containers zitten sowieso in het Bridge1 netwerk. Dat levert de snelste verbinding op tussen containers. Ze zitten ook in Bridge0 netwerk zodat er vanaf buiten de Proxmox host verbinding te maken is met de containers en ze internet toegang hebben.
Ik dacht eens te gaan experimenten met een forward in de OpenWRT container. Hiervoor heb ik dus een container aangemaakt die enkel toegang heeft tot het Bridge1 netwerk. Via de OpenWRT container zou ik graag het Bridge0 en Bridge1 willen verbinden zodat containers die alleen toegang hebben tot het Bridge1 netwerk alsnog bij apparaten uit het Bridge0 netwerk kunnen.
Dit om mijn setup voor te bereiden op de situatie waarin in internet toegang laat regelen vanuit de Proxmox OpenWRT instantie.
- Deze advertentie is geblokkeerd door Pi-Hole -
CheckA1AD schreef op zaterdag 1 augustus 2020 @ 21:53:
[...]
Waarom de keuze voor een intern netwerk en niet gewoon je hoofdnetwerk? Puur om een WAN - LAN situatie na te bootsen of zit er meer achter?
Proxmox
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
| auto lo iface lo inet loopback auto eno1 iface eno1 inet manual auto vmbr0 iface vmbr0 inet static address 10.0.0.101/24 gateway 10.0.0.1 bridge-ports eno1 bridge-stp off bridge-fd 0 bridge-vlan-aware yes bridge-vids 2-4094 auto vmbr1 iface vmbr1 inet static address 192.168.0.101/24 bridge-ports none bridge-stp off bridge-fd 0 |
OpenWRT container:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
| arch: amd64 cores: 1 hostname: openwrt memory: 512 net0: name=eth0,bridge=vmbr0,hwaddr=XX:XX:XX:XX:XX,ip=dhcp,ip6=dhcp,tag=1,type=veth net1: name=wan0,bridge=vmbr0,hwaddr=XX:XX:XX:XX:XX,ip=dhcp,ip6=dhcp,tag=34,type=veth net2: name=eth1,bridge=vmbr1,firewall=1,hwaddr=XX:XX:XX:XX:XX,ip=dhcp,ip6=dhcp,type=veth onboot: 1 ostype: unmanaged rootfs: local-zfs:subvol-114-disk-0,size=8G startup: order=1,up=1,down=30 swap: 512 unprivileged: 1 lxc.mount.entry: /dev/net dev/net none bind,create=dir |
Test container
code:
1
2
3
4
5
6
7
8
9
| arch: amd64 cores: 1 hostname: test memory: 512 net0: name=eth0,bridge=vmbr1,firewall=1,hwaddr=XX:XX:XX:XX:XX,ip=dhcp,ip6=dhcp,type=veth ostype: debian rootfs: local-zfs:subvol-102-disk-1,size=8G swap: 512 unprivileged: 1 |
OpenWRT /etc/config/network
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
| config interface 'loopback' option ifname 'lo' option proto 'static' option ipaddr '127.0.0.1' option netmask '255.0.0.0' config globals 'globals' option ula_prefix 'fde8:5375:6a04::/48' config interface 'lan' option type 'bridge' option ifname 'eth0' option proto 'static' option netmask '255.255.255.0' option ipaddr '10.0.0.1' option ip6assign '64' config interface 'WAN' option ifname 'wan0' option proto 'dhcp' option peerdns '0' option auto '0' config interface 'WAN6' option ifname 'wan0' option proto 'dhcpv6' option reqaddress 'try' option reqprefix 'auto' option auto '0' config interface 'INT' option proto 'static' option ifname 'eth1' option ipaddr '192.168.0.1' option netmask '255.255.255.0' |
OpenWRT /etc/config/firewall
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
| config defaults option syn_flood '1' option input 'ACCEPT' option output 'ACCEPT' option forward 'REJECT' config zone option name 'lan' option input 'ACCEPT' option output 'ACCEPT' option forward 'ACCEPT' option network 'lan' config zone option name 'int' option input 'ACCEPT' option output 'ACCEPT' option forward 'ACCEPT' option network 'int INT' config zone option name 'wan' option input 'REJECT' option output 'ACCEPT' option forward 'REJECT' option masq '1' option mtu_fix '1' option network 'wan wan6 WAN WAN6' config forwarding option src 'lan' option dest 'wan' config forwarding option src 'int' option dst 'lan' config forwarding option dest 'lan' option src 'int' |
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
| # traceroute 10.0.0.142 traceroute to 10.0.0.142 (10.0.0.142), 30 hops max, 60 byte packets 1 OpenWrt.lan (192.168.0.1) 0.104 ms 0.043 ms 0.028 ms 2 * * * 3 * * * 4 * * * 5 * * * 6 * * * 7 * * * 8 * * * 9 * * * 10 * * * 11 * * * 12 * * * 13 * * * 14 * * * 15 * * * 16 * * * 17 * * * 18 * * * 19 * * * 20 * * * 21 * * * 22 * * * 23 * * * 24 * * * 25 * * * 26 * * * 27 * * * 28 * * * 29 * * * 30 * * * |
[ Voor 7% gewijzigd door CurlyMo op 01-08-2020 22:47 ]
Sinds de 2 dagen regel reageer ik hier niet meer
@CurlyMo ik kan vanaf vandaag moeilijk aan mijn systeem en notities voor 2 weken.
Kijk is naar de verschillen tussen onze openwrt config file. En ik zou je proxmox firewall uitzetten op je lxc interfaces?
Kijk is naar de verschillen tussen onze openwrt config file. En ik zou je proxmox firewall uitzetten op je lxc interfaces?
code:
1
2
3
4
| lxc.include: /usr/share/lxc/config/openwrt.common.conf lxc.include: /usr/share/lxc/config/common.conf lxc.cap.drop: sys_admin lxc.mount.entry: tmp tmp tmpfs rw,nodev,relatime,mode=1777 0 0 |
[ Voor 33% gewijzigd door A1AD op 02-08-2020 09:26 ]
- Deze advertentie is geblokkeerd door Pi-Hole -
DIt werkt 
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
| config defaults option syn_flood '1' option input 'ACCEPT' option output 'ACCEPT' option forward 'REJECT' config zone option name 'lan' option input 'ACCEPT' option output 'ACCEPT' option forward 'ACCEPT' option network 'lan' config include option path '/etc/firewall.user' config zone option input 'ACCEPT' option name 'INT' option output 'ACCEPT' option network 'INT' option forward 'ACCEPT' config forwarding option dest 'lan' option src 'INT' config forwarding option dest 'INT' option src 'lan' config nat option src 'lan' option src_ip '192.168.0.0/24' option target 'MASQUERADE' |
Sinds de 2 dagen regel reageer ik hier niet meer
Yeah, ik heb mijn poor man's server in de lucht! Afgelopen weekend had ik wat tijd om mijn Deskmini 310 om te toveren tot Proxmox server. Hiervoor gebruikte ik een Raspberry Pi maar dat is nu ik erop terug kijk een enorme pruts boel geweest met Docker en macvlan's en meer. Het is wellicht wat minder lean maar zoveel malen overzichtelijker en eenvoudiger op te zetten.
Ik ben voornemens om ook met Proxmox aan de gang te gaan. Ik heb helemaal niet veel nodig, maar lekker aanklooien is wel leuk!
Huidige situatie:
HP Microserver Gen8, 4 disken met hardware raid 1 config. Baremetal Ubuntu server met bijna de gehele configuratie in Docker containers. Shares, software, alles zit in containers (stuk of 25). Qua data staan er de gebruikelijke films/series op, maar ook de foto's die mijn vrouw maakt. Backuppen doe ik via Duplicati naar de cloud én een extra USB-disk.
Nieuw bedachte situatie:
HP Prodesk G3 400, 2.5" disk voor Proxmox local storage (LXC/VM) en een m.2 voor de data. 1 LXC (Home Assistant) zal ongeveer 1/3 van de huidige Docker containers voor zijn rekening nemen en heeft ook meteen zijn eigen interne back-up oplossing. Back-ups van de LXC worden via Duplicati of gewoon rsync naar de USB-disk gekopieerd. De andere containers wil ik in het leven brengen door een Ubuntu server VM te maken waarin ik wederom met Docker aan de gang ga. Backuppen van de data kan wedereom via Duplicati. So far, so good dacht ikzelf.
Ik heb echter een (onhandige?) usecase bedacht: Ik wil de mediabestanden niet in de VM hebben. Ik heb bedacht dat ik al die data op de m.2 disk wil en via bijvoorbeeld een NFS share in mijn VM beschikbaar wil hebben. Op die manier kan ik via Duplicati de foto's nog steeds back-uppen naar de cloud en zijn de mediabestanden ook bereikbaar voor eventuele andere VM's. En ze maken de VMDK (geen idee wat het proxmox equivalent is?) niet onnodig groot.
Ik heb bovenstaande werkend. m.2 disk gemount, NFS share aangemaakt, gemount in de VM en dat werkt top, voor zover ik kan inschatten. Samba share via een container op die VM en ook op die manier is de data eenvoudig bereikbaar vanuit een Windows computer. Ik vraag me alleen af, kan dit handiger/slimmer? Bang voor dataverlies ben ik niet echt. De foto's staan op 4 plekken (Servertje, USB-disk, cloud, back-up van mijn vrouw). Alle andere data is niet van levenbelang en is alleen onhandig als het kwijtraakt.
Huidige situatie:
HP Microserver Gen8, 4 disken met hardware raid 1 config. Baremetal Ubuntu server met bijna de gehele configuratie in Docker containers. Shares, software, alles zit in containers (stuk of 25). Qua data staan er de gebruikelijke films/series op, maar ook de foto's die mijn vrouw maakt. Backuppen doe ik via Duplicati naar de cloud én een extra USB-disk.
Nieuw bedachte situatie:
HP Prodesk G3 400, 2.5" disk voor Proxmox local storage (LXC/VM) en een m.2 voor de data. 1 LXC (Home Assistant) zal ongeveer 1/3 van de huidige Docker containers voor zijn rekening nemen en heeft ook meteen zijn eigen interne back-up oplossing. Back-ups van de LXC worden via Duplicati of gewoon rsync naar de USB-disk gekopieerd. De andere containers wil ik in het leven brengen door een Ubuntu server VM te maken waarin ik wederom met Docker aan de gang ga. Backuppen van de data kan wedereom via Duplicati. So far, so good dacht ikzelf.
Ik heb echter een (onhandige?) usecase bedacht: Ik wil de mediabestanden niet in de VM hebben. Ik heb bedacht dat ik al die data op de m.2 disk wil en via bijvoorbeeld een NFS share in mijn VM beschikbaar wil hebben. Op die manier kan ik via Duplicati de foto's nog steeds back-uppen naar de cloud en zijn de mediabestanden ook bereikbaar voor eventuele andere VM's. En ze maken de VMDK (geen idee wat het proxmox equivalent is?) niet onnodig groot.
Ik heb bovenstaande werkend. m.2 disk gemount, NFS share aangemaakt, gemount in de VM en dat werkt top, voor zover ik kan inschatten. Samba share via een container op die VM en ook op die manier is de data eenvoudig bereikbaar vanuit een Windows computer. Ik vraag me alleen af, kan dit handiger/slimmer? Bang voor dataverlies ben ik niet echt. De foto's staan op 4 plekken (Servertje, USB-disk, cloud, back-up van mijn vrouw). Alle andere data is niet van levenbelang en is alleen onhandig als het kwijtraakt.
Om te beginnen, waar heb je een VM voor nodig wat met een LXC niet kan?lolgast schreef op dinsdag 4 augustus 2020 @ 10:19:
Ik heb echter een (onhandige?) usecase bedacht: Ik wil de mediabestanden niet in de VM hebben.
Sinds de 2 dagen regel reageer ik hier niet meer
@CurlyMo Wat te denken van Docker icm NFS
(
)
LXC is géén alternatief voor mijn Docker omgeving. Ik wil containers. Ik vind de manier van updaten + zooi bij elkaar kunnen gooien te fijn
Dat lukt me niet in een LXC. Het is óf NFS, óf Docker (unpriviliged + keyctl=1)

LXC is géén alternatief voor mijn Docker omgeving. Ik wil containers. Ik vind de manier van updaten + zooi bij elkaar kunnen gooien te fijn
Dat lukt me niet in een LXC. Het is óf NFS, óf Docker (unpriviliged + keyctl=1)
Of een LXC container voor je dockers? Zolang je de LXC container maar alle rechten geeft die je vervolgens met docker weer inperkt.lolgast schreef op dinsdag 4 augustus 2020 @ 10:50:
@CurlyMo Wat te denken van Docker icm NFS(
)
LXC is géén alternatief voor mijn Docker omgeving. Ik wil containers. Ik vind de manier van updaten + zooi bij elkaar kunnen gooien te fijn
Dat lukt me niet in een LXC. Het is óf NFS, óf Docker (unpriviliged + keyctl=1)
Sinds de 2 dagen regel reageer ik hier niet meer
@CurlyMo Snap ik wat je bedoelt als ik het volgende zeg:
Jij bedoelt, een LXC maken en daarin de benodigde software installeren, ipv een VM maken en daar Docker containers in deployen?
Want dan komen we bij mijn punt dat ik de flexibiliteit van de containers niet wil opofferen. Er komen +/- 15 containers in die VM te draaien. Van webservers, reverse proxy software tot DSMR reader.
LXC is een super mooie techniek en voor Home Assistant ga ik het zeker gebruiken ipv mijn huidige Docker container. Maar vanwege het eenvoudig updaten van bijvoorbeeld NGINX naar de nieuwste versie, even een Wordpress omgeving deployen of het draaien van 2 AdGuard instances wil ik Docker niet opofferen
Jij bedoelt, een LXC maken en daarin de benodigde software installeren, ipv een VM maken en daar Docker containers in deployen?
Want dan komen we bij mijn punt dat ik de flexibiliteit van de containers niet wil opofferen. Er komen +/- 15 containers in die VM te draaien. Van webservers, reverse proxy software tot DSMR reader.
LXC is een super mooie techniek en voor Home Assistant ga ik het zeker gebruiken ipv mijn huidige Docker container. Maar vanwege het eenvoudig updaten van bijvoorbeeld NGINX naar de nieuwste versie, even een Wordpress omgeving deployen of het draaien van 2 AdGuard instances wil ik Docker niet opofferen
Ik zeg, een LXC container maken en daarin docker draaien.lolgast schreef op dinsdag 4 augustus 2020 @ 11:00:
@CurlyMo Snap ik wat je bedoelt als ik het volgende zeg:
Jij bedoelt, een LXC maken en daarin de benodigde software installeren, ipv een VM maken en daar Docker containers in deployen?
Sinds de 2 dagen regel reageer ik hier niet meer
@CurlyMo Ah, ik zit weer op je golflengte 
Prima, dat kan natuurlijk. Ik heb zojuist een debian 10 LXC gemaakt en daarin draait inderdaad ook Docker nu. Los van het feit dat een LXC wat minder resource intensief is dan een complete VM, mijn bedachte constructie blijft staan natuurlijk. NFS share op de proxmox host, mounten in LXC en gaan met die banaan?
Prima, dat kan natuurlijk. Ik heb zojuist een debian 10 LXC gemaakt en daarin draait inderdaad ook Docker nu. Los van het feit dat een LXC wat minder resource intensief is dan een complete VM, mijn bedachte constructie blijft staan natuurlijk. NFS share op de proxmox host, mounten in LXC en gaan met die banaan?
Zoek even hier in het topic naar bind mounts.lolgast schreef op dinsdag 4 augustus 2020 @ 11:14:
@CurlyMo Ah, ik zit weer op je golflengte
Prima, dat kan natuurlijk. Ik heb zojuist een debian 10 LXC gemaakt en daarin draait inderdaad ook Docker nu. Los van het feit dat een LXC wat minder resource intensief is dan een complete VM, mijn bedachte constructie blijft staan natuurlijk. NFS share op de proxmox host, mounten in LXC en gaan met die banaan?
Sinds de 2 dagen regel reageer ik hier niet meer
NFS is niet nodig, je kunt een bind mount doen. Ik weet even niet of dat via de Web UI kan of alleen via de CLI.lolgast schreef op dinsdag 4 augustus 2020 @ 11:14:
@CurlyMo Ah, ik zit weer op je golflengte
Prima, dat kan natuurlijk. Ik heb zojuist een debian 10 LXC gemaakt en daarin draait inderdaad ook Docker nu. Los van het feit dat een LXC wat minder resource intensief is dan een complete VM, mijn bedachte constructie blijft staan natuurlijk. NFS share op de proxmox host, mounten in LXC en gaan met die banaan?
Maar je kunt een map van uit Proxmox dus direct ("op kernel niveau") delen met LXC.
Grappig ik vind juist de LXC containers prettiger werken dan Docker containers. Voor AdGuard home en PiHole kun je bijvoorbeeld de update functie gebruiken binnen de applicatie zelf i.p.v. eerst container sluiten, purgen en dan opnieuw je Docker container opbouwen met een yaml file of Portainer container data. Verder vond ik ook het gedoe met macvlan’s omslachtig in vergelijking met Proxmox om aparte ip-adressen per container te krijgen.
Just a docker-compose pull && docker-compose up -d awayMiki schreef op dinsdag 4 augustus 2020 @ 11:28:
Voor AdGuard home en PiHole kun je bijvoorbeeld de update functie gebruiken binnen de applicatie zelf i.p.v. eerst container sluiten, purgen en dan opnieuw je Docker container opbouwen met een yaml file of Portainer container data.
Macvlan met Docker is idd een bitch. Maar nu heb ik meerdere LXC containers, elk in het juiste VLAN, en dan daarin Docker draaien. De docker containers hebben dan wel 1 IP i.p.v. stuk voor stuk een eigen IP (want Home-Assistant, Node-Red, Mosquitto, UniFi Controller, Pi-Hole, ... allemaal hun eigen IP is ook weer zoiets).Verder vond ik ook het gedoe met macvlan’s omslachtig in vergelijking met Proxmox om aparte ip-adressen per container te krijgen.
Nu heb ik dus bv een LXC container voor IoT weer dan de Docker containers voor HA, NR, Mosquitto in draaien en een andere LXC container, in VLAN dat altijd over VPN gaat, voor het downloaden van Linux ISOs (
Edit:
Meer offtopic. Grote voordeel van Docker vind ikzelf dat het over het algemeen "just works". Kijk bv naar Home Assistant, dan moet je de juiste Python versie draaien, via PIP nog allemaal dependencies installeren, etc etc. Daardoor neemt de kans alleen maar toe dat iets breekt (omdat ik een update niet heb gedraaid en nog op oude Python zit, of juist een Python versie heb die net een bekende bug heeft, of Python update en daarna HA kapot is, ...). Bij Docker heb je dat niet, omdat in de container een Python versie zit ingebakken die werkt en waarop ook alle tests zijn gedraaid.
Zelfde voor de UniFi Controller. Nieuwste MongoDB versie is (of was tot een tijd terug) niet compatible, je moet de juiste Java runtime hebben (OpenJDK vs die van Oracle). Dat gedoe bespaar ik mezelf door het in Docker te draaien.
[ Voor 27% gewijzigd door RobertMe op 04-08-2020 11:45 ]
Het belangrijkste (kan via system -> settings -> tunables):Sandolution schreef op zaterdag 1 augustus 2020 @ 00:45:
[...]
Wat heb je gewijzigd? Hier draait het 99% stabiel, met uitzondering dat heel af en toe de verbinding naar WAN 'bevriest' zonder entries in de log. Een herstart van de vm is dan wel voldoende om het weer aan de gang te krijgen. Heb nog niet kunnen achterhalen waar dat aan kan liggen. Wellicht kan jouw tweak iets veranderen daaraan.
Voeg een setting toe genaamd "kern.timecounter.hardware" en zet die op "ACPI-fast".
Normaal staat dat op HPET, wat normaal een wat accuratere timecounter moet opleveren. Maar in mijn geval had ik dus steeds allemaal onverklaarbare packetloss (tot ook bevriezen van WAN of juist LAN), firewall die geen kaas meer kon maken van de state van connecties en dan maar ging blocken, etc.
Grootste hint naar die setting kwam hiervandaan:
https://forum.netgate.com...face-critical-bug-help/24
Marstek Venus 5.12kWh v151, CT003 V114 DSMR4, PV 11xEnphase IQ7+ Z-O, 5xEnphase IQ7+ N-W - ~4,7Wp theoretisch, ~3,5Wp praktijk
Kort vraagje mannen. Ik ben van plan om te wisselen van SSD voor mijn Proxmox setup. Nu heb ik al gedurende enige tijd een backup lopen die dagelijks mijn VM's en LXC containers backupen naar USB. Ik vroeg me af of ik deze vzdump backups gewoon kan restoren op een andere type/soort SSD? Zou dat probleemloos moeten verlopen? Ik dacht misschien aan issues met partitioning ofzo (beetje een leek op die gebied)
Ik verwacht dat probleemloos gebeurt. Toen ik wisselde van host machine heb ik mijn VM naar een nas gebackupt en gerestored op de nieuwe. Dat ging gewoon vlekkeloos.jdruwe schreef op zaterdag 8 augustus 2020 @ 11:34:
Kort vraagje mannen. Ik ben van plan om te wisselen van SSD voor mijn Proxmox setup. Nu heb ik al gedurende enige tijd een backup lopen die dagelijks mijn VM's en LXC containers backupen naar USB. Ik vroeg me af of ik deze vzdump backups gewoon kan restoren op een andere type/soort SSD? Zou dat probleemloos moeten verlopen? Ik dacht misschien aan issues met partitioning ofzo (beetje een leek op die gebied)
Super, bedankt voor de reactie. Dan zal ik maar eens een poging ondernemen tijdens deze crazy temperaturenmaxxie85 schreef op zaterdag 8 augustus 2020 @ 11:52:
[...]
Ik verwacht dat probleemloos gebeurt. Toen ik wisselde van host machine heb ik mijn VM naar een nas gebackupt en gerestored op de nieuwe. Dat ging gewoon vlekkeloos.

UPDATE: werkt perfect
[ Voor 3% gewijzigd door jdruwe op 09-08-2020 12:14 ]
ik heb vandaag een poging gedaan om een VM van VMWARE te migreren naar Proxmox
Export van VMWARE naar Proxmox: ok
Import OVF naar machineID 200 op local-zfs storage: ok
starten van vm: ok
network: fail
toegevoegd als hardware een vmxnet3 driver: ok
echter netwerk is down na het starten van debian
op zich is dat ook geen issue, reden wel gevonden, ik kan in /etc/network/interfaces eea aanpassen
ens219 bestaat niet meer en is ens18 geworden
echter het vage is dat ik dan wel een netwerk heb, maar bepaalde services die dan draaien (bijv. het mounten van NFS shares) blijven achterwege en worden dan bijv. pas achteraf gemount met bijv. mount -a
hierdoor werken een paar applicaties niet meer
zie ik nog iets over het hoofd?
Export van VMWARE naar Proxmox: ok
Import OVF naar machineID 200 op local-zfs storage: ok
starten van vm: ok
network: fail
toegevoegd als hardware een vmxnet3 driver: ok
echter netwerk is down na het starten van debian
op zich is dat ook geen issue, reden wel gevonden, ik kan in /etc/network/interfaces eea aanpassen
ens219 bestaat niet meer en is ens18 geworden
echter het vage is dat ik dan wel een netwerk heb, maar bepaalde services die dan draaien (bijv. het mounten van NFS shares) blijven achterwege en worden dan bijv. pas achteraf gemount met bijv. mount -a
hierdoor werken een paar applicaties niet meer
zie ik nog iets over het hoofd?
There are no secrets, only information you do not yet have
Maakt debian nog geen gebruik van netplan?zeroday schreef op maandag 17 augustus 2020 @ 12:16:
ik heb vandaag een poging gedaan om een VM van VMWARE te migreren naar Proxmox
Export van VMWARE naar Proxmox: ok
Import OVF naar machineID 200 op local-zfs storage: ok
starten van vm: ok
network: fail
toegevoegd als hardware een vmxnet3 driver: ok
echter netwerk is down na het starten van debian
op zich is dat ook geen issue, reden wel gevonden, ik kan in /etc/network/interfaces eea aanpassen
ens219 bestaat niet meer en is ens18 geworden
echter het vage is dat ik dan wel een netwerk heb, maar bepaalde services die dan draaien (bijv. het mounten van NFS shares) blijven achterwege en worden dan bijv. pas achteraf gemount met bijv. mount -a
hierdoor werken een paar applicaties niet meer
zie ik nog iets over het hoofd?
Ik zit ook nog met dat dilemma, maar ik denk dat ik meteen de kans grijp om de servers om te zetten naar ansible en een verse install te doen.
nou ... ik heb het al werkend. gewoon de machine een paar keer herstart. Ik was ook even vergeten dat de mounts niet direct zichtbaar zijn met 'df' (pas wanneer ze ook daadwerkelijk benaderd werden).powerboat schreef op maandag 17 augustus 2020 @ 13:05:
[...]
Maakt debian nog geen gebruik van netplan?
Ik zit ook nog met dat dilemma, maar ik denk dat ik meteen de kans grijp om de servers om te zetten naar ansible en een verse install te doen.
Wat ik wel heb gedaan is voordat ik de machine had gestart de juiste netwerk driver gepakt.
en om de een of andere reden deed ie na een extra halt/stop/herstart wel fatsoenlijk. Alleen even een ander IP adres nu gegeven. En nu doet ie wel wat ik doe. Dat bied perspectieven voor nog een paar andere VM's
want het gaat best wel simpel en makkelijk die convert.
There are no secrets, only information you do not yet have
Klinkt goedzeroday schreef op maandag 17 augustus 2020 @ 13:10:
[...]
nou ... ik heb het al werkend. gewoon de machine een paar keer herstart. Ik was ook even vergeten dat de mounts niet direct zichtbaar zijn met 'df' (pas wanneer ze ook daadwerkelijk benaderd werden).
Wat ik wel heb gedaan is voordat ik de machine had gestart de juiste netwerk driver gepakt.
en om de een of andere reden deed ie na een extra halt/stop/herstart wel fatsoenlijk. Alleen even een ander IP adres nu gegeven. En nu doet ie wel wat ik doe. Dat bied perspectieven voor nog een paar andere VM's
want het gaat best wel simpel en makkelijk die convert.
eigenlijk maar 2 stapjes (nadat je ovftool hebt geinstalleerd op de proxmox host)powerboat schreef op maandag 17 augustus 2020 @ 13:27:
[...]
Klinkt goedga na de vakantie eens proberen
ovftool vi:root@[vmware-machine]/[name-of-vm] .
qm importovf 200 [name-of-vm].ovf local-zfs
update..
en ook de Proxmox Backup Server nu aan het draaien. Lastigheid: ik wil het naar een NAS hebben, dus dat moest als een datastore. Pffffff.. NFS kon ik vergeten, CIFS leek ook niet te draaien, totdat ik een ingeving kreeg en de juiste gebruikersaccount de data liet weg schrijven
Weet nog niet of ik een fan wordt van deze software .. maar goed.. het loopt.
[ Voor 42% gewijzigd door zeroday op 17-08-2020 21:20 ]
There are no secrets, only information you do not yet have
Had laatste pbs geinstalleerd, maar ben ook nog niet overtuigd.zeroday schreef op maandag 17 augustus 2020 @ 14:09:
[...]
eigenlijk maar 2 stapjes (nadat je ovftool hebt geinstalleerd op de proxmox host)
ovftool vi:root@[vmware-machine]/[name-of-vm] .
qm importovf 200 [name-of-vm].ovf local-zfs
update..
en ook de Proxmox Backup Server nu aan het draaien. Lastigheid: ik wil het naar een NAS hebben, dus dat moest als een datastore. Pffffff.. NFS kon ik vergeten, CIFS leek ook niet te draaien, totdat ik een ingeving kreeg en de juiste gebruikersaccount de data liet weg schrijven
Weet nog niet of ik een fan wordt van deze software .. maar goed.. het loopt.
Kon geen nfs datastore in gui configureren. Maar is dat nu wel het geval of heb je dat via fstab gedaan ?
Voorlopig gebruik ik wel uebackup in een jail op freenas voor file backups.
Ik zou Proxmox PVE niet gelijktrekken als Proxmox Backup Server. Ik doe mijn backups ook allemaal met eigen scripts. Dat is wellicht Proxmox BS ook ruk zal vinden zegt dat voor mij niks over Proxmox PVE.zeroday schreef op maandag 17 augustus 2020 @ 14:09:
[...]
en ook de Proxmox Backup Server nu aan het draaien. Lastigheid: ik wil het naar een NAS hebben, dus dat moest als een datastore. Pffffff.. NFS kon ik vergeten, CIFS leek ook niet te draaien, totdat ik een ingeving kreeg en de juiste gebruikersaccount de data liet weg schrijven
Weet nog niet of ik een fan wordt van deze software .. maar goed.. het loopt.
Sinds de 2 dagen regel reageer ik hier niet meer
Ik denk dat hij bedoelt dat hij nog geen fan is van PBS maar wel van PVE. (Althans zo lees ik het)CurlyMo schreef op dinsdag 18 augustus 2020 @ 22:08:
[...]
Ik zou Proxmox PVE niet gelijktrekken als Proxmox Backup Server. Ik doe mijn backups ook allemaal met eigen scripts. Dat is wellicht Proxmox BS ook ruk zal vinden zegt dat voor mij niks over Proxmox PVE.
[ Voor 5% gewijzigd door powerboat op 18-08-2020 22:15 ]
nfs via fstab was geen beginnen aan. Van alles geprobeerd. Nu zit ik hier thuis met proxmox, dus ik heb de laagste security tussen mijn servers en dat maakt mij dus totaal geen ruk uit, maar PBS vond dat ie geen goede rechten had, wat ik ook probeerde. Totdat het ineens werkte.. bleek achteraf dat ik een S in mijn share was vergeten en dus was tie bezig op zijn VM HDDpowerboat schreef op dinsdag 18 augustus 2020 @ 21:51:
[...]
Had laatste pbs geinstalleerd, maar ben ook nog niet overtuigd.
Kon geen nfs datastore in gui configureren. Maar is dat nu wel het geval of heb je dat via fstab gedaan ?
Voorlopig gebruik ik wel uebackup in een jail op freenas voor file backups.
Ik heb daarom CIFS maar geprobeerd omdat dit volgenshet proxmox forum zou werken. Als je afwijkt van wat daar staat dan kun je het ook vergeten. Zo wilde ik gewoon als admin/root/user de share hebben maar nope dat mocht ook niet welke share rechten ik ook gaf. Dat kreng ;-) wilde gewoon via user backup en group backup rechten hebben en zonder dat: no go ..
dus ik heb de user uid en guid in de share gezet, de backup user in de samba share rechten gegeven en gaan met die banaan .. Nou ja .. die store1 aanmaken was al een gedoe, want die maakt dus heel veel .chunks folders aan .. phoe .. en daar wordt dan je data in gestopt. Het is ook niet zo van laat ik even dat bestand pakken en dan ergens neer plempen .. nee zonder PBS krijg je het ook straks niet gerestored.
Enneu zoals Proxmox ik vind de GUI en het gebruik nog maar niets .. wat een minimale GUI ..
There are no secrets, only information you do not yet have
tis even de wijze hoe Proxmox is opgezet en als je VEEAM gewend bent met VMWARE moet je even schakelen.CurlyMo schreef op dinsdag 18 augustus 2020 @ 22:08:
[...]
Ik zou Proxmox PVE niet gelijktrekken als Proxmox Backup Server. Ik doe mijn backups ook allemaal met eigen scripts. Dat is wellicht Proxmox BS ook ruk zal vinden zegt dat voor mij niks over Proxmox PVE.
Nu vond ik de standaard backup optie al goed genoeg voor mijn spul, maar ik hou wel van een beetje testen. de leercurve van PBS was even wat stijler dan gedacht gezien ik afwijk van wat ze propageren. Omdat ik al mijn data gewoon op mijn 30TB NAS wil hebben (en bepaalde folders worden naar een andere machine weer overgezet zodat ik de data nog een keer heb ..
En PVE trek ik zeker niet gelijk met PBS, ben op zich heel blij met Proxmox en hoe deze performed tov dezelfde machines onder VMWARE (en dan gebruik ik nog gewoon een simpele HP Gen8 microserver)
There are no secrets, only information you do not yet have
klopt .. maar het is beta .. Dus we geven het een kanspowerboat schreef op dinsdag 18 augustus 2020 @ 22:14:
[...]
Ik denk dat hij bedoelt dat hij nog geen fan is van PBS maar wel van PVE. (Althans zo lees ik het)
There are no secrets, only information you do not yet have
Jajazeroday schreef op dinsdag 18 augustus 2020 @ 22:56:
[...]
klopt .. maar het is beta .. Dus we geven het een kans
Ik ben sinds een paar weken met proxmox bezig en druk aan het ontdekken.
Nu zie ik regelmatig jullie praten over docker binnen proxmox, nu is mijn vraag wat de meest eenvoudige manier van het deployen is van docker in proxmox?
En welke manier is dan verstandig VM ?
Ps. ik ben vrij nieuw in de linux wereld dus meer info (en begrijpbaar voor een n00b) is altijd welkom.
Nu zie ik regelmatig jullie praten over docker binnen proxmox, nu is mijn vraag wat de meest eenvoudige manier van het deployen is van docker in proxmox?
En welke manier is dan verstandig VM ?
Ps. ik ben vrij nieuw in de linux wereld dus meer info (en begrijpbaar voor een n00b) is altijd welkom.
De eerste vraag die ik dan heb: waarom docker?genesisfm schreef op dinsdag 18 augustus 2020 @ 23:02:
Ik ben sinds een paar weken met proxmox bezig en druk aan het ontdekken.
Nu zie ik regelmatig jullie praten over docker binnen proxmox, nu is mijn vraag wat de meest eenvoudige manier van het deployen is van docker in proxmox?
En welke manier is dan verstandig VM ?
Ps. ik ben vrij nieuw in de linux wereld dus meer info (en begrijpbaar voor een n00b) is altijd welkom.
nu heb ik niets tegen docker, maar wel tegen al die config bestanden die ik moet configgen ..
daarom heb ik meer gekozen voor LXC voor een aantal machines met taken ..
maar gebruik wat je wil gebruiken als je weet waarom je het wil gebruiken
There are no secrets, only information you do not yet have
Op dit moment heb ik 1 VM en de rest aan LXC's omdat dit makkelijk werkt.
De reden dat ik met docker wil experimenteren is dat ik veel applicaties zie die voor een docker installatie geprepareerd zijn (dus makkelijke installeren).
Daarnaast zie ik veel mensen zichzelf positief uitlaten over Docker dus ook een stuk nieuwschierigheid zit erbij.
De reden dat ik met docker wil experimenteren is dat ik veel applicaties zie die voor een docker installatie geprepareerd zijn (dus makkelijke installeren).
Daarnaast zie ik veel mensen zichzelf positief uitlaten over Docker dus ook een stuk nieuwschierigheid zit erbij.
Beide oplossingen LXC en Docker containers hebben hun specifieke voor- en nadelen. Ik zelf zou niet graag meer terugwillen naar Docker containers vanwege het feit dat ik de software kan installeren en gebruiken zoals bedoeld is en daarbij niet afhankelijk ben van (meestal) derden of er een Docker pakketje is gemaakt. Als ook geen gedoe heb met poorten en IP-adressen. Aan de andere kant is het opzetten van een Docker container appeltje eitje met compose en/of portainer.genesisfm schreef op woensdag 19 augustus 2020 @ 11:40:
Op dit moment heb ik 1 VM en de rest aan LXC's omdat dit makkelijk werkt.
De reden dat ik met docker wil experimenteren is dat ik veel applicaties zie die voor een docker installatie geprepareerd zijn (dus makkelijke installeren).
Daarnaast zie ik veel mensen zichzelf positief uitlaten over Docker dus ook een stuk nieuwschierigheid zit erbij.
Maar goed je kunt ook in Proxmox een VM opzetten en Docker draaien dus wat houdt je tegen om er mee te experimenteren en te bepalen wat je het prettigst vind werken
Zijn er hier mensen met ervaring Windows Server 2019 in een KVM?
Ik ervaar dat als je de e1000 netwerkdrivers gebruikt het netwerk er gewoon arbitrair mee gaat stoppen, schijnbaar als het druk wordt.
Je krijgt zo'n geel "geen internet" driehoekje in je netwerkicoontje rechtsonder maar lokaal kan je ook niets meer pingen moet je de interface vervolgens uit en weer aan zetten om de server weer terug te brengen.
Consensus die ik er op internet over vind (hier bijvoorbeeld) is dat dit wel meer gebeurd en dat je VirtIO netwerk moet gaan gebruiken met recente drivers. Ga ik ook proberen als ik deze server weer deftig offline kan halen vanavond.
Maar ik houd me aanbevolen voor verdere tips...
Ik ervaar dat als je de e1000 netwerkdrivers gebruikt het netwerk er gewoon arbitrair mee gaat stoppen, schijnbaar als het druk wordt.
Je krijgt zo'n geel "geen internet" driehoekje in je netwerkicoontje rechtsonder maar lokaal kan je ook niets meer pingen moet je de interface vervolgens uit en weer aan zetten om de server weer terug te brengen.
Consensus die ik er op internet over vind (hier bijvoorbeeld) is dat dit wel meer gebeurd en dat je VirtIO netwerk moet gaan gebruiken met recente drivers. Ga ik ook proberen als ik deze server weer deftig offline kan halen vanavond.
Maar ik houd me aanbevolen voor verdere tips...
https://davejansen.com/re...016-2018-2019-vm-proxmox/Polderviking schreef op woensdag 19 augustus 2020 @ 13:49:
Zijn er hier mensen met ervaring Windows Server 2019 in een KVM?
Ik ervaar dat als je de e1000 netwerkdrivers gebruikt het netwerk er gewoon arbitrair mee gaat stoppen, schijnbaar als het druk wordt.
Je krijgt zo'n geel "geen internet" driehoekje in je netwerkicoontje rechtsonder maar lokaal kan je ook niets meer pingen moet je de interface vervolgens uit en weer aan zetten om de server weer terug te brengen.
Consensus die ik er op internet over vind (hier bijvoorbeeld) is dat dit wel meer gebeurd en dat je VirtIO netwerk moet gaan gebruiken met recente drivers. Ga ik ook proberen als ik deze server weer deftig offline kan halen vanavond.
Maar ik houd me aanbevolen voor verdere tips...
Ik heb deze guide gevolgd om een Win10 KVM op te zetten. Alles werkte prima.
Echter heb ik de VM nog niet intensief gebruikt tot nu toe.
Ik heb het in productie draaien met alle virtio devices en de disken op raw, qcow is hierbij niet aan te bevelen.Polderviking schreef op woensdag 19 augustus 2020 @ 13:49:
Zijn er hier mensen met ervaring Windows Server 2019 in een KVM?
Ik ervaar dat als je de e1000 netwerkdrivers gebruikt het netwerk er gewoon arbitrair mee gaat stoppen, schijnbaar als het druk wordt.
Je krijgt zo'n geel "geen internet" driehoekje in je netwerkicoontje rechtsonder maar lokaal kan je ook niets meer pingen moet je de interface vervolgens uit en weer aan zetten om de server weer terug te brengen.
Consensus die ik er op internet over vind (hier bijvoorbeeld) is dat dit wel meer gebeurd en dat je VirtIO netwerk moet gaan gebruiken met recente drivers. Ga ik ook proberen als ik deze server weer deftig offline kan halen vanavond.
Maar ik houd me aanbevolen voor verdere tips...
Docker werkt ook in een LXC trouwens.Miki schreef op woensdag 19 augustus 2020 @ 12:23:
[...]
Beide oplossingen LXC en Docker containers hebben hun specifieke voor- en nadelen. Ik zelf zou niet graag meer terugwillen naar Docker containers vanwege het feit dat ik de software kan installeren en gebruiken zoals bedoeld is en daarbij niet afhankelijk ben van (meestal) derden of er een Docker pakketje is gemaakt. Als ook geen gedoe heb met poorten en IP-adressen. Aan de andere kant is het opzetten van een Docker container appeltje eitje met compose en/of portainer.
Maar goed je kunt ook in Proxmox een VM opzetten en Docker draaien dus wat houdt je tegen om er mee te experimenteren en te bepalen wat je het prettigst vind werken
- Deze advertentie is geblokkeerd door Pi-Hole -
Mits je juiste template gebruikt en niet ZFS.
Alpine als base geeft issues met de cgroups waardoor het niet aan de praat te krijgen is.
En met ZFS als opslag binnen Proxmox herkent de LXC container en daarmee Docker dat de boel op ZFS draait, alleen zijn enerzijds de ZFS utilities & libraries dan niet beschikbaar, en als je die wel hebt mist /dev/zfs nog steeds. Zelf heb ik daarom in Proxmox een ZVOL aangemaakt die ext4 geformatteerd is die ik op /var/lib/docker bind mount, en daarnaast nog eens expliciet de Docker storage driver op overlay2 gezet. Maar wellicht dat alleen dat laatste ook al voldoende is. Dus alleen tegen Docker zeggen om overlay(2) te draaien op de ZFS directories.
Bijna precies zoals ik het ook gedaan hebRobertMe schreef op woensdag 19 augustus 2020 @ 16:47:
[...]
Zelf heb ik daarom in Proxmox een ZVOL aangemaakt die ext4 geformatteerd is die ik op /var/lib/docker bind mount
Sinds de 2 dagen regel reageer ik hier niet meer
Bijna? Dan ben ik wel benieuwd wat je anders hebt.CurlyMo schreef op woensdag 19 augustus 2020 @ 21:38:
[...]
Bijna precies zoals ik het ook gedaan heb
Ik heb een aparte storage gemaakt als dir, wat op zichzelf wel een ZFS is.RobertMe schreef op woensdag 19 augustus 2020 @ 22:22:
[...]
Bijna? Dan ben ik wel benieuwd wat je anders hebt.
code:
1
2
3
4
| dir: subvol-111-disk-0 path /data/vm/subvol-111-disk-0 content images,rootdir shared 0 |
Daar binnen heb ik een raw disk gemaakt die is geformatteerd als ext4:
code:
1
| rootfs: subvol-111-disk-0:112/vm-112-disk-0.raw,size=10G |
Daarbinnen draait vervolgens docker die ik inderdaad met overlay2 heb gefixeerd.
In een eerdere setup had ik inderdaad ook de /var/lib/docker als bind mount, maar de nieuwe niet meer.
Sinds de 2 dagen regel reageer ik hier niet meer
kun je ook aangeven waarom niet? Ik heb een basis howto van proxmox aangehouden voor een win10 VM en daar heb ik niet de HDD op RAW ingesteld (is ook niet default). Gaat het dan alleen om de performance? Want zowel RAW als qcow hebben zo hun voordelen/nadelenpowerboat schreef op woensdag 19 augustus 2020 @ 15:02:
[...]
Ik heb het in productie draaien met alle virtio devices en de disken op raw, qcow is hierbij niet aan te bevelen.
There are no secrets, only information you do not yet have
Yes, ik heb problemen ondervonden m.b.t. performance, weliswaar draaide hier een Exchange op de Windows VM na het omzetten naar raw geen problemen meer ondervonden.zeroday schreef op woensdag 19 augustus 2020 @ 23:01:
[...]
kun je ook aangeven waarom niet? Ik heb een basis howto van proxmox aangehouden voor een win10 VM en daar heb ik niet de HDD op RAW ingesteld (is ook niet default). Gaat het dan alleen om de performance? Want zowel RAW als qcow hebben zo hun voordelen/nadelen
Overigens staat het ook beschreven in hun documentatie
Proxmox - Windows 10 guest best practices