ik zie ik zie wat jij niet ziet
Omdat USB passthrough een stuk complexer is dan diticecreamfarmer schreef op vrijdag 18 juni 2021 @ 17:13:
[...]
Nah beetje moeite het kost me nu al maanden om dit werkend te krijgen. USB passthrough met LXC zou ook zo gedaan moeten zijn. Werkt ook nog steeds niet.
Maar waarom zou het met deze mountpoints wel werken?
Dit verteld Proxmox dat er in de kern alternatieve paden zijn om gegevens op te slaan. Dat is anders dan lapmiddelen achteraf.
Sinds de 2 dagen regel reageer ik hier niet meer
Die snap ik niet. Dan slaat hij tijdelijk de bestanden ergens anders op?CurlyMo schreef op vrijdag 18 juni 2021 @ 17:14:
[...]
Omdat USB passthrough een stuk complexer is dan dit
Dit verteld Proxmox dat er in de kern alternatieve paden zijn om gegevens op te slaan. Dat is anders dan lapmiddelen achteraf.
Overigens doet de hdd niet aan spin down.
ik zie ik zie wat jij niet ziet
Nee, permanent.icecreamfarmer schreef op vrijdag 18 juni 2021 @ 18:45:
[...]
Die snap ik niet. Dan slaat hij tijdelijk de bestanden ergens anders op?
Overigens doet de hdd niet aan spin down.
Zo staan in mijn geval al mijn vm's dus standaard op /data/vm/:
# zfs list -o name -r data/vm data/vm data/vm/subvol-100-disk-0 data/vm/subvol-101-disk-0 data/vm/subvol-102-disk-0 data/vm/subvol-102-disk-1 data/vm/subvol-103-disk-0 data/vm/subvol-104-disk-0 data/vm/subvol-105-disk-0 data/vm/subvol-106-disk-0 data/vm/subvol-107-disk-0 data/vm/subvol-108-disk-0 data/vm/subvol-109-disk-0 data/vm/subvol-114-disk-0 data/vm/subvol-119-disk-0 data/vm/vm-110-disk-0 data/vm/vm-111-disk-0 data/vm/vm-113-disk-1 data/vm/vm-115-disk-0
[ Voor 52% gewijzigd door CurlyMo op 18-06-2021 20:38 ]
Sinds de 2 dagen regel reageer ik hier niet meer
icecreamfarmer schreef op vrijdag 18 juni 2021 @ 14:20:
Heeft iemand hier een usb drive as hoofdopslag voor VM's en dergelijke werkend gekregen.
Ik kan een ZFS en/of Directory aan maken maar het moment dat ik hem toewijs aan een VM gaat het fout.
In het begin werkt alles maar na een tijdje disconnect hij.
Bij Directory krijg ik dan deze foutmelding:
TASK ERROR: unable to activate storage 'USBHDD' - directory is expected to be a mount point but is not mounted: '/mnt/pve/USBHDD'
Dit terwijl hij de disk wel blijft zien en ik ook smart data kan ophalen. Rechtstreekse passthrough als usb device werkt wel probleemloos.
Iemand ideeen?
Zonder de specifieke situatie te kennen lastig om over te oordelen. Wie weet staat er wel een specifieke backup VM op de backup schijf, die periodiek start. Dan kan ik me er iets bij voorstellen. Anders zou ik ook niet van een externe schijf afhankelijk willen zijn.powerboat schreef op vrijdag 18 juni 2021 @ 21:23:
[...]
mijn ervaring om vm'tjes van usb storage is niet erg goed. Zou het eerlijk gezegd ook niet aanraden.
Sinds de 2 dagen regel reageer ik hier niet meer
Ik zie nu dat mijn uitleg niet duidelijk was.CurlyMo schreef op vrijdag 18 juni 2021 @ 19:16:
[...]
Nee, permanent.
Zo staan in mijn geval al mijn vm's dus standaard op /data/vm/:
# zfs list -o name -r data/vm data/vm data/vm/subvol-100-disk-0 data/vm/subvol-101-disk-0 data/vm/subvol-102-disk-0 data/vm/subvol-102-disk-1 data/vm/subvol-103-disk-0 data/vm/subvol-104-disk-0 data/vm/subvol-105-disk-0 data/vm/subvol-106-disk-0 data/vm/subvol-107-disk-0 data/vm/subvol-108-disk-0 data/vm/subvol-109-disk-0 data/vm/subvol-114-disk-0 data/vm/subvol-119-disk-0 data/vm/vm-110-disk-0 data/vm/vm-111-disk-0 data/vm/vm-113-disk-1 data/vm/vm-115-disk-0
Mijn vm 's staan gewoon op de interne ssd, dat werkt wel.
De externe harde schijf is voor de data van de openmediavault vm. Ik wilde dat als lcx doen maar dan moet proxmox de storage regelen. Dat werkt echter niet omdat de disk lijkt te unmounten na een tijdje.
ik zie ik zie wat jij niet ziet
Wat is de beste manier om backups te maken van mijn Proxmox VMs? Ik kan in mijn 'storage VM' bijv. Proxmox Backup Server of Syncoid gebruiken en dan de Proxmox backups via de storage VM op de ZFS pool van een van de andere SSDs of HDDs plaatsen. Mocht er iets met Proxmox gebeuren dan zou ik gewoon de zpool van die disk(s) ook zonder de VM moeten kunnen benaderen. Bij voorkeur wil ik de SSDs niet direct aan de hypervisor / Proxmox hangen, omdat ik het liefst de storage (grotendeels) in de VM gebruik (backup is maar een klein deel). Theoretisch zou ik 'm met partities kunnen splitsen, maar dat heeft met ZFS niet de voorkeur (liever whole disk devices). Een extra backup disk is eigenlijk geen optie, omdat alle SATA aansluitingen inmiddels al vol zitten (of het zou over USB3 moeten).
Wat zouden jullie aanbevelen voor het maken van backups? Gewoon naar de passhtrough disk in de VM of een andere oplossing?
[ Voor 12% gewijzigd door mdbraber op 22-06-2021 13:42 ]
Ik maak gebruik van de Proxmox backup mogelijkheid. De backup zelf sla ik op op het NAS (die als storage gemount is aan de proxmox server(s)). Ik maak altijd full backups (images eigenlijk, met stop) en ik bewaar de laatste 2.mdbraber schreef op dinsdag 22 juni 2021 @ 12:35:
Over Proxmox backups.
[...]
Wat zouden jullie aanbevelen voor het maken van backups? Gewoon naar de passhtrough disk in de VM of een andere oplossing?
Van de directory op het NAS wordt weer een backup gemaakt naar een ander NAS.
[ Voor 30% gewijzigd door Theone098 op 23-06-2021 16:27 ]
Hier draait o.a. een VM voor domotica en netwerk op.
Nu wil ik in de woonkamer een touchscreen gaan plaatsen met mogelijk een ingebouwde PC.
Kan ik deze gebruiken voor redundantie? Door hier dan ook proxmox op te laten draaien die automatisch de taken overneemt als de server uitvalt?
Kan ik de video-uitvoer dan gemakkelijk doorzetten naar een extra VM voor het touchscreen?
Hardware is niet hetzelfde!
Of gaat dit niet werken? Dan kan ik gewoon een simpelere(goedkopere) touch-screen kopen met een PI
Je hoeft voor proxmox niet dezelfde server hardware te gebruiken. Je hebt wel shared storage nodig om de VM van de ene naar de andere server (node) te verplaatsen (een NAS bijvoorbeeld). De VM moet wel dezelfde configuratie hebben, denk ik. Anders is zeker een reboot nodig van de VM.ntiender schreef op donderdag 24 juni 2021 @ 15:08:
Ik heb een servertje draaien met proxmox waar diverse VM's op staan.
Hier draait o.a. een VM voor domotica en netwerk op.
Nu wil ik in de woonkamer een touchscreen gaan plaatsen met mogelijk een ingebouwde PC.
Kan ik deze gebruiken voor redundantie? Door hier dan ook proxmox op te laten draaien die automatisch de taken overneemt als de server uitvalt?
Kan ik de video-uitvoer dan gemakkelijk doorzetten naar een extra VM voor het touchscreen?
Hardware is niet hetzelfde!
Of gaat dit niet werken? Dan kan ik gewoon een simpelere(goedkopere) touch-screen kopen met een PI
Ik heb dit alweer een poos geleden gedaan (versie 4 denk ik) en het weer uitgezet. Ik weet niet of er in de tussentijd veel is veranderd in Proxmox.
Je kunt kijken naar de nieuwe Proxmox Backup Server.mdbraber schreef op dinsdag 22 juni 2021 @ 12:35:
Over Proxmox backups. Ik heb op mijn hypervisor een SSD met een rpool waar al mijn VMs op draaien. In één van die VMs draait al mijn storage met disks als passthrough (2x 1TB SSD apart en 4x 5TB HDD als raid10). Alle disks maken gebruik van ZFS.
Wat is de beste manier om backups te maken van mijn Proxmox VMs? Ik kan in mijn 'storage VM' bijv. Proxmox Backup Server of Syncoid gebruiken en dan de Proxmox backups via de storage VM op de ZFS pool van een van de andere SSDs of HDDs plaatsen. Mocht er iets met Proxmox gebeuren dan zou ik gewoon de zpool van die disk(s) ook zonder de VM moeten kunnen benaderen. Bij voorkeur wil ik de SSDs niet direct aan de hypervisor / Proxmox hangen, omdat ik het liefst de storage (grotendeels) in de VM gebruik (backup is maar een klein deel). Theoretisch zou ik 'm met partities kunnen splitsen, maar dat heeft met ZFS niet de voorkeur (liever whole disk devices). Een extra backup disk is eigenlijk geen optie, omdat alle SATA aansluitingen inmiddels al vol zitten (of het zou over USB3 moeten).
Wat zouden jullie aanbevelen voor het maken van backups? Gewoon naar de passhtrough disk in de VM of een andere oplossing?
Zelf gebruik ik al een tijdje Sanoid/Syncoid naar een externe machine. (Colocatie, dus werkelijk fysiek gescheiden van mijn server thuis.)
https://github.com/jimsalterjrs/sanoid
Ná Scaoll. - Don’t Panic.
12.090kWp → 40 panelen → oost/zuid/west | Tibber | EV
ik wil meer backups met pbs bewaren, maar er wordt altijd maar 7 dagen bewaard
Nu heb ik de
https://pbs.proxmox.com/docs/prune-simulator/index.html
gevonden en zie ook mijn issue
de Number of weeks wat in deze simulator zit, zie ik nergens en dat moet ik bijv. op 4 weken zetten om ook een week / maand backup te krijgen
Waar kan ik die number of weeks vinden?
ik zie het niet in de proxmox node config bij Backup waar ik de de tijd en dagen definieer
There are no secrets, only information you do not yet have
Ik heb een USB to RS485 adapter gekocht om een Kwh meter in de meterkast uit te lezen. Nu heb ik de usb stick toegewezen aan een VM waar home-assistant op draait. Vervolgens in de VM van home-assistant in node-red een flow gemaakt om die kwh meter uit te lezen (via mqtt -> home-assistant)
Nu zie ik geen data binnenkomen in home-assistant.
ALs ik vervolgens een losse raspberry pi pak en deze aansluit dan werkt het wel. Dus het gaat mis met de communicatie van proxmox naar de vm
De USB stick adapter wordt in proxmox netjes herkend, Ik heb deze ook toegewezen als ''Use USB Port"" en daar de stick opgegeven.
Wat kan het zijn dat het niet werkt ?
@CurlyMo
Toevallig zie ik je hier… de kWh meter is voor de pana .. gebruik jij dat ook icm met home assistant?
[ Voor 8% gewijzigd door Possible op 01-07-2021 23:16 ]
Gasloos sinds 2020 - 3240wp-Z Live 5100wp-W Live 8340wp-Merged Live Altantic Explorer 200 Live
Nee, ik zat hier overigens al een tijdjePossible schreef op donderdag 1 juli 2021 @ 22:56:
@CurlyMo
Toevallig zie ik je hier… de kWh meter is voor de pana .. gebruik jij dat ook icm met home assistant?
Overigens heb ik mijn kWh meters aan de Heishamon gekoppeld die gewoon de waardes uitspuugt via MQTT.
[ Voor 16% gewijzigd door CurlyMo op 01-07-2021 23:24 ]
Sinds de 2 dagen regel reageer ik hier niet meer
OkeCurlyMo schreef op donderdag 1 juli 2021 @ 23:18:
[...]
Nee, ik zat hier overigens al een tijdje
Overigens heb ik mijn kWh meters aan de Heishamon gekoppeld die gewoon de waardes uitspuugt via MQTT.
Maar heb je ook enig idee waar het probleem in zit ?
Gasloos sinds 2020 - 3240wp-Z Live 5100wp-W Live 8340wp-Merged Live Altantic Explorer 200 Live
Ik gebruik zelf de "Use USB Vendor/Device ID" optie. Heb je je VM al een keer herstart na het doorgeven? Of kijk hier even hoe je hem doorgeeft aan een draaiende VM.Possible schreef op donderdag 1 juli 2021 @ 22:56:
Vraagje,
Ik heb een USB to RS485 adapter gekocht om een Kwh meter in de meterkast uit te lezen. Nu heb ik de usb stick toegewezen aan een VM waar home-assistant op draait. Vervolgens in de VM van home-assistant in node-red een flow gemaakt om die kwh meter uit te lezen (via mqtt -> home-assistant)
Nu zie ik geen data binnenkomen in home-assistant.
ALs ik vervolgens een losse raspberry pi pak en deze aansluit dan werkt het wel. Dus het gaat mis met de communicatie van proxmox naar de vm
De USB stick adapter wordt in proxmox netjes herkend, Ik heb deze ook toegewezen als ''Use USB Port"" en daar de stick opgegeven.
Wat kan het zijn dat het niet werkt ?
Met lsusb op je proxmoxhost kun je ID (zoiets als AxBCDE:0x1234) ophalen dan via qm monitor <VMID> kom je in QEMU monitor van VM en dan met device_add usb-host,vendorid=AxBCDE,productid=0x1234 kun je hem toevoegen aan je VM.
Check ook voral even met lsusb in je VM of je hem daar ziet.
Ik zal eens kijken of dat gaat lukken inderdaad. Omdat ik ook een P1 kabel heb, geven deze dezelfde Id's weer:krijn1985 schreef op vrijdag 2 juli 2021 @ 07:41:
[...]
Ik gebruik zelf de "Use USB Vendor/Device ID" optie. Heb je je VM al een keer herstart na het doorgeven? Of kijk hier even hoe je hem doorgeeft aan een draaiende VM.
Met lsusb op je proxmoxhost kun je ID (zoiets als AxBCDE:0x1234) ophalen dan via qm monitor <VMID> kom je in QEMU monitor van VM en dan met device_add usb-host,vendorid=AxBCDE,productid=0x1234 kun je hem toevoegen aan je VM.
Check ook voral even met lsusb in je VM of je hem daar ziet.
:fill(white):strip_exif()/f/image/01g1cH8rGpVvW6b9rIMB5Jf5.png?f=user_large)
Dus dat is ook vaag.
Gasloos sinds 2020 - 3240wp-Z Live 5100wp-W Live 8340wp-Merged Live Altantic Explorer 200 Live
Heb je al eens geprobeerd je hele USB controller in passthrough te zetten mits je CPU dat ondersteund?Possible schreef op vrijdag 2 juli 2021 @ 07:40:
[...]
Oke
Maar heb je ook enig idee waar het probleem in zit ?
Sinds de 2 dagen regel reageer ik hier niet meer
Nee nog niet geprobeerd, Zal eens zien of dat lukt. CPU is al een aantal jaartjes oud namelijk. Intel Pentium G4400 meende ik.CurlyMo schreef op vrijdag 2 juli 2021 @ 07:59:
[...]
Heb je al eens geprobeerd je hele USB controller in passthrough te zetten mits je CPU dat ondersteund?
Gasloos sinds 2020 - 3240wp-Z Live 5100wp-W Live 8340wp-Merged Live Altantic Explorer 200 Live
Ding ondersteund VT-d en VT-x dus moet lukken. Als je moederbord het dan nog ondersteund.Possible schreef op vrijdag 2 juli 2021 @ 08:17:
[...]
Nee nog niet geprobeerd, Zal eens zien of dat lukt. CPU is al een aantal jaartjes oud namelijk. Intel Pentium G4400 meende ik.
Sinds de 2 dagen regel reageer ik hier niet meer
Sometimes you need to plan for coincidence
//edit: https://pve.proxmox.com/wiki/Upgrade_from_6.x_to_7.0 deze werkt, zit nu op 7.0.
[ Voor 33% gewijzigd door Zorian op 06-07-2021 21:51 ]
[ Voor 87% gewijzigd door LosserNL op 06-07-2021 21:53 ]
Mocht iemand een idee hebben hoe ik kan zien wat het probleem is of een tip heeft, dan graag.
//Edit: Fixed!
De oplossing voor mij was de disk deattachen en dan met dit commando hem weer reattachen:
qm set <VMID> --scsi[n] local-zfs:vm-<VMID>-disk-[n],discard=on
Even de boot order herstellen in de options en het werkt weer.
[ Voor 44% gewijzigd door Zorian op 07-07-2021 16:30 ]
Alle VM's staan op q35 (latest) en UEFI (OVMF). Afgezien van het incidentje met die ene VM is alles soepeltjes gegaan.orvintax schreef op woensdag 7 juli 2021 @ 02:56:
@Zorian Gebruik je nog een andere BIOS naast Q35 voor je VM's? Ging daar alles goed?
GPU/PCIe passtrough etc blijft netjes werken. Fijn dat het dashboard nu eindelijk Gi ipv GB toont.
Ik kom tot de volgende logging maar ik kom er niet verder mee , iemand die mij op weg kan helpen ?
service docker start
1
2
3
| Job for docker.service failed because the control process exited with error code. See "systemctl status docker.service" and "journalctl -xe" for details. root@NginxPM /# |
systemctl status docker.service
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
| * docker.service - Docker Application Container Engine
Loaded: loaded (/lib/systemd/system/docker.service; enabled; vendor preset: enabled)
Active: failed (Result: exit-code) since Wed 2021-07-07 06:56:16 UTC; 43s ago
Docs: https://docs.docker.com
Process: 741 ExecStart=/usr/sbin/dockerd -H fd:// $DOCKER_OPTS (code=exited, status=1/FAILURE)
Main PID: 741 (code=exited, status=1/FAILURE)
CPU: 155ms
Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Failed with result 'exit-code'.
Jul 07 06:56:16 NginxPM systemd[1]: Failed to start Docker Application Container Engine.
Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Consumed 155ms CPU time.
Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Service RestartSec=100ms expired, scheduling restart.
Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Scheduled restart job, restart counter is at 3.
Jul 07 06:56:16 NginxPM systemd[1]: Stopped Docker Application Container Engine.
Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Consumed 155ms CPU time.
Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Start request repeated too quickly.
Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Failed with result 'exit-code'.
Jul 07 06:56:16 NginxPM systemd[1]: Failed to start Docker Application Container Engine. |
journalctl -xe
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
| -- -- The job identifier is 764. Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Start request repeated too quickly. Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Failed with result 'exit-code'. -- Subject: Unit failed -- Defined-By: systemd -- Support: https://www.debian.org/support -- -- The unit docker.service has entered the 'failed' state with result 'exit-code'. Jul 07 06:56:16 NginxPM systemd[1]: Failed to start Docker Application Container Engine. -- Subject: A start job for unit docker.service has failed -- Defined-By: systemd -- Support: https://www.debian.org/support -- -- A start job for unit docker.service has finished with a failure. -- -- The job identifier is 713 and the job result is failed. Jul 07 06:56:16 NginxPM systemd[1]: docker.socket: Failed with result 'service-start-limit-hit'. -- Subject: Unit failed -- Defined-By: systemd -- Support: https://www.debian.org/support -- -- The unit docker.socket has entered the 'failed' state with result 'service-start-limit-hit'. Jul 07 06:56:16 NginxPM systemd[1]: docker.socket: Consumed 1ms CPU time. -- Subject: Resources consumed by unit runtime -- Defined-By: systemd -- Support: https://www.debian.org/support -- -- The unit docker.socket completed and consumed the indicated resources. Jul 07 06:57:01 NginxPM CRON[765]: pam_unix(cron:session): session opened for user root by (uid=0) Jul 07 06:57:01 NginxPM CRON[766]: (root) CMD (test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.daily )) Jul 07 06:57:01 NginxPM CRON[765]: pam_unix(cron:session): session closed for user root |
Ik heb een LACP bundel met 4 poorten. Deze werkte prima voor de upgrade, maar nu niet meer (op VM niveau. Switch geeft aan dat de LACP bundel actief is).
Normaal gesproken heb ik de NIC van een VM staan op een VirtIO en bij het aanpassen naar een E1000 werkt het wel weer. Ik heb op deze node drie VM's draaien (Ubuntu 20.04 (server LTS) en 2x een Linux Mint die up to date is), alle drie hebben deze hetzelfde probleem.
E1000 geeft bij een hoge CPU load en een significant lagere max. throughput. Iemand een idea hoe ik de VirtIO weer aan de praat kan krijgen?
Update: meerdere keren herstarten mocht niet baten
Update2: alle poortnamen zijn correct en komen nog steeds overeen met de LACP groep
[ Voor 9% gewijzigd door RL600 op 07-07-2021 10:00 ]
Zeggen de kernel logs van de host of de guests iets bij het inladen van de VirtIO driver(s)?
Even niets...
Ik heb dat even bekeken Een mogelijkheid is het updaten van het host systeem of de systemd, deze zitten beide al op de laatste versie dus Ik ga maar proberen of ik de container kan migreren naar een VM ..randommen schreef op woensdag 7 juli 2021 @ 09:34:
@joecks kijk eens naar je cgroups, lxc is een container en daar is iets in veranderd geloof ik.
Volgens mij moet dat ook wel lukken in een lxc container als je de repos aanpast, de vraag is of je dat wilt.
@FireDrunk Ik zie verder geen rare error (ook niet van voorheen)
Zal wel goed zijn nu. Yeah, proxmox!
Heb ook even gekeken naar de andere VM's. Het lijkt weer te werken als je een paar keer switched tussen E1000 en VirtIO. Een nieuwe VM pakt hem wel meteen netjes op.
[ Voor 27% gewijzigd door RL600 op 07-07-2021 10:20 ]
Synology gebruikt btrfs voor raid (aangezien hun NAS systemen relatief weinig geheugen en cpu power hebben.)
[ Voor 21% gewijzigd door zx9r_mario op 07-07-2021 10:53 ]
Upgrade proces en daarna de herinstallatieKeeper of the Keys schreef op woensdag 7 juli 2021 @ 10:57:
Ik heb gisteren net voor het eerst een 6.4 test systeem geïnstalleerd (ben serieus aan het overwegen om VMware hiermee te vervangen), wat kan ik beter doen herinstallatie met 7.0 of upgrade proberen en zo leren over hun upgrade proces?
[ Voor 6% gewijzigd door Lightning7 op 07-07-2021 11:59 ]
Ja.Keeper of the Keys schreef op woensdag 7 juli 2021 @ 11:58:
Hehe, werkt het upgrade proces überhaupt als je (nog) geen betaald account hebt?
Subscription is om support te krijgen.
Proxmox zonder betaald account werkt helemaal hetzelfde als met betaald account.
(als ik LearnLinuxTV op YT goed begrepen heb).
Ik heb deze checklijst bij de hand:Keeper of the Keys schreef op woensdag 7 juli 2021 @ 12:06:
Ik dacht dat er ook een verschil was tussen tot welke repositories je toegang hebt?
YouTube: Before I do anything on Proxmox, I do this first...
Voor de gein heb ik er twee geüpgrade naar Bullseye en dan is het geheugengebruik weer als 'vanouds'. Het vreemde is, dat als ik de nesting-optie van de container op 0, default, laat staan, ik een vertraging na het invoeren van mijn password heb, voordat de prompt verschijnt. Zet ik nesting op 1, dan krijg ik meteen een prompt in de container...
Hier ook een Debian ct 10 naar 11 upgrade gedaan.Polyphemus schreef op woensdag 7 juli 2021 @ 13:20:
Ik heb mijn host van 6.4 geüpgrade naar 7.0 zonder problemen, maar inderdaad gebruiken mijn Buster-containers nu meer geheugen.
Voor de gein heb ik er twee geüpgrade naar Bullseye en dan is het geheugengebruik weer als 'vanouds'. Het vreemde is, dat als ik de nesting-optie van de container op 0, default, laat staan, ik een vertraging na het invoeren van mijn password heb, voordat de prompt verschijnt. Zet ik nesting op 1, dan krijg ik meteen een prompt in de container...
Geheugen geeft nog steeds verkeerde waarde aan in het dashboard (browser cache geleegd)
Dashboard 62MB, cli (free -h) 18MB
Ik draai ook verschillende Docker instanties in LXC-containers. Maar even wachten met upgraden zeker...joecks schreef op woensdag 7 juli 2021 @ 09:00:
Na de upgrade doet bij mij alles het weer alleen docker in LXC start niet meer op ...
Ik kom tot de volgende logging maar ik kom er niet verder mee , iemand die mij op weg kan helpen ?
service docker start
code:
1 2 3 Job for docker.service failed because the control process exited with error code. See "systemctl status docker.service" and "journalctl -xe" for details. root@NginxPM /#
systemctl status docker.service
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18* docker.service - Docker Application Container Engine Loaded: loaded (/lib/systemd/system/docker.service; enabled; vendor preset: enabled) Active: failed (Result: exit-code) since Wed 2021-07-07 06:56:16 UTC; 43s ago Docs: https://docs.docker.com Process: 741 ExecStart=/usr/sbin/dockerd -H fd:// $DOCKER_OPTS (code=exited, status=1/FAILURE) Main PID: 741 (code=exited, status=1/FAILURE) CPU: 155ms Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Failed with result 'exit-code'. Jul 07 06:56:16 NginxPM systemd[1]: Failed to start Docker Application Container Engine. Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Consumed 155ms CPU time. Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Service RestartSec=100ms expired, scheduling restart. Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Scheduled restart job, restart counter is at 3. Jul 07 06:56:16 NginxPM systemd[1]: Stopped Docker Application Container Engine. Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Consumed 155ms CPU time. Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Start request repeated too quickly. Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Failed with result 'exit-code'. Jul 07 06:56:16 NginxPM systemd[1]: Failed to start Docker Application Container Engine.
journalctl -xe
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 -- -- The job identifier is 764. Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Start request repeated too quickly. Jul 07 06:56:16 NginxPM systemd[1]: docker.service: Failed with result 'exit-code'. -- Subject: Unit failed -- Defined-By: systemd -- Support: https://www.debian.org/support -- -- The unit docker.service has entered the 'failed' state with result 'exit-code'. Jul 07 06:56:16 NginxPM systemd[1]: Failed to start Docker Application Container Engine. -- Subject: A start job for unit docker.service has failed -- Defined-By: systemd -- Support: https://www.debian.org/support -- -- A start job for unit docker.service has finished with a failure. -- -- The job identifier is 713 and the job result is failed. Jul 07 06:56:16 NginxPM systemd[1]: docker.socket: Failed with result 'service-start-limit-hit'. -- Subject: Unit failed -- Defined-By: systemd -- Support: https://www.debian.org/support -- -- The unit docker.socket has entered the 'failed' state with result 'service-start-limit-hit'. Jul 07 06:56:16 NginxPM systemd[1]: docker.socket: Consumed 1ms CPU time. -- Subject: Resources consumed by unit runtime -- Defined-By: systemd -- Support: https://www.debian.org/support -- -- The unit docker.socket completed and consumed the indicated resources. Jul 07 06:57:01 NginxPM CRON[765]: pam_unix(cron:session): session opened for user root by (uid=0) Jul 07 06:57:01 NginxPM CRON[766]: (root) CMD (test -x /usr/sbin/anacron || ( cd / && run-parts --report /etc/cron.daily )) Jul 07 06:57:01 NginxPM CRON[765]: pam_unix(cron:session): session closed for user root
- Deze advertentie is geblokkeerd door Pi-Hole -
Probeer eens een LXC container met debian bullseye (als die er nog niet is zul je een buster container moeten upgraden naar bullseye). Ik gok dat door veranderingen/toevoegingen van cgroups v2 een buster LXC er nu niet goed mee over weg kan. Ik heb namelijk een tijdje geleden ook problemen met bullseye LXC in proxmox 6.3 en daarin werkte met zelfde instelling etc docker ook niet. Het leek dat het probleem kwam door cgroups v2 dingen die de bullseye container verwachte. Ik heb dit toen niet kunnen oplossen en gokte dat het kwam door een verouderde kernel en/of oudere LXC.joecks schreef op woensdag 7 juli 2021 @ 15:42:
@A1AD Dat lijk mij wel verstandig. ik heb zojuist even een nieuw container aangemaakt op basis van Debian turnkey core 16.1.1 en daarop Docker geïnstalleerd , gelijk al foutmelding dat deze niet gestart kon worden. Misschien dat het op een andere manier wel mogelijk is maar dat weet ik niet.
Ik heb zelf nog geen tijd om over te gaan naar 7.0 om dit te testen.
Wat vaag allemaal , ik heb dus handmatig een upgrade gedaan naar bullseye , daarna starte mijn docker wel zonder fouten alleen waren alleen al mijn docker containers verdwenen. Vervolgens opnieuw de docker containers aangemaakt en in portainer verschenen ze daarna ook weer met de originele aanmaakdatum en config.krijn1985 schreef op woensdag 7 juli 2021 @ 16:10:
[...]
Probeer eens een LXC container met debian bullseye (als die er nog niet is zul je een buster container moeten upgraden naar bullseye). Ik gok dat door veranderingen/toevoegingen van cgroups v2 een buster LXC er nu niet goed mee over weg kan. Ik heb namelijk een tijdje geleden ook problemen met bullseye LXC in proxmox 6.3 en daarin werkte met zelfde instelling etc docker ook niet. Het leek dat het probleem kwam door cgroups v2 dingen die de bullseye container verwachte. Ik heb dit toen niet kunnen oplossen en gokte dat het kwam door een verouderde kernel en/of oudere LXC.
Ik heb zelf nog geen tijd om over te gaan naar 7.0 om dit te testen.
Zal morgen even goed kijken of alles weer werkt zoals voorheen, bedankt voor het opweg helpen.
Volgens mij moeten de cgroups echt identiek zijn. Ik heb toentertijd Alpine geprobeerd te draaien in LXC met dan Docker en die faalde ook op afwijkende / voor Alpine / Docker niet bestaande cgroups.krijn1985 schreef op woensdag 7 juli 2021 @ 16:10:
[...]
Probeer eens een LXC container met debian bullseye (als die er nog niet is zul je een buster container moeten upgraden naar bullseye). Ik gok dat door veranderingen/toevoegingen van cgroups v2 een buster LXC er nu niet goed mee over weg kan. Ik heb namelijk een tijdje geleden ook problemen met bullseye LXC in proxmox 6.3 en daarin werkte met zelfde instelling etc docker ook niet. Het leek dat het probleem kwam door cgroups v2 dingen die de bullseye container verwachte. Ik heb dit toen niet kunnen oplossen en gokte dat het kwam door een verouderde kernel en/of oudere LXC.
Ik heb zelf nog geen tijd om over te gaan naar 7.0 om dit te testen.
Edit:
Overigens sluit ook ik dan aan in het rijtje v.w.b. "ik wacht wel dat iemand weet hoe het werkende te krijgen / houden". Maar vermoed inderdaad ook dat Bulseye in LXC gewoon zal werken.
[ Voor 9% gewijzigd door RobertMe op 07-07-2021 16:51 ]
Heb deze info nog gevonden:EverLast2002 schreef op woensdag 7 juli 2021 @ 13:46:
[...]
Hier ook een Debian ct 10 naar 11 upgrade gedaan.
Geheugen geeft nog steeds verkeerde waarde aan in het dashboard (browser cache geleegd)
Dashboard 62MB, cli (free -h) 18MB
https://forum.proxmox.com...eleased.92007/post-401347
Mooi dat het weer lijkt te draaien in ieder geval (en dat ik nu waarschijnlijk ook weet waarom het bij mij niet werkte). Wel apart dat de containers waren verdwenen. Hoe start je normaal je containers? Met docker-compose?joecks schreef op woensdag 7 juli 2021 @ 16:48:
[...]
Wat vaag allemaal , ik heb dus handmatig een upgrade gedaan naar bullseye , daarna starte mijn docker wel zonder fouten alleen waren alleen al mijn docker containers verdwenen. Vervolgens opnieuw de docker containers aangemaakt en in portainer verschenen ze daarna ook weer met de originele aanmaakdatum en config.
Zal morgen even goed kijken of alles weer werkt zoals voorheen, bedankt voor het opweg helpen.
Ze verschijnen gewoon met lsusb en ook /dev/ttyUSB0 bestaat.
Maar:
/usr/bus/usb/001/006 bestaat niet in LXC maar wel in host:
lxc-start 103 20210707212827.111 DEBUG conf - conf.c:mount_entry:2135 - Flags for "/dev/ttyUSB0" were 4098, required extra flags are 2
lxc-start 103 20210707212827.111 DEBUG conf - conf.c:mount_entry:2179 - Mounted "/dev/ttyUSB0" on "/usr/lib/x86_64-linux-gnu/lxc/rootfs/dev/ttyUSB0" with filesystem type "none"
lxc-start 103 20210707214840.570 DEBUG conf - conf.c:mount_entry:2116 - Remounting "/dev/ttyUSB0" on "/usr/lib/x86_64-linux-gnu/lxc/rootfs/dev/ttyUSB0" to respect bind or remount options
Debug laat geen errors zien maar het werkt niet
[ Voor 15% gewijzigd door Zenix op 08-07-2021 01:24 ]
Dat hadden ze ook wel bij pve6to7 script mogen geven als warning want het sloopt uiteindelijk je containers.
pve6to7 --full klaagt ook dat je niet lxc.cgroup hebt ipv lxc.cgroup2..
Top. Hoe heb jij veder de USB passthrough gedaan?smesjz schreef op donderdag 8 juli 2021 @ 05:45:
Hier is uiteindelijk het probleem opgelost door lxc.cgroup2.devices.allow te gebruiken.
Dat hadden ze ook wel bij pve6to7 script mogen geven als warning want het sloopt uiteindelijk je containers.
pve6to7 --full klaagt ook dat je niet lxc.cgroup hebt ipv lxc.cgroup2..
Zenix schreef op donderdag 8 juli 2021 @ 10:14:
[...]
Top. Hoe heb jij verder de USB passthrough gedaan?
1
2
3
| lxc.cgroup2.devices.allow: c 189:* rwm lxc.mount.entry: /dev/ttyACM0 dev/ttyACM0 none bind,optional,create=file lxc.mount.entry: /dev/ttyUSB0 dev/ttyUSB0 none,bind,optional,create=file |
De Proxmox host zelf geeft wel de correcte geheugenwaarde in het Dashboard.Polyphemus schreef op woensdag 7 juli 2021 @ 21:54:
[...]
Heb deze info nog gevonden:
https://forum.proxmox.com...eleased.92007/post-401347
Synology gebruikt BTRFS alleen als FS laag en gebruikt niet de Software RAID functies ervan voor zover ik weet dus dat kan je niet echt met elkaar vergelijken...zx9r_mario schreef op woensdag 7 juli 2021 @ 10:50:
Ik ben wel benieuwd hoe btrfs werkt als raid oplossing ipv zfs in Proxmox 7.0.
ZFS neemt redelijk veel werkgeheugen in beslag van de node. Zou dit ook met btrfs het geval zijn? En natuurlijk de performance.
Synology gebruikt btrfs voor raid (aangezien hun NAS systemen relatief weinig geheugen en cpu power hebben.)
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Ik zag dit vandag bij de release notes van de updates van pve-manager:smesjz schreef op donderdag 8 juli 2021 @ 05:45:
Hier is uiteindelijk het probleem opgelost door lxc.cgroup2.devices.allow te gebruiken.
Dat hadden ze ook wel bij pve6to7 script mogen geven als warning want het sloopt uiteindelijk je containers.
pve6to7 --full klaagt ook dat je niet lxc.cgroup hebt ipv lxc.cgroup2..
1
2
3
| pve-manager (7.0-9) bullseye; urgency=medium * pve6to7: sync new checks and adaptions from stable-6 branch for consistency |
En draaien van pve6to7 geeft nu wel een warning op lxc.cgroup
1
2
3
4
| INFO: Checking container configs for deprecated lxc.cgroup entries
WARN: The following CTs have 'lxc.cgroup' keys configured, which will be ignored in the new default unified cgroupv2:
CT 107
Often it can be enough to change to the new 'lxc.cgroup2' prefix after the upgrade to Proxmox VE 7.x |
Als ik paar dagen had gewacht met upgraden had ik al die problemen dus niet gehad omdat het netjes wordt vermeld wat je moet doen. Jammer alleen dat het niet vanaf dag 1 er in zit.
Vergeet niet dat Promox 6 nog gewoon twee jaar ondersteuning heeft
Tja dat kun je verwachten als je meteen naar een nieuwe versie gaat updatensmesjz schreef op vrijdag 9 juli 2021 @ 20:26:
[...]
Ik zag dit vandag bij de release notes van de updates van pve-manager:
code:
1 2 3 pve-manager (7.0-9) bullseye; urgency=medium * pve6to7: sync new checks and adaptions from stable-6 branch for consistency
En draaien van pve6to7 geeft nu wel een warning op lxc.cgroup
code:
1 2 3 4INFO: Checking container configs for deprecated lxc.cgroup entries WARN: The following CTs have 'lxc.cgroup' keys configured, which will be ignored in the new default unified cgroupv2: CT 107 Often it can be enough to change to the new 'lxc.cgroup2' prefix after the upgrade to Proxmox VE 7.x
Als ik paar dagen had gewacht met upgraden had ik al die problemen dus niet gehad omdat het netjes wordt vermeld wat je moet doen. Jammer alleen dat het niet vanaf dag 1 er in zit.
Ik wacht ook nog wel. Las dat PBS ook nog niet lekker werkt (en ik draai die onder Proxmox)Zenix schreef op vrijdag 9 juli 2021 @ 20:51:
Ik wacht wel tot Debian 11.1 en Proxmox 7.1.
Vergeet niet dat Promox 6 nog gewoon twee jaar ondersteuning heeft
(correct me if Im wrong
even een weekendje weg geweest.
Voor mij valt het wel mee, het draait in een VM . .hoef me niet druk te maken ..
[ Voor 10% gewijzigd door zeroday op 12-07-2021 09:40 ]
There are no secrets, only information you do not yet have
Nu heb ik geen monitor en toetsenbord. Is er een optie om Proxmox VE headless te installeren? Ik heb op het PM forum gezocht en kwam daar niet echt verder, dus ik vrees dat het niet lukt, maar misschien is er hier iemand die me kan aangeven of dat kan en hoe?
Op zich mag het bleeding edge zijn (PM ve7) want het is meer m'n prive speeltuin dan dat er echt productie op gedraaid moet worden.
In het uiterste geval moet ik op zoek naar een monitor en een toetsenbord...
[ Voor 100% gewijzigd door GioStyle op 30-10-2022 07:14 ]
Niet aan gedacht, dat zou nog een optie kunnen zijn. Dan heb ik alleen nog een el cheapo tobo nodig. Die zou ik voor 2 euro bij de kringloop vandaan kunnen halen...GioStyle schreef op maandag 12 juli 2021 @ 16:50:
Ik heb ook geen monitor meer in huis. Op het moment dat ik een monitor nodig heb plug ik hem in mijn tv.
[ Voor 77% gewijzigd door michielRB op 12-07-2021 17:07 ]
Verwijderd
https://www.proxmox.com/en/news/press-releases/proxmox-backup-server-2-0-available
Directe ISO download link
Kunnen we weer fijn vanuit Proxmox VE 7.0 backuppen
[ Voor 18% gewijzigd door Verwijderd op 13-07-2021 14:49 ]
Dat kon al.Kunnen we weer fijn vanuit Proxmox VE 7.0 backuppen
Heb je PBS 1.x (virtueel) draaien op dezelfde Proxmox 7 host > PBS werkt niet.
Heb je PBS 1.x draaien op een andere server of in een niet PVE 7 host > PBS werkt.
Eerst geen overlay system(Ik heb de module handmatig aan moeten zetten)
en nu cgroup problemen (https://forum.proxmox.com...ing-pve-6-4-to-7-0.92459/)
Ook wil een template(container) met debian 10 niet eens opstarten.
Zijn dit allemaal proxmox 7 problemen?
Zoja; wil ik een fresh install doen met proxmox 6.4
Kan ik mijn bestaande Homeassistant os VM backuppen en later restoren in proxmox 6?
[ Voor 20% gewijzigd door Animal op 17-07-2021 22:02 ]
Ik backup nu gewoon naar een NFS mount (Synology) in Proxmox. Wat zijn de voordelen van een dedicated backup server eigenlijk?Verwijderd schreef op dinsdag 13 juli 2021 @ 14:48:
Proxmox Backup Server 2.0 is uit.
https://www.proxmox.com/en/news/press-releases/proxmox-backup-server-2-0-available
Directe ISO download link
Kunnen we weer fijn vanuit Proxmox VE 7.0 backuppen
Hier stond een dode link.
Dat kan. Gewoon een router container installeren (zoals OpenWRT) die intern met DHCP adressen uitdeelt aan containers die dan eventueel via NAT naar buiten mogen.Zorian schreef op zaterdag 24 juli 2021 @ 14:53:
Ik heb dus een Proxmox bak draaien in een datacenter met een klein slootje WAN IP's. Echter is mijn "voorraadje" op maar wil ik nog meer VM's erop draaien. Kan ik zeg maar somehow instellen dat ik 1 WAN IP kan delen met meerdere VM's? Beetje alsof de server bij me thuis staat en de VM's daar ook internet krijgen via DHCP/NAT? Kan er weinig duidelijke info over vinden helaas.
Zo doet ik dat zelf ook met een VPS met één WAN ip. Daar draait een router en een reverse proxy op. Elke website draait in een eigen container die elk een uniek intern ip adres hebben.
[ Voor 12% gewijzigd door CurlyMo op 24-07-2021 14:56 ]
Sinds de 2 dagen regel reageer ik hier niet meer
Maar hoe verbind ik die VM's aan de OPNsense VM dan? Moet ik dan nog een extra bridge maken op de host ofzo?strandbal schreef op zaterdag 24 juli 2021 @ 14:55:
OPNsense vm inrichten en de rest van je vm's daar achter zetten?
Het idee is dat ik diverse VM's heb die gescheiden van elkaar draaien maar wel allemaal internet nodig hebben.CurlyMo schreef op zaterdag 24 juli 2021 @ 14:55:
[...]
Dat kan. Gewoon een router container installeren (zoals OpenWRT) die intern met DHCP adressen uitdeelt aan containers die dan eventueel via NAT naar buiten mogen.
Zo doet ik dat zelf ook met een VPS met één WAN ip. Daar draait een router en een reverse proxy op. Elke website draait in een eigen container die elk een uniek intern ip adres hebben.
Wat bedoel je met de containers? Ik draai geen docker in de VM namelijk bijvoorbeeld.
[ Voor 54% gewijzigd door Zorian op 24-07-2021 14:58 ]
Hier stond een dode link.
En heb je daar dan een OVS bridge voor nodig op de host die je aan beide VM's koppelt?strandbal schreef op zaterdag 24 juli 2021 @ 14:58:
Ja, z'n "interne" nic hang je aan een extra bridge, waar je je vm's ook aan hangt. Je opnsense vm is dan de router en firewall.
Ben wat dat betreft een expert en tegelijk een noob
//Denk dat ik het geintje door heb, eens even proberen/spelen ermee.
[ Voor 8% gewijzigd door Zorian op 24-07-2021 15:13 ]
Inderdaad een Bridge opzetten, daarop de pfSense VM koppelen en gelijk ook ervoor zorgen dat je pfSense VM wat extra pootjes heeft in elke Bridge van de extra VM'sZorian schreef op zaterdag 24 juli 2021 @ 14:57:
Maar hoe verbind ik die VM's aan de OPNsense VM dan? Moet ik dan nog een extra bridge maken op de host ofzo?
Dat moet allemaal lukken!Het idee is dat ik diverse VM's heb die gescheiden van elkaar draaien maar wel allemaal internet nodig hebben.
|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||
Hij werkt, was simpeler dan ik dacht! Bedankt allen.nero355 schreef op zaterdag 24 juli 2021 @ 15:40:
[...]
Inderdaad een Bridge opzetten, daarop de pfSense VM koppelen en gelijk ook ervoor zorgen dat je pfSense VM wat extra pootjes heeft in elke Bridge van de extra VM's
[...]
Dat moet allemaal lukken!
//Nu alleen nog uitvogelen hoe ik van buitenaf een VM kan benaderen die achter OPNsense zit.
[ Voor 15% gewijzigd door Zorian op 24-07-2021 16:33 ]
Vpn voor beheer en de diensten met haproxy afhandelen (is eventueel een plugin van opnsense)Zorian schreef op zaterdag 24 juli 2021 @ 15:45:
[...]
Hij werkt, was simpeler dan ik dacht! Bedankt allen.
//Nu alleen nog uitvogelen hoe ik van buitenaf een VM kan benaderen die achter OPNsense zit.Zal wel een firewall dingetje wezen vermoed ik.
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Hmmm... Toch even wachten met upgraden van mijn epyc cluster.
Op mijn intel cluster merk ik dat sommige vm's uit staan terwijl ik zeker wist dat deze aanstonden.
Dacht dat ik spoken zag
Heb de epyc cluster nog niet geupgrade, vanwege dit (heb ervaring).orvintax schreef op donderdag 29 juli 2021 @ 10:21:
Er is al een temporary fix, zelfs in de non-subscription repos voor een aantal van die problemen. Maar zien jullie ook die kernel panick net zoals op de fora? @Sp33dFr34k @powerboat
Bij het intel cluster zie ik enkel dat een aantal vm's uitstaan. Ben nu aan het controleren waardoor het komt.
De non-subscription-repo heeft normaalgesproken updates eerder dan de enterprise-repo. Pas als updates en wijzigingen grondiger getest en gevalideerd zijn, gaan ze door naar de enterprise-repo. Op die manier heb ik de 5.11-kernel ook al even geprobeerd op Proxmox 6.4, met maar matige resultaten (de netwerkinterfaces stopten iedere dag).orvintax schreef op donderdag 29 juli 2021 @ 10:21:
Er is al een temporary fix, zelfs in de non-subscription repos voor een aantal van die problemen. Maar zien jullie ook die kernel panick net zoals op de fora? @Sp33dFr34k @powerboat
Op 1 server heb ik overigens wel al de stap naar Proxmox 7 gemaakt, en tot zover is het probleem daar vooral dat ik nog een container had met een te oude systemd. Aangezien de problemen gerelateerd lijken te zijn aan een hogere load, wacht ik eerst nog even af voordat ik andere machines ga upgraden, deze server doet niet zo veel.
[ Voor 20% gewijzigd door dcm360 op 29-07-2021 13:51 ]
Is er in Proxmox een containersetting die een soort ' slaapstand' veroorzaakt?
Container is een kale Debian 10 template met een user, sudo en AdGuard en verder niets extra geinstalleerd.
Nesting & keyctl staan aan. Unpriviliged en Geen Protection.
DNS staat op "use host system" en daarbij vraag ik me af of dat goed gaat, hoewel de host mn fritzbox als DNS gebruikt.. die weer AdGuard als DNS heeft.. Ergens voelt dat niet ok. Maar K weet ook niet goed wat daar dan oorzaak is van deze failure.
Log toont niets ivm vastlopen. Er draait op deze container ook geen BU/Snapshot die het kan veroorzaken.
Iemand een suggestie?
Er is momenteel een bug in Adguard als je DoH gebruikt (naar buiten toe). Wanneer er timeouts zijn op je netwerk stopt de DoH implementatie. Misschien heb je daar last van?Koepert schreef op donderdag 29 juli 2021 @ 14:20:
Vraagje.. ik heb een container aangemaakt waar AdGuard (script installer) op draait. AdGuard geraakt eens in de zoveel tijd (tussen 7 en 14 dagen ruwweg) unresponsive..
Is er in Proxmox een containersetting die een soort ' slaapstand' veroorzaakt?
Container is een kale Debian 10 template met een user, sudo en AdGuard en verder niets extra geinstalleerd.
Nesting & keyctl staan aan. Unpriviliged en Geen Protection.
DNS staat op "use host system" en daarbij vraag ik me af of dat goed gaat, hoewel de host mn fritzbox als DNS gebruikt.. die weer AdGuard als DNS heeft.. Ergens voelt dat niet ok. Maar K weet ook niet goed wat daar dan oorzaak is van deze failure.
Log toont niets ivm vastlopen. Er draait op deze container ook geen BU/Snapshot die het kan veroorzaken.
Iemand een suggestie?
- Deze advertentie is geblokkeerd door Pi-Hole -