Toon posts:

[Docker] [alle OS] Het grote Docker ervaringen en tips topic

Pagina: 1 ... 4 5 6 Laatste
Acties:

  • rens-br
  • Registratie: December 2009
  • Laatst online: 07:35

rens-br

Admin IN & Moderator Mobile
Arunia schreef op maandag 3 januari 2022 @ 14:37:
@rens-br Wat ik tegen kom in de tutorial is dat je iedere keer je config moet uploaden.
Ja, na elke change van de file moet je een reload doen. Dat doe ik dan ook en krijg de melding dat de caddyfile gevonden is (zonder syntax fouten)
Daarnaast ga ik er vanuit dat de 192.168.0.200:8443 het adres is van de Domoticz server.
Die wil je bereiken door domoticz.DOMEIN.nl te bezoeken.
Correct. En deze setup werkt prima op mijn PI, waar een (oude) versie van Caddy is geïnstalleerd, waardoor ook de Caddyfile anders is.
Waar ik vaak tegenaan loop, is dat er toch ergens een typfout staat.
Heb je meer in de caddyfile staan qua server? Of is het alleen die domoticz op dit moment.
Bij het laatste zou ik de optie zonder { } gebruiken. Kijken of dat wel werkt. En desnoods opnieuw in tikken in een schone caddyfile om alles uit te sluiten.
Er staan er inderdaad wat meer in. Ik zal het eens met één gebruiken. Typfouten worden overigens afgevangen, voor zover ik weet. Je krijgt dan namelijk Syntax error on line 'x'. terug.
De domoticz server is wel te bereiken middels het ip-adres zelf?
Als het werkt, dan lijkt me de verwijzing van de domein naam naar het ipadres niet goed.
Die is inderdaad wel te bereiken. Misschien belangrijk om te melden. Domoticz en Docker/Caddy draait niet op hetzelfde apparaat.

Het is overigens niet zo dat ik in de Docker compose of docker nog iets moet instellen, waardoor hij bij Domoticz kan, ofwel?

[Voor 8% gewijzigd door rens-br op 03-01-2022 14:42]


  • ravedek
  • Registratie: Juli 2011
  • Niet online
@rens-br
Caddy v2.1.1 heb ik hier draaien en als volgt geconfigureerd:

Caddyfile:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
# The Caddyfile is an easy way to configure your Caddy web server.
#
# Unless the file starts with a global options block, the first
# uncommented line is always the address of your site.
#
# To use your own domain name (with automatic HTTPS), first make
# sure your domain's A/AAAA DNS records are properly pointed to
# this machine's public IP, then replace the line below with your
# domain name.
:80

# Set this path to your site's directory.
root * /usr/share/caddy

# Enable the static file server.
file_server

# Another common task is to set up a reverse proxy:
# reverse_proxy localhost:8080

# Or serve a PHP site through php-fpm:
php_fastcgi localhost:9000

# Refer to the Caddy docs for more information:
# https://caddyserver.com/docs/caddyfile


Docker run command (helaas geen compose):

code:
1
2
3
4
5
6
7
8
9
10
11
12
docker run -d \
        --name caddy \
        --hostname=caddy \
        --net=host \
        -v $PWD/Caddyfile:/etc/caddy/Caddyfile \
        -v $PWD/site:/usr/share/caddy \
        -v $PWD/data:/data \
        -v $PWD/config:/config \
        -e TZ="Europe/Amsterdam" \
        --link phpfpm \
        --restart=unless-stopped \
        caddy


Dit heb ik een jaar geleden ingesteld en werkt nog steeds prima.
Met de port mappings heb ik destijds wat lopen rommelen maar zou ook moeten werken lijkt mij. Er draait verder nog een PHP fpm container met oa. ondersteuning voor pdo_mysql en mysqli.
Ik gebruik dus geen reverse proxy maar zag wel wat verschillen in de configuratie...

[Voor 6% gewijzigd door ravedek op 03-01-2022 17:54]

https://fictionbecomesfact.com - Mijn digitale tuin


  • rens-br
  • Registratie: December 2009
  • Laatst online: 07:35

rens-br

Admin IN & Moderator Mobile
ravedek schreef op maandag 3 januari 2022 @ 17:24:
@rens-br
Caddy v2.1.1 heb ik hier draaien en als volgt geconfigureerd:
Dankjewel! Dat gaan we van de week eens proberen!

Nog een paar vragen.
code:
1
2
# Set this path to your site's directory.
root * /usr/share/caddy
Wat heb jij in deze directory zitten?
Met de port mappings heb ik destijds wat lopen rommelen maar zou ook moeten werken lijkt mij. Er draait verder nog een PHP fpm container met oa. ondersteuning voor pdo_mysql en mysqli.
Ik gebruik dus geen reverse proxy maar zag wel wat verschillen in de configuratie...
Welke poorten heb je gemapped. Ik gebruik poort 446 en 83, omdat 443 en 80 al bezet zijn. Ik heb die poorten ook open gezet in mijn Unifi Controller, dus ik zou verwachten dat dat gewoon moet werken. Maar misschien moet je verplicht poort 80 en 443 gebruiken?

  • Forceworks
  • Registratie: Juni 2007
  • Laatst online: 04-01 16:47
rens-br schreef op maandag 3 januari 2022 @ 14:40:
[...]


Ja, na elke change van de file moet je een reload doen. Dat doe ik dan ook en krijg de melding dat de caddyfile gevonden is (zonder syntax fouten)


[...]


Correct. En deze setup werkt prima op mijn PI, waar een (oude) versie van Caddy is geïnstalleerd, waardoor ook de Caddyfile anders is.


[...]


Er staan er inderdaad wat meer in. Ik zal het eens met één gebruiken. Typfouten worden overigens afgevangen, voor zover ik weet. Je krijgt dan namelijk Syntax error on line 'x'. terug.


[...]


Die is inderdaad wel te bereiken. Misschien belangrijk om te melden. Domoticz en Docker/Caddy draait niet op hetzelfde apparaat.

Het is overigens niet zo dat ik in de Docker compose of docker nog iets moet instellen, waardoor hij bij Domoticz kan, ofwel?
Misschien hier nog een nuttige tip van een Caddy gebruiker (in Docker).
Ik lees volgens mij nergens iets over je DNS-instellingen/forwarding.
Heb je wel ergens iets draaien (pi-hole bijvoorbeeld) waarin je het domein doorverwijst naar het ipadres van de machine waarop je je reverse proxy draait? (en is je eigen dns-forwarder ingesteld als centrale dns-server in huis (voor alle apparaten)?

[Voor 3% gewijzigd door Forceworks op 04-01-2022 08:31]


  • rens-br
  • Registratie: December 2009
  • Laatst online: 07:35

rens-br

Admin IN & Moderator Mobile
Forceworks schreef op dinsdag 4 januari 2022 @ 08:29:
Misschien hier nog een nuttige tip van een Caddy gebruiker (in Docker).
Ik lees volgens mij nergens iets over je DNS-instellingen/forwarding.
Heb je wel ergens iets draaien (pi-hole bijvoorbeeld) waarin je het domein doorverwijst naar het ipadres van de machine waarop je je reverse proxy draait?
Ik heb een domeinnaam geregistreerd bij TransIP en verwijs daar door middel van een CNAME record, via DuckDNS naar mijn IP-adres. In mijn router heb ik poort 80 en 443 open gezet naar poort 83 en 446 van mijn Chromebox. En vervolgens zit de verwijzing van reverse proxy -> domeinnaam -> Domoticz in de Caddyfile.

Moet ik nu nog iets anders instellen? Want deze setup werkt wel uitstekend via de setup die ik op mijn Pi heb draaien.
Misschien hier nog een nuttige tip van een Caddy gebruiker (in Docker).
Wat heb jij voor settings gebruikt? Wat staat er in je Caddyfile en wat voor configuratie draai je?

[Voor 9% gewijzigd door rens-br op 04-01-2022 08:35]


  • Forceworks
  • Registratie: Juni 2007
  • Laatst online: 04-01 16:47
rens-br schreef op dinsdag 4 januari 2022 @ 08:34:
[...]


Moet ik nu nog iets anders instellen? Want deze setup werkt wel uitstekend via de setup die ik op mijn Pi heb draaien.
Ik heb het iets afwijkend, want ik gebruik ook TransIP, maar geen DuckDNS (want fixed ip thuis).
  • Dus je hebt een CNAME-record in je DNS voor je domein in je transIP dashboard.
  • Dat CNAME-record verwijst naar je DuckDNS url.
  • Het DuckDNS url verwijst naar je thuis IP (wat periodiek geupdate wordt).
  • In je modem zouden poort 80 en 443 open moeten staan voor de buitenwereld, komende vanaf je PI (met fixed IP)
  • Normaliter zou docker de firewall van je systeem aan moeten passen dat verkeer op de gedefinieerde poorten toegestaan wordt, gezien je bij domoticz kan, neem ik ook even aan dat dat werkt.
  • Je basis caddy inrichting is ok, maar wellicht dat er nog geklaagd wordt over certificaten, dit zou je wellicht terug kunnen zien in de logs.
Je zou alle bovenstaande stappen even kunnen nalopen of de hele keten correct is.
Bijvoorbeeld door gewoon eens alleen je duck-dns url in te typen ipv je eigen domein naam, kom je dan wel op de gewenste locatie uit?
[...]


Wat heb jij voor settings gebruikt? Wat staat er in je Caddyfile en wat voor configuratie draai je?
Mijn caddyfile is niet veel spannender, maar ik gebruik eigen certificaten ipv dat ik Caddy self-signed certificaten laat genereren. Wellicht dat hier nog iets spannends gebeurd omdat DuckDNS volgens mij ook LetsEncrypt certificaten uitgeeft. Hier heb ik geen directe ervaring mee.

code:
1
2
3
4
heimdall.DOMEIN.nl {
    reverse_proxy heimdall:10003
    tls /etc/ssl/fullchain.pem /etc/ssl/privkey.pem
}


Omdat al mijn containers in hetzelfde container-netwerk zitten (zelfde compose file) kan ik in caddy verwijzen naar de naam van de container ipv het ipadres van de machine waarop deze draait. Daardoor zou ik niet per sé alle containers hoeven te exposen buiten het docker-network.

EDIT:

Is het misschien het issue dat Caddy de duckdns url verwacht om te reverse proxy-en ipv je transip domeinnaam???

[Voor 3% gewijzigd door Forceworks op 04-01-2022 08:55]


  • rens-br
  • Registratie: December 2009
  • Laatst online: 07:35

rens-br

Admin IN & Moderator Mobile
Forceworks schreef op dinsdag 4 januari 2022 @ 08:54:
[...]

Ik heb het iets afwijkend, want ik gebruik ook TransIP, maar geen DuckDNS (want fixed ip thuis).
  • Dus je hebt een CNAME-record in je DNS voor je domein in je transIP dashboard.
  • Dat CNAME-record verwijst naar je DuckDNS url.
  • Het DuckDNS url verwijst naar je thuis IP (wat periodiek geupdate wordt).
  • In je modem zouden poort 80 en 443 open moeten staan voor de buitenwereld, komende vanaf je PI (met fixed IP)
  • Normaliter zou docker de firewall van je systeem aan moeten passen dat verkeer op de gedefinieerde poorten toegestaan wordt, gezien je bij domoticz kan, neem ik ook even aan dat dat werkt.
  • Je basis caddy inrichting is ok, maar wellicht dat er nog geklaagd wordt over certificaten, dit zou je wellicht terug kunnen zien in de logs.
Je zou alle bovenstaande stappen even kunnen nalopen of de hele keten correct is.
Bijvoorbeeld door gewoon eens alleen je duck-dns url in te typen ipv je eigen domein naam, kom je dan wel op de gewenste locatie uit?
TransIP en DNS, DuckDNS e.d. werkt allemaal al. Want als ik mijn poorten open zet naar mijn oude PI met Caddy werkt het gelijk. Dus ik weet eigenlijk vrijwel zeker dat het probleem zit in mijn nieuwe Caddy setup.
Mijn caddyfile is niet veel spannender
Jouw Caddyfile ziet er inderdaad verdacht veel hetzelfde uit als die van mij.
Is het misschien het issue dat Caddy de duckdns url verwacht om te reverse proxy-en ipv je transip domeinnaam???[/b]
Dat zou mogelijk kunnen ja. Ik ga DuckDNS er dan eens tussenuit halen, om te kijken of dat verschil maakt.

  • ravedek
  • Registratie: Juli 2011
  • Niet online
rens-br schreef op dinsdag 4 januari 2022 @ 07:55:
[...]


Dankjewel! Dat gaan we van de week eens proberen!

Nog een paar vragen.


[...]


Wat heb jij in deze directory zitten?


[...]


Welke poorten heb je gemapped. Ik gebruik poort 446 en 83, omdat 443 en 80 al bezet zijn. Ik heb die poorten ook open gezet in mijn Unifi Controller, dus ik zou verwachten dat dat gewoon moet werken. Maar misschien moet je verplicht poort 80 en 443 gebruiken?
De /usr/share/caddy is de mapping naar mijn phpMyAdmin site (in een submap). Vervolgens te bereiken via http://<DOCKER HOST>/phpmyadmin.

Voorheen had ik poort 80 en 443 als mapping, dus helaas geen ervaring met een andere mapping (wel bij andere containers en dat werkt goed). Had je de logs van Caddy al bekeken?
code:
1
docker logs caddy


En het schijnt dat je met de command optie in je Docker compose ook de reverse-proxy kunt configureren, dus zonder gebruik van de Caddyfile, ook leuk 8)

https://fictionbecomesfact.com - Mijn digitale tuin


  • rens-br
  • Registratie: December 2009
  • Laatst online: 07:35

rens-br

Admin IN & Moderator Mobile
We gaan het allemaal eens proberen en even in de logs kijken of ik iets kan vinden. Mocht dat toch allemaal niet lukken, ga ik eens naar Ngnix Proxy Manager kijken, misschien dat die beter / handiger werkt.

  • Forceworks
  • Registratie: Juni 2007
  • Laatst online: 04-01 16:47
rens-br schreef op dinsdag 4 januari 2022 @ 07:55:
[...]


Welke poorten heb je gemapped. Ik gebruik poort 446 en 83, omdat 443 en 80 al bezet zijn. Ik heb die poorten ook open gezet in mijn Unifi Controller, dus ik zou verwachten dat dat gewoon moet werken. Maar misschien moet je verplicht poort 80 en 443 gebruiken?
Ik zie nu pas dat je 446 en 83 in je configuratie hebt gedefinieerd. Dit MOET 443 en 80 zijn, die moeten 1-op-1 mappen. Dat is de dedicated poort voor HTTPS en HTTP verkeer anders snapt een browser het niet. (tenzij expliciet meegegeven)

Je oude mapping moet je dus opheffen (die is waarschijnlijk voor je andere PI). En de verwijzing aanmaken voor je nieuwe PI met docker.

[Voor 20% gewijzigd door Forceworks op 04-01-2022 16:43]


  • c-nan
  • Registratie: Juni 2008
  • Laatst online: 10:01
Ik heb niet alles gelezen en ik ken caddy verder ook niet, maar ik weet wel min of meer wat http response codes betekenen.

Een 502 is dat je caddy container geen verbinding kan opzetten met je target (192.168.0.200:8443). Dat kan komen door TLS/SSL maar ook grofweg routering.

Wat doet dit:
code:
1
docker exec -ti <caddy container> bash


En vervolgens:
code:
1
curl 192.168.0.200:8443 -H "Host: domoticz.DOMEIN.nl"


Eventueel in verbose mode ("-v").

[Voor 4% gewijzigd door c-nan op 04-01-2022 18:48]


  • rens-br
  • Registratie: December 2009
  • Laatst online: 07:35

rens-br

Admin IN & Moderator Mobile
ravedek schreef op dinsdag 4 januari 2022 @ 13:55:
Voorheen had ik poort 80 en 443 als mapping, dus helaas geen ervaring met een andere mapping (wel bij andere containers en dat werkt goed). Had je de logs van Caddy al bekeken?
code:
1
docker logs caddy
code:
1
{"level":"error","ts":1641371435.5467937,"logger":"http.log.error","msg":"x509: cannot validate certificate for 192.168.0.201 because it doesn't contain any IP SANs","request":{"remote_addr":"159.100.87.98:46839","proto":"HTTP/1.1","method":"GET","host":"domoticz.DOMEIN.nl","uri":"/json","headers":{"Sec-Websocket-Key":["ToLzImflSN1NuldbcS4LwQ=="],"Sec-Websocket-Protocol":["domoticz"],"Upgrade":["websocket"],"Accept-Encoding":["gzip, deflate, br"],"Accept-Language":["nl-NL,nl;q=0.9,en-US;q=0.8,en;q=0.7"],"Pragma":["no-cache"],"Cookie":["DMZSID=db6b5005fb806dabe2d0b9ae6866e3c3_N2U0NjBiODYtOWU5Mi00MDZjLThlYzItYWExZjc5ZWFjNTY5.1643800053"],"Sec-Websocket-Extensions":["permessage-deflate; client_max_window_bits"],"Connection":["Upgrade"],"Cache-Control":["no-cache"],"User-Agent":["Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36"],"Origin":["https://domoticz.DOMEIN.nl"],"Sec-Websocket-Version":["13"]},"tls":{"resumed":false,"version":772,"cipher_suite":4867,"proto":"","proto_mutual":true,"server_name":"domoticz.DOMEIN.nl"}},"duration":0.070942657,"status":502,"err_id":"euu3b248z","err_trace":"reverseproxy.statusError (reverseproxy.go:886)"}
Forceworks schreef op dinsdag 4 januari 2022 @ 16:40:
Ik zie nu pas dat je 446 en 83 in je configuratie hebt gedefinieerd. Dit MOET 443 en 80 zijn, die moeten 1-op-1 mappen. Dat is de dedicated poort voor HTTPS en HTTP verkeer anders snapt een browser het niet. (tenzij expliciet meegegeven)
Dit heb ik net even aangepast en getest, maar dat werkt ook niet.

Ik heb de hoop ook opgegeven om Caddy werkend te krijgen en heb nu Ngnix Proxy Manager geïnstalleerd en had dat draaiend binnen 5 minuten.

Voordeel is ook meteen dat het door de userinterface een heel stuk gebruikersvriendelijker is.

Allen in ieder geval bedankt voor het meedenken!

[Voor 53% gewijzigd door rens-br op 05-01-2022 10:55]


  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 00:41

Mars Warrior

Earth, the final frontier

rens-br schreef op woensdag 5 januari 2022 @ 10:10:
[...]
Ik heb de hoop ook opgegeven om Caddy werkend te krijgen en heb nu Ngnix Proxy Manager geïnstalleerd en had dat draaiend binnen 5 minuten.

Voordeel is ook meteen dat het door de userinterface een heel stuk gebruikersvriendelijker is.

Allen in ieder geval bedankt voor het meedenken!
Fijn dat het nu bij jou werkt. NPM is factoren eenvoudiger dan Caddy en Traefik. In de tijd dat je de basis documentatie doorneemt van Caddy of Traefik heb je NPM allang draaien _/-\o_

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


  • rens-br
  • Registratie: December 2009
  • Laatst online: 07:35

rens-br

Admin IN & Moderator Mobile
Mars Warrior schreef op woensdag 5 januari 2022 @ 11:37:
[...]

Fijn dat het nu bij jou werkt. NPM is factoren eenvoudiger dan Caddy en Traefik. In de tijd dat je de basis documentatie doorneemt van Caddy of Traefik heb je NPM allang draaien _/-\o_
Helemaal mee eens. Ik had de switch veel eerder moeten doen.

Met NPM had er ook geen moeite mee dat ik andere poorten gebruik dan 443 en 80. Nog een bijkomend voordeel.

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 23:40
rens-br schreef op woensdag 5 januari 2022 @ 10:10:
[...]


Ik heb de hoop ook opgegeven om Caddy werkend te krijgen en heb nu Ngnix Proxy Manager geïnstalleerd en had dat draaiend binnen 5 minuten.

Voordeel is ook meteen dat het door de userinterface een heel stuk gebruikersvriendelijker is.

Allen in ieder geval bedankt voor het meedenken!
5 minuten is best vlot. Kostte bij mij nog wel enig uitzoekwerk hoe alles goed in te stellen, maar uiteindelijk werkt het middels aantal duckdns-subdomeinen. die dan naar verschillende poorten doorverwijzen op de RPi4.

Bijkomend voordeel is dat ik die sites nu ook kan benaderen vanaf kantoor want daar werkt ip-adres:poort niet. :-)

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 23:40
Gisteren geplaatst in het Pihole-ervaringen-topic omdat ik hoopte dat iemand dit fenomeen daar herkende en ik dit ervaringen-topic nog niet kende, maar daar werd ik dan mooi naar toeverwezen.


Ik draai Pihole in een docker container op een Raspberry pi4. Dat draait als een zonnetje en zo draait er ook nog homeassistant. Net zat ik eens in de syslog te kijken en zag het volgende:

Jan 8 19:16:36 raspberrypi systemd[705]: run-docker-runtime\x2drunc-moby-30027dc1f14fbb2e6b972dce62f2d0613a8f8bf6af662d63185d8ac5b5faf499-runc.a3CNN7.mount: Succeeded.
Jan 8 19:16:36 raspberrypi systemd[1]: run-docker-runtime\x2drunc-moby-30027dc1f14fbb2e6b972dce62f2d0613a8f8bf6af662d63185d8ac5b5faf499-runc.a3CNN7.mount: Succeeded.

En die meldingen komen elke 30 seconden. Lijkt op iets met docker, maar waarom ik hier kom... het genoemde id achter moby is het id van de pihole-container. Waarom zou deze elke 30 seconden iets moeten gaan mounten?

Acties:
  • +1Henk 'm!

  • ravedek
  • Registratie: Juli 2011
  • Niet online
DikkieDick schreef op zondag 9 januari 2022 @ 08:54:
Gisteren geplaatst in het Pihole-ervaringen-topic omdat ik hoopte dat iemand dit fenomeen daar herkende en ik dit ervaringen-topic nog niet kende, maar daar werd ik dan mooi naar toeverwezen.


Ik draai Pihole in een docker container op een Raspberry pi4. Dat draait als een zonnetje en zo draait er ook nog homeassistant. Net zat ik eens in de syslog te kijken en zag het volgende:

Jan 8 19:16:36 raspberrypi systemd[705]: run-docker-runtime\x2drunc-moby-30027dc1f14fbb2e6b972dce62f2d0613a8f8bf6af662d63185d8ac5b5faf499-runc.a3CNN7.mount: Succeeded.
Jan 8 19:16:36 raspberrypi systemd[1]: run-docker-runtime\x2drunc-moby-30027dc1f14fbb2e6b972dce62f2d0613a8f8bf6af662d63185d8ac5b5faf499-runc.a3CNN7.mount: Succeeded.

En die meldingen komen elke 30 seconden. Lijkt op iets met docker, maar waarom ik hier kom... het genoemde id achter moby is het id van de pihole-container. Waarom zou deze elke 30 seconden iets moeten gaan mounten?
Volgens deze issue wordt dit veroorzaakt door de health check van Docker. Voor elke check worden de regels aangemaakt in de syslog. Er staan ook workarounds genoemd om het spammen te stoppen.
Blijkbaar speelt dit al een tijdje. Zal mijn eigen logs ook maar eens bekijken... :/

[Voor 9% gewijzigd door ravedek op 09-01-2022 10:16]

https://fictionbecomesfact.com - Mijn digitale tuin


  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 23:40
ravedek schreef op zondag 9 januari 2022 @ 09:41:
[...]


Volgens deze issue wordt dit veroorzaakt door de health check van Docker. Voor elke check worden de regels aangemaakt in de syslog. Er staan ook workarounds genoemd om het spammen te stoppen.
Blijkbaar speelt dit al een tijdje. Zal mijn eigen logs ook maar eens bekijken... :/
Soms is de oplossing zo simpel. --no-healthcheck toegevoegd en het is voorbij. :-)
Thanx. Waarom de pihole-container de enige is die dit doet is mij een raadsel.

Acties:
  • +1Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 00:41

Mars Warrior

Earth, the final frontier

DikkieDick schreef op zondag 9 januari 2022 @ 10:44:
[...]
Soms is de oplossing zo simpel. --no-healthcheck toegevoegd en het is voorbij. :-)
Thanx. Waarom de pihole-container de enige is die dit doet is mij een raadsel.
Health checks zijn ‘hip’ en zijn heel normaal als je bijv kubernetes (of k3s, k0s) draait: het hoort bij de failover functionaliteit.

Steeds meer containers hebben het nu ingebouwd. Voor thuis is het niet echt relevant en kost het enkel cpu en dus extra stroom: ik draai op een servertje zo’n 30 containers waarvan meer als de helft elke 5 sec een health check doen met als resultaat een constante load van 15-20% cpu.

Zet ik de health check uit of erg lang, dan zakt de cpu load naar 1-3% :D

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 23:40
Mars Warrior schreef op zondag 9 januari 2022 @ 11:32:
[...]

Health checks zijn ‘hip’ en zijn heel normaal als je bijv kubernetes (of k3s, k0s) draait: het hoort bij de failover functionaliteit.

Steeds meer containers hebben het nu ingebouwd. Voor thuis is het niet echt relevant en kost het enkel cpu en dus extra stroom: ik draai op een servertje zo’n 30 containers waarvan meer als de helft elke 5 sec een health check doen met als resultaat een constante load van 15-20% cpu.

Zet ik de health check uit of erg lang, dan zakt de cpu load naar 1-3% :D
Aha, tja, ik draai het op een Raspberry Pi4 en dan is het minder spannend. Maak regelmatig backups van de volumes met de 'belangrijke' data. Bedenk me wel dat het ook wel handig is de scripts om de containers aan te maken te backuppen. :-)
Heb de Pi sinds ruim een maandje en had ook nog niet de behoefte gehad in de syslog te kijken maar nadat ik er gisteren een SSD aan had gehangen was ik wel nieuwsgierig genoeg.

Acties:
  • +1Henk 'm!

  • rens-br
  • Registratie: December 2009
  • Laatst online: 07:35

rens-br

Admin IN & Moderator Mobile
DikkieDick schreef op zondag 9 januari 2022 @ 08:52:
[...]


5 minuten is best vlot. Kostte bij mij nog wel enig uitzoekwerk hoe alles goed in te stellen, maar uiteindelijk werkt het middels aantal duckdns-subdomeinen. die dan naar verschillende poorten doorverwijzen op de RPi4.
Ik had domein, DuckDNS, etc. al ingesteld van mijn oude setup, ik hoefde de boel dus alleen te installeren.

  • HF5236
  • Registratie: Augustus 2020
  • Laatst online: 29-09 10:46
Hallo Allen,

Ik heb al een tijdje een aantal docker containers draaien op mijn Synology NAS en maak hierbij ook gebruik van Portainer. Nu heb ik een bepaalde container die een image gebruikt waarbij de verwijzing naar een versienummer wordt gemaakt.

Nu zou ik graag een nieuwere versie gebruiken van de de software alleen ik kan maar niet vinden hoe ik de juiste versie kan koppelen aan de container. Kan iemand mij vertellen hoe ik dit wijzig

Om het concreet te maken, de imagetag is nu
koenkk/zigbee2mqtt:1.17.0 , dit wil ik wijzigen in koenkk/zigbee2mqtt:latest

  • akimosan
  • Registratie: Augustus 2003
  • Niet online
Ervanuit gaande dat je geen non-persistent configuratie hebt:

https://www.wundertech.ne...ontainer-using-portainer/

  • Oon
  • Registratie: Juni 2019
  • Niet online
rens-br schreef op woensdag 5 januari 2022 @ 10:10:
[...]


code:
1
{"level":"error","ts":1641371435.5467937,"logger":"http.log.error","msg":"x509: cannot validate certificate for 192.168.0.201 because it doesn't contain any IP SANs","request":{"remote_addr":"159.100.87.98:46839","proto":"HTTP/1.1","method":"GET","host":"domoticz.DOMEIN.nl","uri":"/json","headers":{"Sec-Websocket-Key":["ToLzImflSN1NuldbcS4LwQ=="],"Sec-Websocket-Protocol":["domoticz"],"Upgrade":["websocket"],"Accept-Encoding":["gzip, deflate, br"],"Accept-Language":["nl-NL,nl;q=0.9,en-US;q=0.8,en;q=0.7"],"Pragma":["no-cache"],"Cookie":["DMZSID=db6b5005fb806dabe2d0b9ae6866e3c3_N2U0NjBiODYtOWU5Mi00MDZjLThlYzItYWExZjc5ZWFjNTY5.1643800053"],"Sec-Websocket-Extensions":["permessage-deflate; client_max_window_bits"],"Connection":["Upgrade"],"Cache-Control":["no-cache"],"User-Agent":["Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36"],"Origin":["https://domoticz.DOMEIN.nl"],"Sec-Websocket-Version":["13"]},"tls":{"resumed":false,"version":772,"cipher_suite":4867,"proto":"","proto_mutual":true,"server_name":"domoticz.DOMEIN.nl"}},"duration":0.070942657,"status":502,"err_id":"euu3b248z","err_trace":"reverseproxy.statusError (reverseproxy.go:886)"}



[...]


Dit heb ik net even aangepast en getest, maar dat werkt ook niet.

Ik heb de hoop ook opgegeven om Caddy werkend te krijgen en heb nu Ngnix Proxy Manager geïnstalleerd en had dat draaiend binnen 5 minuten.

Voordeel is ook meteen dat het door de userinterface een heel stuk gebruikersvriendelijker is.

Allen in ieder geval bedankt voor het meedenken!
Misschien net te laat, maar ik gebruik al een tijdje met veel succes https://github.com/lucaslorentz/caddy-docker-proxy om Caddy direct aan Docker te hangen. Je kan daarbij met labels je Caddyfile opbouwen, en makkelijk per service schakelen.

Nginx Proxy Manager moet ik ook nog eens uitproberen, misschien dat dat veel fijner is, maar iemand had mij Caddy aangeraden en toen ben ik eens gaan zoeken want ik kreeg het met een hardcoded Caddyfile ook niet aan de praat..

  • HF5236
  • Registratie: Augustus 2020
  • Laatst online: 29-09 10:46
Ik heb deze inderdaad gevolgd alleen omdat mn image verwijst naar versie 1.17.0 haalt ie deze versie weer op.

  • lolgast
  • Registratie: November 2006
  • Laatst online: 08:25
@HF5236 Ik heb geen zin om de video te kijken om te achterhalen hoe je config eruit ziet, maar voor Docker geldt: Als je geen versienummer invult pakt hij automatisch :latest

  • HF5236
  • Registratie: Augustus 2020
  • Laatst online: 29-09 10:46
Ha lolgast,

Dat klopt, alleen bij mij ziet de verwijzing van de image er zo uit, ik kom er niet achter hoe ik dit wijzig


https://tweakers.net/i/SqfEWBRXWTAObcxrtXt79DwCNxE=/800x/filters:strip_exif()/f/image/gDHrPOJ44VcATnqVSZOSruzb.png?f=fotoalbum_large

  • lolgast
  • Registratie: November 2006
  • Laatst online: 08:25
@HF5236 Door een nieuwe container te starten. Dat kan volgens mij vanuit Portainer door 'recreate' te kiezen en de image aan te passen (gok ik, laatste keer dat ik Portainer gebruikte was 2 jaar geleden) Of door simpelweg een compleet nieuwe container te maken waarbij je alles opnieuw instelt en dan meteen de juiste image te kiezen.
Dan zul je wel eerst deze moeten verwijderen, want met 2 containers naar dezelfde data en/of USB device kijken is volgens mij niet mogelijk.

offtopic:
Ik weet nu ook weer waarom ik Portainer maar ruk vind

[Voor 6% gewijzigd door lolgast op 11-01-2022 10:57]


  • HF5236
  • Registratie: Augustus 2020
  • Laatst online: 29-09 10:46
Ik ben er uit,

in plaats van recreate kan je kiezen voor duplicate, dan pas je de verwijzing van de image aan en kies je deploy. Dan vervangt hij de oude versie voor de nieuwe :)

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 27-09 23:57
HF5236 schreef op dinsdag 11 januari 2022 @ 11:27:
Ik ben er uit,

in plaats van recreate kan je kiezen voor duplicate, dan pas je de verwijzing van de image aan en kies je deploy. Dan vervangt hij de oude versie voor de nieuwe :)
De beste methode (vind ik) blijft toch om docker-compose te gebruiken.. :)

  • Toppe
  • Registratie: Januari 2004
  • Laatst online: 09:43

Toppe

Oké ✅

Wellicht dat iemand hier mij op weg kan/wil helpen... Ik doe wat fout, maar wat?

Ik probeer HA te installeren volgens deze methode: https://www.home-assistan...tion/linux#docker-compose

Nu heb ik gelezen dat de compose optie veruit de 'makkelijkste' is. Maar ik loop vast op het stukje volumes.
Ik wil namelijk graag een 'eigen' volume aanmaken met docker volume create homeassistant_data om die volume te gebruiken in docker-compose:
code:
1
2
    volumes:
      - homeassistant_data:/config


Ik doe wat fout, maar wat? Moet ik met docker-compose helemaal geen eigen volumes aanmaken? Hoe zorg ik dan dat alles netjes in de zelfde locatie terecht komt?

Moet ik dan na het aanmaken van de volume het volledige pad opgeven? dus /var/lib/docker/volumes/homeassistant_data? werkt niet.

[Voor 9% gewijzigd door Toppe op 20-01-2022 11:40]

Donstil: Je moet kopen wat je wilt hebben. Niet wat je nodig hebt!


  • Webgnome
  • Registratie: Maart 2001
  • Laatst online: 07:56
Ik zou zeggen lees je eerst even in hoe dat docker compose werkt. Een volume in een compose file is een mapping tussen een directory op je host en die in de docker container. Wat je dus zal moeten doen is die homeassistent_data moeten vervangen door bijvoorbeeld iets als /var/data/homeassistent/config:/config

Strava, Twitter


  • Hathi
  • Registratie: Mei 2012
  • Laatst online: 00:05
Je kan in docker compose ook gewoon named volumes gebruiken, maar die moet je wel eerst aangemaakt hebben, dat aanmaken gaat dus buiten docker compose om.
Dus eerst volume aanmaken met docker volume create homeassistant_data en daarna die homeassistant_data gebruiken in je docker compose file.

  • Webgnome
  • Registratie: Maart 2001
  • Laatst online: 07:56
de docker compose maakt die volumes toch automatisch aan bij de eerste keer launchen?

Strava, Twitter


  • Shadow771
  • Registratie: December 2011
  • Laatst online: 27-09 23:57
Webgnome schreef op donderdag 20 januari 2022 @ 12:46:
de docker compose maakt die volumes toch automatisch aan bij de eerste keer launchen?
Zolang je dat opgeeft in je compose file.

  • Toppe
  • Registratie: Januari 2004
  • Laatst online: 09:43

Toppe

Oké ✅

Hathi schreef op donderdag 20 januari 2022 @ 12:20:
Je kan in docker compose ook gewoon named volumes gebruiken, maar die moet je wel eerst aangemaakt hebben, dat aanmaken gaat dus buiten docker compose om.
Dus eerst volume aanmaken met docker volume create homeassistant_data en daarna die homeassistant_data gebruiken in je docker compose file.
Dat dacht ik dus ook. Als ik de docker-compose.yml aanpas en geef daar bij het volume homeassistant_data:/config mee dan krijg ik een fout melding:
ERROR: Named volume "homeassistant_data:/config:rw" is used in service "homeassistant" but no declaration was found in the volumes section.
Blijft de vraag, hoe zorg ik dat ik in een docker-compose een zelf gemaakt volume kan laten gebruiken, of dat hij zelf een volume aanmaakt onder de normale locatie namelijk /var/lib/docker/volumes/

Donstil: Je moet kopen wat je wilt hebben. Niet wat je nodig hebt!


  • technorabilia
  • Registratie: November 2006
  • Laatst online: 30-09 20:01

technorabilia

(fka kraades)

@Toppe
Je moet deze dan aangeven in de compose file.
https://docs.docker.com/s...olume-with-docker-compose

Als je in plaats hiervan zoiets als /pad/op/host gebruikt dan is dit niet nodig.

Dit zijn twee verschillende manieren van werken.

👉🏻 Blog 👈🏻


  • Toppe
  • Registratie: Januari 2004
  • Laatst online: 09:43

Toppe

Oké ✅

technorabilia schreef op donderdag 20 januari 2022 @ 13:09:
@Toppe
Je moet deze dan aangeven in de compose file.
https://docs.docker.com/s...olume-with-docker-compose

Als je in plaats hiervan zoiets als /pad/op/host gebruikt dan is dit niet nodig.

Dit zijn twee verschillende manieren van werken.
Check, dank je wel! Deze doet het wel in een zelf gemaakt volume:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
version: '3'
services:
  homeassistant:
    container_name: homeassistant
    image: "ghcr.io/home-assistant/home-assistant:stable"
    volumes:
      - homeassistant_data:/config
      - /etc/localtime:/etc/localtime:ro
    restart: unless-stopped
    privileged: true
    network_mode: host
volumes:
  homeassistant_data:
    external: true

Als ik regel 14 weg laat maakt hij automatisch een volume aan met de username er voor. In dit geval pi_homeassistant_data.

Nu even testen of de data behouden blijft na een update of wat :)

Donstil: Je moet kopen wat je wilt hebben. Niet wat je nodig hebt!


  • technorabilia
  • Registratie: November 2006
  • Laatst online: 30-09 20:01

technorabilia

(fka kraades)

Toppe schreef op donderdag 20 januari 2022 @ 13:14:
Als ik regel 14 weg laat maakt hij automatisch een volume aan met de username er voor. In dit geval pi_homeassistant_data.
Dat is niet de user maar de directory waarin je de docker-compose up -d doet.

Edit:
Sommigen geven de voorkeur aan de /pad/naar/ha/config optie omdat je deze dan makkelijk kunt benaderen, backuppen etc.

Beide hebben voor- en nadelen.

[Voor 19% gewijzigd door technorabilia op 20-01-2022 13:22]

👉🏻 Blog 👈🏻


  • Toppe
  • Registratie: Januari 2004
  • Laatst online: 09:43

Toppe

Oké ✅

technorabilia schreef op donderdag 20 januari 2022 @ 13:20:
[...]


Dat is niet de user maar de directory waarin je de docker-compose up -d doet.
My bad. Zat in de home dir van user Pi. Dat verklaart dus wel het een en ander.

Normaal kopieer en plak ik maar wat, zolang het maar werkte. Nu ga ik m'n servetje een reset geven en wil dus alles wel netjes doen. Had verwacht dat Docker eenvoudiger zou werken maar dat kan ook aan mijn kennis liggen ;)
Edit:
Sommigen geven de voorkeur aan de /pad/naar/ha/config optie omdat je deze dan makkelijk kunt benaderen, backuppen etc.
Als je het path naar de volumes weet is de uiteindelijke werking toch het zelfde?

[Voor 18% gewijzigd door Toppe op 20-01-2022 13:25]

Donstil: Je moet kopen wat je wilt hebben. Niet wat je nodig hebt!


  • technorabilia
  • Registratie: November 2006
  • Laatst online: 30-09 20:01

technorabilia

(fka kraades)

Toppe schreef op donderdag 20 januari 2022 @ 13:24:
Als je het path naar de volumes weet is de uiteindelijke werking toch het zelfde?
Ja, misschien wel.
Zelf heb ik het liever in een zelfgekozen directory dan ergens in een docker directory.
Maar dat is persoonlijke voorkeur.

Volumes hebben ook een aantal voordelen:
https://docs.docker.com/storage/volumes/

👉🏻 Blog 👈🏻


  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 06:56
Toppe schreef op donderdag 20 januari 2022 @ 13:14:
Als ik regel 14 weg laat maakt hij automatisch een volume aan met de username er voor. In dit geval pi_homeassistant_data.
Ter aanvulling op de post van @technorabilia. "pi" is noch van de username noch de naam van de map. "pi" is de naam van het project en alles wat door deze docker-compose file wordt aangemaakt en geen expliciete naam heeft wordt geprefixed met de naam van het project (+ een underscore dan). Op het moment dat er geen projectnaam is opgegeven default deze echter wel naar de naam van de huidige map. Deze naam aanpassen kan IIRC door in dezelfde map een .env file te maken met een COMPOSE_PROJECT_NAME variable er in, dus COMPOSE_PROJECT_NAME=test en vervolgens wordt alles met test_ geprefixt. Houd hier dus ook rekening mee als je of de map hernoemd of de docker-compose file verplaatst. Bij een volgende up zal die dus alles nieuw (als in, dubbel) aanmaken tenzij je expliciet een project naam hebt opgegeven.

  • D vd V
  • Registratie: Oktober 2011
  • Niet online

D vd V

Moderator Consumentenelektronica
Als ik op “Authelia” zoek, vind ik bijzonder weinig posts over deze container. Maar iemand dit draaiend gekregen op een Synology NAS?

Ben sinds een paar weken met Docker bezig en er al doende en met alle online info al een heel eind mee gekomen en een stuk of 20 container draaien. Maar Authelia krijg ik maar niet echt aan de praat. In de allerlaatste stap gaat het volgens mij mis en ik krijg het maar niet opgelost.

Wat ging goed
- Domein geregistreerd;
- DNS omgezet naar Cloudflare en daar SSL certificaten aangemaakt;
- CNAMES gemaakt voor subdomeinen;
- Nginx Proxy Manager draait;
- Gemaakte reverse proxies werken;
- Authelia draait, 2FA via Authy is ingesteld.

Laatste stap (denk ik)
Als laatste moeten de subdomeinen achter Authelia komen. Maar als ik die stukjes config in Nginx toevoeg bij de respectievelijke reverse proxy, is het direct stuk. Er zijn diverse tutorials online te vinden; de strekking en voorbeeld configs zijn nagenoeg allemaal gelijk. Maar welke ik ook als referentie gebruik, vlak voor de spreekwoordelijke finish gaat het toch mis. Iemand dit werkend gekregen?

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 23:40
technorabilia schreef op donderdag 20 januari 2022 @ 13:20:
[...]


Dat is niet de user maar de directory waarin je de docker-compose up -d doet.

Edit:
Sommigen geven de voorkeur aan de /pad/naar/ha/config optie omdat je deze dan makkelijk kunt benaderen, backuppen etc.

Beide hebben voor- en nadelen.
Bij mij geniet de voorkeur toch om die volumes op 1 plek te hebben en niet onder /home/pi/subdir
Qua backuppen zal het allemaal niet veel uitmaken. Ik heb een redelijk generiek backupscript om die volumes te backuppen.
Voor de liefhebber een voorbeeldje:

Bash:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
pi@raspberrypi:~/scripts $ cat backup_nginx.sh
#!/bin/bash

CONTAINER=nginx
RUNNING_CONTAINER=$(docker container ls -q --filter name=${CONTAINER}*)
CONTAINER_VOL1=/data
CONTAINER_VOL2=/etc/letsencrypt
CONTAINER_VOL3=
BACKUP_DIR=/mnt/pi-backup/${CONTAINER}
TODAY=$(date +"%Y%m%d_%H%M")

if [ ! -d "${BACKUP_DIR}" ] ; then
   mkdir ${BACKUP_DIR}
fi

# docker stop ${RUNNING_CONTAINER}

docker run --rm  --volumes-from ${CONTAINER} -v ${BACKUP_DIR}:/backup busybox tar cvpfz /backup/${CONTAINER}cfg_${TODAY}.tgz ${CONTAINER_VOL1} ${CONTAINER_VOL2} ${CONTAINER_VOL3}

# docker start ${RUNNING_CONTAINER}

# check en verwijder backupfiles ouder dan 7 dagen

find ${BACKUP_DIR}/${CONTAINER}cfg*  -mtime +7 -exec ls -ltr  {} \;
find ${BACKUP_DIR}/${CONTAINER}cfg*.tgz -mtime +7 -exec rm {} \;
find ${BACKUP_DIR}/${CONTAINER}cfg*  -mtime +7 -exec ls -ltr  {} \;


In dit specifieke geval is het IMHO niet nodig de container te stoppen en te starten. Soms gebruik ik ook pause en unpause maar dat gaat ook weer niet overal goed.

En /mnt/pi-backup is een directory op mijn NAS.

[Voor 0% gewijzigd door DikkieDick op 04-02-2022 17:07. Reden: klein foutje verbeterd. De rm ontbrak en bevatte ook weer een regel met ls]


  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 23:40
Hmm... er is voor de Raspberry Pi een officiële 64bits versie en omdat ik zowel sd als ssd heb, waarvan ik de sd niet gebruik hier 64bits os op geflasht. Van de SSD /var/lib/docker/* gekopieerd naar de sd. En dan maar starten. Dat gaat op zich goed. Meeste containers draaien netjes. Alleen pihole-unbound mekkerde maar na een nieuwe pull ging dat goed.
Nou heb ik een eigen image influxdb-grafana-telegraf (github-fork van een repository welke al sinds 2018 niet meer werd bijgewerkt en waar ik wat nieuw leven in heb gebracht door de onderliggende versies te upgraden) en dat leek goed te gaan, echter is Grafana van de 3 de enige die niet wil starten en continu blijft mekkeren dat ie de config niet kan vinden die 'gewoon' op de default plek staat.
Ook nieuwe image maken met als bron een arm64/v8 Debian haalt ook niets uit. Blijft zelfde melding geven. Dus nog maar niet sd naar ssd gekopieerd, maar weer van ssd met 32bits os opgestart. Iets voor de Grafana-community vrees ik. Of heeft iemand nog een briljant idee. Enige wat ik hoef te doen om van de sd te starten is 'even' /var/lib/docker/volumes te verversen op de sd met de laatste status van de volumes op de ssd.

Update: soms is het zo simpel. Ik had als root een kopie gemaakt van /var/lib/docker/volumes op de ssd naar de /var/lib/docker op sd. Maakt ie overal owner root van, terwijl Grafana in zijn of haar volumes graag zelf owner is van bepaalde bestanden. Dat aangepast en nog een herstart gedaan en nu deed ie het.

[Voor 11% gewijzigd door DikkieDick op 09-02-2022 08:24]


  • Kimi-Alonso
  • Registratie: Juli 2006
  • Niet online
D vd V schreef op zondag 23 januari 2022 @ 16:01:
Als ik op “Authelia” zoek, vind ik bijzonder weinig posts over deze container. Maar iemand dit draaiend gekregen op een Synology NAS?

Ben sinds een paar weken met Docker bezig en er al doende en met alle online info al een heel eind mee gekomen en een stuk of 20 container draaien. Maar Authelia krijg ik maar niet echt aan de praat. In de allerlaatste stap gaat het volgens mij mis en ik krijg het maar niet opgelost.

Wat ging goed
- Domein geregistreerd;
- DNS omgezet naar Cloudflare en daar SSL certificaten aangemaakt;
- CNAMES gemaakt voor subdomeinen;
- Nginx Proxy Manager draait;
- Gemaakte reverse proxies werken;
- Authelia draait, 2FA via Authy is ingesteld.

Laatste stap (denk ik)
Als laatste moeten de subdomeinen achter Authelia komen. Maar als ik die stukjes config in Nginx toevoeg bij de respectievelijke reverse proxy, is het direct stuk. Er zijn diverse tutorials online te vinden; de strekking en voorbeeld configs zijn nagenoeg allemaal gelijk. Maar welke ik ook als referentie gebruik, vlak voor de spreekwoordelijke finish gaat het toch mis. Iemand dit werkend gekregen?
Ik heb het onlangs bij mijzelf werkend gekregen middels https://www.youtube.com/watch?v=4UKOh3ssQSU.

Weliswaar zonder 2F authy maar hopelijk helpt dit je opweg!

  • D vd V
  • Registratie: Oktober 2011
  • Niet online

D vd V

Moderator Consumentenelektronica
Kimi-Alonso schreef op woensdag 9 februari 2022 @ 12:53:
[...]


Ik heb het onlangs bij mijzelf werkend gekregen middels https://www.youtube.com/watch?v=4UKOh3ssQSU.

Weliswaar zonder 2F authy maar hopelijk helpt dit je opweg!
Thanks voor de reactie. Ik had deze tutorial gezien. Als ik die volg, blijf ik ook hangen bij de allerlaatste stap. Op het moment dat ik de config voor een protected domain toevoeg in Nginx Proxy Manager, is het stuk en niet meer bereikbaar. Het probleem zal dus vast in die config zitten maar hoeveel variaties ik ook gevonden en geprobeerd heb; ik krijg het niet aan de praat.

  • Kimi-Alonso
  • Registratie: Juli 2006
  • Niet online
D vd V schreef op woensdag 9 februari 2022 @ 13:02:
[...]

Thanks voor de reactie. Ik had deze tutorial gezien. Als ik die volg, blijf ik ook hangen bij de allerlaatste stap. Op het moment dat ik de config voor een protected domain toevoeg in Nginx Proxy Manager, is het stuk en niet meer bereikbaar. Het probleem zal dus vast in die config zitten maar hoeveel variaties ik ook gevonden en geprobeerd heb; ik krijg het niet aan de praat.
Het zou moeten werken als je de tutorial exact volgt :)

Misschien kun je het eerst proberen met one-factor authenticatie om te zien of het dan wel werkt.

Heb je ook specifieke container_names aangemaakt waar je naar refereert in je nginx config?

  • D vd V
  • Registratie: Oktober 2011
  • Niet online

D vd V

Moderator Consumentenelektronica
Kimi-Alonso schreef op woensdag 9 februari 2022 @ 13:21:
[...]


Het zou moeten werken als je de tutorial exact volgt :)
Meerdere keren van 0 begonnen maar toch zonder resultaat.
Misschien kun je het eerst proberen met one-factor authenticatie om te zien of het dan wel werkt.
Dat had ik nog niet geprobeerd. Nu wel maar ik blijf op het allerlaatste moment tegen een voor mij niet te achterhalen fout lopen. Alleen de advanced config in Nginx voor het te beschermen domein moet er nog bij en dan loopt het mis.
Heb je ook specifieke container_names aangemaakt waar je naar refereert in je nginx config?
Zeker, en op een custom docker netwerk.

  • Kimi-Alonso
  • Registratie: Juli 2006
  • Niet online
D vd V schreef op woensdag 9 februari 2022 @ 16:30:
[...]

Meerdere keren van 0 begonnen maar toch zonder resultaat.


[...]

Dat had ik nog niet geprobeerd. Nu wel maar ik blijf op het allerlaatste moment tegen een voor mij niet te achterhalen fout lopen. Alleen de advanced config in Nginx voor het te beschermen domein moet er nog bij en dan loopt het mis.


[...]

Zeker, en op een custom docker netwerk.
Kan je die config eens laten zien?

  • D vd V
  • Registratie: Oktober 2011
  • Niet online

D vd V

Moderator Consumentenelektronica
Kimi-Alonso schreef op woensdag 9 februari 2022 @ 16:37:
[...]


Kan je die config eens laten zien?
Natuurlijk, zie onderstaand. Deze is op basis van de tutorial en sjabloon van DB Tech. Ik heb ook varianten hierop gevonden en getest.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
location /authelia {
internal;
set $upstream_authelia http://192.168.1.111:9091/api/verify; #change the IP and Port to match the IP and Port of your Authelia container
proxy_pass_request_body off;
proxy_pass $upstream_authelia;    
proxy_set_header Content-Length "";

# Timeout if the real server is dead
proxy_next_upstream error timeout invalid_header http_500 http_502 http_503;
client_body_buffer_size 128k;
proxy_set_header Host $host;
proxy_set_header X-Original-URL $scheme://$http_host$request_uri;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $remote_addr; 
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header X-Forwarded-Host $http_host;
proxy_set_header X-Forwarded-Uri $request_uri;
proxy_set_header X-Forwarded-Ssl on;
proxy_redirect  http://  $scheme://;
proxy_http_version 1.1;
proxy_set_header Connection "";
proxy_cache_bypass $cookie_session;
proxy_no_cache $cookie_session;
proxy_buffers 4 32k;

send_timeout 5m;
proxy_read_timeout 240;
proxy_send_timeout 240;
proxy_connect_timeout 240;
}

location / {
set $upstream_linuxserver-heimdall $forward_scheme://$server:$port;
proxy_pass $upstream_linuxserver-heimdall;

auth_request /authelia;
auth_request_set $target_url https://$http_host$request_uri;
auth_request_set $user $upstream_http_remote_user;
auth_request_set $email $upstream_http_remote_email;
auth_request_set $groups $upstream_http_remote_groups;
proxy_set_header Remote-User $user;
proxy_set_header Remote-Email $email;
proxy_set_header Remote-Groups $groups;

error_page 401 =302 https://authelia.MIJNDOMEIN.nl/?rd=$target_url; #change this to match your authentication domain/subdomain

client_body_buffer_size 128k;

proxy_next_upstream error timeout invalid_header http_500 http_502 http_503;

send_timeout 5m;
proxy_read_timeout 360;
proxy_send_timeout 360;
proxy_connect_timeout 360;

proxy_set_header Host $host;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection upgrade;
proxy_set_header Accept-Encoding gzip;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header X-Forwarded-Host $http_host;
proxy_set_header X-Forwarded-Uri $request_uri;
proxy_set_header X-Forwarded-Ssl on;
proxy_redirect  http://  $scheme://;
proxy_http_version 1.1;
proxy_set_header Connection "";
proxy_cache_bypass $cookie_session;
proxy_no_cache $cookie_session;
proxy_buffers 64 256k;

set_real_ip_from 192.168.1.0/24; #make sure this matches your network setup
real_ip_header CF-Connecting-IP;
real_ip_recursive on;

}

Ik draai al mijn Docker containers op een Synology NAS.

Als alternatief heb ik ook Virtual Machine Manager daarop geïnstalleerd en Docker, Authelia, etc. in een schone VM met Ubuntu Server getest. Tevens via een Raspberry Pi de boel aan de praat proberen te krijgen met Docker. Altijd is de laatste Nginx advanced config het struikelblok. Ik vermoed dat het ergens een netwerk-dingetje is maar krijg het niet achterhaald.

  • Kimi-Alonso
  • Registratie: Juli 2006
  • Niet online
D vd V schreef op donderdag 10 februari 2022 @ 07:31:
[...]

Natuurlijk, zie onderstaand. Deze is op basis van de tutorial en sjabloon van DB Tech. Ik heb ook varianten hierop gevonden en getest.

code:
1


Ik draai al mijn Docker containers op een Synology NAS.

Als alternatief heb ik ook Virtual Machine Manager daarop geïnstalleerd en Docker, Authelia, etc. in een schone VM met Ubuntu Server getest. Tevens via een Raspberry Pi de boel aan de praat proberen te krijgen met Docker. Altijd is de laatste Nginx advanced config het struikelblok. Ik vermoed dat het ergens een netwerk-dingetje is maar krijg het niet achterhaald.
Lastig... die config lijkt inderdaad goed.

Het eerste wat nu bij mij op komt zijn firewall settings? Verder misschien iets in de authelia config? Of wellicht iets in je cloudflare settings.

  • c-nan
  • Registratie: Juni 2008
  • Laatst online: 10:01
Ik ken Authelia niet en ook (nog) niet naar gekeken. Maar wat gaat er niet goed? Wat is de (fout)melding? Je geeft aan dat het niet werkt en direct stuk gaat, maar je hebt toch wel iets van logging of een foutmelding?

  • D vd V
  • Registratie: Oktober 2011
  • Niet online

D vd V

Moderator Consumentenelektronica
Kimi-Alonso schreef op donderdag 10 februari 2022 @ 17:29:
[...]


Het eerste wat nu bij mij op komt zijn firewall settings? Verder misschien iets in de authelia config? Of wellicht iets in je cloudflare settings.
Qua firewall heb ik alleen poorten 80 en 443 doorgezet vanuit de router naar Nginx Proxy Manager. Waar zou je aan denken? Authelia config is redelijk groot maar het is bijna allemaal standaard. Qua Cloudflare werkt alles prima met SSL en dergelijke.
c-nan schreef op donderdag 10 februari 2022 @ 17:38:
Ik ken Authelia niet en ook (nog) niet naar gekeken. Maar wat gaat er niet goed? Wat is de (fout)melding? Je geeft aan dat het niet werkt en direct stuk gaat, maar je hebt toch wel iets van logging of een foutmelding?
Bijna alles werkt zoals het hoort. Met SSL-certificaten toegang tot service1.mijndomein.nl, etc. Authelia draait, ik heb een account met 2FA aangemaakt. Tot zo ver niets aan de hand.

Laatste stap is een advanced config in NPM om de desbetreffende service achter het 2FA-portaal te zetten. En dat geeft het probleem. In NPM wordt het bolletje direct rood met status offline. De reverse proxy die daarvoor gewoon werkte geeft dan een 520 error tussen de origin server en Cloudflare. Vanuit de logs wordt ik niets wijzer; die zien er volgens mij prima uit. Maar ergens ontstaat dus een netwerk-fout, vermoed ik

  • Foxdelta-mods
  • Registratie: Mei 2009
  • Laatst online: 30-09 07:35
D vd V schreef op vrijdag 11 februari 2022 @ 08:52:
[...]

Qua firewall heb ik alleen poorten 80 en 443 doorgezet vanuit de router naar Nginx Proxy Manager. Waar zou je aan denken? Authelia config is redelijk groot maar het is bijna allemaal standaard. Qua Cloudflare werkt alles prima met SSL en dergelijke.
Waarom niet alleen poort 443 en dan via DNS (Cloudflare) Scheelt weer een extra poort die open staat naar de buitenwereld.

Ik ben eigelijk wel benieuwd naar hoe jullie je containers benaderen. Heb ondertussen SWAG (NGINX) draaien + cloudflare en dit werkt perfect voor webserver + nextcloud echter alle andere zaken heb ik achter een VPN zitten (wireguard). Ik zie echter genoeg voorbeelden/mensen die zo'n beetje hun hele hebben en houden achter NGINX hebben zitten en daarmee dus iedere container aan het net hebben hangen + dan bijv authelia als inlog.

  • Mr.Viper
  • Registratie: Oktober 2005
  • Laatst online: 30-09 17:34

Mr.Viper

Tja... iets met Dodge Vipers

Foxdelta-mods schreef op vrijdag 11 februari 2022 @ 14:25:
[...]

Waarom niet alleen poort 443 en dan via DNS (Cloudflare) Scheelt weer een extra poort die open staat naar de buitenwereld.

Ik ben eigelijk wel benieuwd naar hoe jullie je containers benaderen. Heb ondertussen SWAG (NGINX) draaien + cloudflare en dit werkt perfect voor webserver + nextcloud echter alle andere zaken heb ik achter een VPN zitten (wireguard). Ik zie echter genoeg voorbeelden/mensen die zo'n beetje hun hele hebben en houden achter NGINX hebben zitten en daarmee dus iedere container aan het net + dan bijv authelia als inlog.
Inderdaad dat vraag ik mij ook steeds af, misschien is mijn usecase ook wel te simpel. Ik heb maar 2 poorten open staan voor HTTPS en VPN.

De containers die naar buiten gaan, gaan via een reverse proxy (Caddy) en dat zijn Nextcloud en Vaultwarden. Via mijn eigen domeinnaam en CloudFlare als DDNS. De rest als ik dat wil bedienen van buiten mijn WiFi-bereik heb ik daar een VPN (Wireguard) voor. En dan heb ik voor Nextcloud en Vaultwarden wel natuurlijk 2FA aan staan.

|| System Specs ||


  • Foxdelta-mods
  • Registratie: Mei 2009
  • Laatst online: 30-09 07:35
Mr.Viper schreef op vrijdag 11 februari 2022 @ 14:52:
[...]


Inderdaad dat vraag ik mij ook steeds af, misschien is mijn usecase ook wel te simpel. Ik heb maar 2 poorten open staan voor HTTPS en VPN.

De containers die naar buiten gaan, gaan via een reverse proxy (Caddy) en dat zijn Nextcloud en Vaultwarden. Via mijn eigen domeinnaam en CloudFlare als DDNS. De rest als ik dat wil bedienen van buiten mijn WiFi-bereik heb ik daar een VPN (Wireguard) voor. En dan heb ik voor Nextcloud en Vaultwarden wel natuurlijk 2FA aan staan.
Ja dat argument had ik dus ook; "misschien is mijn usecase ook wel te simpel". Ik lees/zie mensen die dus zaken zoals sonarr/radarr/etc. etc. gewoon als container naar buiten brengen met als argument dat het verbinden via VPN te lastig is. Mijn atechnische vriendin kan prima het schuifje van wireguard bedienen om vervolgens via Organizr overal naartoe te navigeren. Ik zie hier niet de noodzaak om dergelijke containers naar buiten te brengen.

Mischien is het ook wel gewoon voor "de leuk".

  • D vd V
  • Registratie: Oktober 2011
  • Niet online

D vd V

Moderator Consumentenelektronica
Mr.Viper schreef op vrijdag 11 februari 2022 @ 14:52:
[...]


Inderdaad dat vraag ik mij ook steeds af, misschien is mijn usecase ook wel te simpel. Ik heb maar 2 poorten open staan voor HTTPS en VPN.

De containers die naar buiten gaan, gaan via een reverse proxy (Caddy) en dat zijn Nextcloud en Vaultwarden. Via mijn eigen domeinnaam en CloudFlare als DDNS. De rest als ik dat wil bedienen van buiten mijn WiFi-bereik heb ik daar een VPN (Wireguard) voor. En dan heb ik voor Nextcloud en Vaultwarden wel natuurlijk 2FA aan staan.
Foxdelta-mods schreef op vrijdag 11 februari 2022 @ 14:25:
[...]


Waarom niet alleen poort 443 en dan via DNS (Cloudflare) Scheelt weer een extra poort die open staat naar de buitenwereld.
Alleen 443 zou inderdaad ook prima zijn; heb 80 net ff dicht gezet.
Ik ben eigelijk wel benieuwd naar hoe jullie je containers benaderen. Heb ondertussen SWAG (NGINX) draaien + cloudflare en dit werkt perfect voor webserver + nextcloud echter alle andere zaken heb ik achter een VPN zitten (wireguard). Ik zie echter genoeg voorbeelden/mensen die zo'n beetje hun hele hebben en houden achter NGINX hebben zitten en daarmee dus iedere container aan het net hebben hangen + dan bijv authelia als inlog.
Over het algemeen kan ik alles via VPN benaderen. Op dit moment heb ik alleen Vaultwarden en Nextcloud via een eigen domein, via Cloudflare publiek staan. Met 2FA natuurlijk.
Met SWAG wil ik ook nog wel eens een keer gaan experimenteren. Maar dan moet ik Nginx Proxy Manager er uit gooien of niet.
Foxdelta-mods schreef op vrijdag 11 februari 2022 @ 15:05:
[...]

Mischien is het ook wel gewoon voor "de leuk".
Daar heb je gelijk in. Het is meer omdat het kan. Althans, dat dacht ik aangezien Authelia maar niet wil lukken. Ben er nu al bijna een maand mee aan het modderen. Het is wel mooi geweest. Ik houd het toch maar bij VPN. :P

  • Foxdelta-mods
  • Registratie: Mei 2009
  • Laatst online: 30-09 07:35
Alleen 443 zou inderdaad ook prima zijn; heb 80 net ff dicht gezet.
Kijk dat is mooi!
Over het algemeen kan ik alles via VPN benaderen. Op dit moment heb ik alleen Vaultwarden en Nextcloud via een eigen domein, via Cloudflare publiek staan. Met 2FA natuurlijk.
Met SWAG wil ik ook nog wel eens een keer gaan experimenteren. Maar dan moet ik Nginx Proxy Manager er uit gooien of niet.
Dan moet je idd NGINX eruit gooien. Maar ik moeten zeggen dat het hele opzetten van SWAG echt een peuleschilletje was in vergelijking met NGINX. Enige voordeel van NGINX is de UI die bij SWAG dus niet aanwezig is. Hoe heb jij nu 2FA dan? Heb dus nu nextcloud werken en gewoon benaderbaar via cloudflare (domein) echter zonder 2FA. Volgende stap was voor mij dus Authelia aan de praat krijgen en dan overwegen of ik de wireguard nog wel nodig heb.

  • D vd V
  • Registratie: Oktober 2011
  • Niet online

D vd V

Moderator Consumentenelektronica
Foxdelta-mods schreef op zaterdag 12 februari 2022 @ 13:30:
[...]


Kijk dat is mooi!


[...]


Dan moet je idd NGINX eruit gooien. Maar ik moeten zeggen dat het hele opzetten van SWAG echt een peuleschilletje was in vergelijking met NGINX. Enige voordeel van NGINX is de UI die bij SWAG dus niet aanwezig is. Hoe heb jij nu 2FA dan? Heb dus nu nextcloud werken en gewoon benaderbaar via cloudflare (domein) echter zonder 2FA. Volgende stap was voor mij dus Authelia aan de praat krijgen en dan overwegen of ik de wireguard nog wel nodig heb.
Nginx Proxy Manager vond ik toch behoorlijk makkelijk op te zetten met mijn Docker containers. Ik zou SWAG hooguit willen proberen om te testen om dat wel goed klikt met Authelia. Op een later moment. Voor nu heb ik er ff genoeg van, haha.

Vaultwarden heeft 2FA ingebouwd dus dat is slechts een kwestie van inschakelen. Met Nextcloud is het ook best eenvoudig. Installeer deze app in Nextcloud:

Daarna onder instellingen, persoonlijk, beveiliging TOTP inschakelen.

  • pven
  • Registratie: Oktober 1999
  • Niet online
Ik snap het even niet meer ... 8)7

Blijkbaar heb ik geen docker draaien, maar als ik zoek vind ik een domoticz-container:
code:
1
2
3
4
5
6
# docker ps
CONTAINER ID   IMAGE     COMMAND   CREATED   STATUS    PORTS     NAMES
# docker ps -a
CONTAINER ID   IMAGE                          COMMAND   CREATED        STATUS                    PORTS     NAMES
e23ef78fd1de   lscr.io/linuxserver/domoticz   "/init"   12 hours ago   Exited (0) 12 hours ago             domoticz2
#


Aanvulling: nada ik docker heb herstart krijg ik dit, portainer laat het nog steeds goed zien.
code:
1
2
# docker ps
Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running?



Ik heb echter ook Portainer draaien, en die laat ongeveer 15 draaiende containers zien waar ik ook bij kan. Uiteraard heb ik docker al herstart en ook mijn server, maar het resultaat is hetzelfde. Hoe kan ik nou weer al die containers zichtbaar maken met 'docker ps'? Ik weet het niet meer. Het lijkt alsof ik 2x docker heb draaien: eentje goed waar ik alleen via portainer bij kan, en eentje die het niet (meer?) doet.

[Voor 18% gewijzigd door pven op 13-02-2022 10:46]

We gaan eraan! || Marktplaats-meuk. Afdingen mag! ;-) || slotje.com for sale || Dank pven!


  • Foxdelta-mods
  • Registratie: Mei 2009
  • Laatst online: 30-09 07:35
D vd V schreef op zaterdag 12 februari 2022 @ 14:15:
[...]

Nginx Proxy Manager vond ik toch behoorlijk makkelijk op te zetten met mijn Docker containers. Ik zou SWAG hooguit willen proberen om te testen om dat wel goed klikt met Authelia. Op een later moment. Voor nu heb ik er ff genoeg van, haha.

Vaultwarden heeft 2FA ingebouwd dus dat is slechts een kwestie van inschakelen. Met Nextcloud is het ook best eenvoudig. Installeer deze app in Nextcloud:
[Afbeelding]
Daarna onder instellingen, persoonlijk, beveiliging TOTP inschakelen.
Dat zal ik als alternatief gebruiken mocht ik Authelia niet aan de gang krijgen. Nu eerst even een fout met Nextcloud oplossen. Krijg via mijn nextcloud windows client geen file groter dan +- 100mb gesynced. Via de webserver is het geen probleem. Ik vermoed een probleem met SWAG echter heb ik alle mogelijke dingen al geprobeerd m.b.t php.ini etc. etc. en op het internet is er bar weinig over te vinden.

  • Le Enfant!
  • Registratie: Juli 2012
  • Nu online
Foxdelta-mods schreef op zondag 13 februari 2022 @ 11:30:
[...]


Dat zal ik als alternatief gebruiken mocht ik Authelia niet aan de gang krijgen. Nu eerst even een fout met Nextcloud oplossen. Krijg via mijn nextcloud windows client geen file groter dan +- 100mb gesynced. Via de webserver is het geen probleem. Ik vermoed een probleem met SWAG echter heb ik alle mogelijke dingen al geprobeerd m.b.t php.ini etc. etc. en op het internet is er bar weinig over te vinden.
Al de client_max_body size aangepast in de proxy conf?

  • Foxdelta-mods
  • Registratie: Mei 2009
  • Laatst online: 30-09 07:35
Le Enfant! schreef op zondag 13 februari 2022 @ 12:05:
[...]

Al de client_max_body size aangepast in de proxy conf?
In mijn swag container:
- nginx.conf client_max_body_size 0;
- default.cong client_max_body_size 0;
- nextcloud.subdomain.conf client_max_body_size 0;

hetzelfde geld voor mijn nextcloud container. Alle php.ini files staan op 16G en timeouts staan hoog ingesteld. Vanuit mijn client logs krijg in totaal geen data waar ik iets op kan zoeken en de enige foutmelding die ik krijg is:
"connection closed".

Mocht je nog meer ideeën hebben dan hoor ik het graag!

EDIT: Probleem blijkt te zitten in de laatste versie van de windows sync client. Deze heeft een probleem met "chunking" van de bestanden waardoor cloudflare de verbinding stopt als de upload groter wordt dan 100mb. Zie dit bugrapport die ik gisteren heb aangemaakt.

[Voor 36% gewijzigd door Foxdelta-mods op 14-02-2022 09:13]


  • technorabilia
  • Registratie: November 2006
  • Laatst online: 30-09 20:01

technorabilia

(fka kraades)

@pven
Wat ik zo kan bedenken.
  • De gebruiker is lid van de docker groep?
  • De rechten op docker.sock staan goed?

👉🏻 Blog 👈🏻


Acties:
  • +1Henk 'm!

  • Foxdelta-mods
  • Registratie: Mei 2009
  • Laatst online: 30-09 07:35
D vd V schreef op zaterdag 12 februari 2022 @ 14:15:
[...]

Nginx Proxy Manager vond ik toch behoorlijk makkelijk op te zetten met mijn Docker containers. Ik zou SWAG hooguit willen proberen om te testen om dat wel goed klikt met Authelia. Op een later moment. Voor nu heb ik er ff genoeg van, haha.
Heb na twee dagen hobbiën Authelia aan de gang gekregen, om vervolgens tot de conclusie te komen dat ik geen enkele container naar buiten wil brengen. Dus authelia is er weer vanaf. VPN via wireguard is voldoende voor mij en mijn vriendin voorlopig. Kom toch langzaam op het punt dat ik geen flauw idee meer heb wat ik aan containers kan gebruiken/nodig heb.

EDIT:
op verzoek van Mars Warrior.
In mij geval was het een kwestie van een docker compose maken zoals hier staat beschreven. Zodra de container is gemaakt krijg je de ene na de andere error m.b.t je configuratie file wat niet is ingesteld. Ik heb uiteindelijk deze config gebruikt. Hier staan zaken ingesteld m.b.t welke DB je gebruikt/SMTP settings/ welke manier van 2FA etc. etc. Documentatie omtrent dit alles staat vrij goed beschreven op de site van Authelia. Een aantal zaken heb ik met enviroment variables via portainer meegegeven o.a. AUTHELIA_JWT_SECRET, AUTHELIA_STORAGE_MYSQL_PASSWORD en AUTHELIA_NOTIFIER_SMTP_PASSWORD.

Authelia heeft verschillende manier voor het opslaan van gebruikers. Voor je homelab is opslaan in een file de meest voor de handliggend tenzij je bijv al LDAP hebt draaien. In mij geval kwestie van een gebruiker aanmaken en wachtwoordt toevoegen (gehashed). Deze gebruiker worden dan opgeslagen in: /config/users_database.yml zoals ook in de config staat

Als je dat eenmaal draaiende hebt en authelia start op zonder errors moet je nog je SWAG container configureren. In de swag/config/nginx/site-conf/ de default aanpassen en de twee regels m.b.t. authelia uit commentaar halen. Vervolgens zorgen dat er op je DNS server een CNAME ingesteld staat naar je endpoint (bijv. sonarr of radarr etc. etc.) en tot slot in swag/config/nginx/proxy-confs de juiste .conf gebruiken. Hier staat allemaal samples voor zo'n beetje iedere endpoint die je maar kunt verzinnen. de .sample weghalen en de .conf openen. Controleer je poort en de authelia regels weer uit commentaar halen. SWAG opnieuw opstarten en dan moet je op de authelia pagina uitkomen als je naar je subdomein navigeert. Inloggen met je gebruiker/pass om vervolgens een 2FA code toe te voegen. Als alles goed gaat komt je uit op je ingestelde endpoint.

Beknopte samenvatting ;). Als er vragen zijn hoor ik het wel.

[Voor 58% gewijzigd door Foxdelta-mods op 05-03-2022 22:06]


  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 00:41

Mars Warrior

Earth, the final frontier

Foxdelta-mods schreef op zaterdag 5 maart 2022 @ 21:42:
[...]
Heb na twee dagen hobbiën Authelia aan de gang gekregen, om vervolgens tot de conclusie te komen dat ik geen enkele container naar buiten wil brengen. Dus authelia is er weer vanaf. VPN via wireguard is voldoende voor mij en mijn vriendin voorloping. Kom toch langzaam op het punt dat ik geen flauw idee meer heb wat ik aan containers kan gebruiken/nodig heb.
Wil je nog aangeven hoe je Authelia aan de gang hebt gekregen qua configuratie?

Dan kan iedereen daar weer profijt van hebben!

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


  • MDXTweaker
  • Registratie: April 2002
  • Laatst online: 30-09 12:19
Ik heb inmiddels ook al een aantal containers draaien op mijn Debian bakje (oa Portainer, watchtower, vaultwarden, adguard). Af en toe kom ik erachter dat vaultwarden niet meer actief is. Ik zou het handig vinden om daar op één of andere manier een notificatie van te ontvangen. Heel spannend hoeft dat niet te zijn, maar nu kom ik er vaak achter op het moment dat de container al een tijdje niet meer draait. Aangezien ik 'm ook voor andere mensen dan mezelf gebruik vind ik dat vervelend. Iemand een goede tip voor een eenvoudige monitoring tool voor zulk doel? Zit dat toevallig niet in Portainer?

Acties:
  • +1Henk 'm!

  • Yucko
  • Registratie: Mei 2000
  • Laatst online: 08:45

Yucko

One clown to rule them all !

Volgens mij heb je binnen Portainer geen optie om een notificatie te sturen bij het stoppen van een container (draai zelf ook Debian icm Portainer, Watchtower en Vaultwaren en draait eigenlijk mega-stabiel).

Ik zou daarnaast toch gaan eens kijken in de logs waarom de container stopt. Restart-policy = never neem ik aan? Wellicht die ook even op "unless-stopped" te zetten.

[Voor 4% gewijzigd door Yucko op 04-04-2022 13:57]

. iPhone X Space Gray 64GB -  iPhone SE Space Gray 64GB -  iPad Pro 2018 12.9" Space Gray 64GB -  Watch 5 Space Gray LTE -  TV4 64GB -  TV4 32GB


  • MDXTweaker
  • Registratie: April 2002
  • Laatst online: 30-09 12:19
@Yucko Restart stond inderdaad op "never" en nu aangepast naar "unless-stopped". Logs heb ik inderdaad niet in detail bekeken.... Dat zal ik volgende keer zeker doen!

Met dank aan de tip van @ThinkPad draai ik nu een smokeping container. Best grappig om te zien en heel eenvoudig in te stellen. Wat ik zou willen is iets vergelijkbaars (zo simpel is goed genoeg) maar dan met de mogelijkheid om een notificatie te versturen op het moment dat een endpoint niet bereikbaar is. Iemand een idee?

[Voor 53% gewijzigd door MDXTweaker op 04-04-2022 17:08. Reden: smokeping toegevoegd]


Acties:
  • +1Henk 'm!

  • ravedek
  • Registratie: Juli 2011
  • Niet online
MDXTweaker schreef op maandag 4 april 2022 @ 14:01:
@Yucko Restart stond inderdaad op "never" en nu aangepast naar "unless-stopped". Logs heb ik inderdaad niet in detail bekeken.... Dat zal ik volgende keer zeker doen!

Met dank aan de tip van @ThinkPad draai ik nu een smokeping container. Best grappig om te zien en heel eenvoudig in te stellen. Wat ik zou willen is iets vergelijkbaars (zo simpel is goed genoeg) maar dan met de mogelijkheid om een notificatie te versturen op het moment dat een endpoint niet bereikbaar is. Iemand een idee?
Voor monitoring van oa. Docker containers gebruik ik tegenwoordig Telegraf.
De metrics schrijft Telegraf weg naar een InfluxDB bucket (database). Vervolgens kan je binnen InfluxDB notifications en endpoints instellen. Ook is het eenvoudig om de historie te raadplegen en bijvoorbeeld voor een dashboard te gebruiken (leuk met Grafana 8)).

Misschien iets meer werk om op te zetten maar het bevalt erg goed. InfluxDB gebruikte ik al voor andere data dus de keuze was bij mij snel gemaakt.

En de linkjes naar Docker Hub voor de liefhebber :P :
Telegraf en InfluxDB

[Voor 3% gewijzigd door ravedek op 04-04-2022 19:22]

https://fictionbecomesfact.com - Mijn digitale tuin


  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 23:40
ravedek schreef op maandag 4 april 2022 @ 19:19:
[...]


Voor monitoring van oa. Docker containers gebruik ik tegenwoordig Telegraf.
De metrics schrijft Telegraf weg naar een InfluxDB bucket (database). Vervolgens kan je binnen InfluxDB notifications en endpoints instellen. Ook is het eenvoudig om de historie te raadplegen en bijvoorbeeld voor een dashboard te gebruiken (leuk met Grafana 8)).

Misschien iets meer werk om op te zetten maar het bevalt erg goed. InfluxDB gebruikte ik al voor andere data dus de keuze was bij mij snel gemaakt.

En de linkjes naar Docker Hub voor de liefhebber :P :
Telegraf en InfluxDB
Heb je ook voorbeelden hoe je dit monitort? Ben wel beneuwd hoe je status van containers hierin krijgt.

Gebruik nu de combinatie wel voor wat data uit de HomeAssistant en Pihole.
Nog wel met Influxdb 1.x, want ik krijg het allemaal nog niet goed aan de praat met 2.x. Zal daar als ik meer tijd heb weer induiken.

Draai overigens Influxdb, Telegraf en Grafana in 1 container op de Raspberry Pi. Het image daarvoor was erg oud (uit 2018) en heb ik gefaseerd up-to-date gemaakt en werk ik ook weer bij indien nodig, en dat is toch regelmatig want Grafana kan er wat van qua releases. :-)

Acties:
  • +1Henk 'm!

  • ravedek
  • Registratie: Juli 2011
  • Niet online
@DikkieDick Binnen Telegraf heb je de Docker Input Plugin en de InfluxDB Output Plugin nodig. De configuration kan je trouwens laten genereren binnen de InfluxDB GUI, ook wel handig 8).
Het docker run script die ik gebruik (let op de --user parameter):
code:
1
2
3
4
5
6
7
8
9
10
11
12
docker run -d \
 --name=telegraf \
 --hostname=telegraf \
 --user telegraf:$(stat -c '%g' /var/run/docker.sock) \
 -p 8125:8125/udp \
 -p 8092:8092/udp \
 -p 8094:8094 \
 -v $PWD/config/telegraf.conf:/etc/telegraf/telegraf.conf:ro \
 -v /var/run/docker.sock:/var/run/docker.sock \
 -e TZ=Europe/Amsterdam \
 --restart unless-stopped \
 telegraf

Zie eventueel ook mijn notitie.

Ik draai dit met InfluxDB 2.x. Home Assistant heb ik ook op 2.x draaien mocht je daar interesse in hebben (maar ik had geen historie in InfluxDB 1.x dus dan is het wat makkelijker...).

De status van de containers staat dan als volgt in InfluxDB:


En nog een lading andere metrics :)

https://fictionbecomesfact.com - Mijn digitale tuin


Acties:
  • +1Henk 'm!

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 23:40
Aha, thanx @ravedek ik duik er later eens dieper in. Had het ook al wel geprobeerd met Mariadb maar mijn conversie van de SQLite-database naar MariaDb ging op zich goed, maar daarna raakte de data behoorlijk vernaggeld. Met name die van de P1-meter. Had al wel eens de upgrade van Influxdb 1.x naar 2.x gedaan (na eerst kopie te hebben gemaakt), maar dat kon ik niet goed aan de praat krijgen. Op zich werkt het nu ook nog goed, dus heb ik het even in de ijskast gezet.

  • Jazco2nd
  • Registratie: Augustus 2002
  • Laatst online: 10:30
Ik heb mijn homeserver opnieuw geinstalleerd (van Ubuntu naar Manjaro) en volg nu veel beter de officiele documentatie. Dit keer wil ik docker rootless installeren:
https://docs.docker.com/engine/security/rootless/
Dat is gelukt. Het werkt. Maar via mijn compose file moet ik ook een systeemmap (/usr/share/fonts/) kunnen mounten. Dat gaat natuurlijk niet...

code:
1
Error response from daemon: failed to create shim task: OCI runtime create failed: runc create failed: unable to start container process: error during container init: error mounting "/home/asterix/.local/share/docker/volumes/6b317558e2e43b67a999890647c14fd389e75a774dd4cf0f51d969737548f6c1/_data" to rootfs at "/usr/share/fonts/truetype/custom": mkdir /home/asterix/.local/share/docker/btrfs/subvolumes/4eda4a9d259568ac7dc3b23c6761346f0ee53515b00a89c1dab00268a69ea535/usr/share/fonts/truetype: permission denied: unknown


Bestaat er een manier om dit toch te kunnen doen, net zoals je bijvoorbeeld privileged ports toch kan mappen?

edit: los hiervan, compose up -d werkt prima, maar ik kan geen enkele container bereiken. Ook Portainer niet. Terwijl als ik Portainer simpelweg via:
code:
1
docker run -d -p 9000:9000 --name=portainer --restart=always -v /$XDG_RUNTIME_DIR/docker.sock:/var/run/docker.sock -v ~/.local/share/docker/volumes:/var/lib/docker/volumes portainer/portainer-ce
maak en start, kan ik deze prima bereiken.. via Compose niet 8)7

edit2: aha, het verschil is dat ik in mijn compose file netjes netwerken definieer. Als ik dat in mijn compose file uitcomment zoals hieronder, werkt Portainer ook via Compose.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
##____________________ Portainer [Management/Docker]
  portainer:
    container_name: portainer
    image: portainer/portainer-ce
    restart: always
    #networks: 
     # - management
    volumes:
      - /$XDG_RUNTIME_DIR/docker.sock:/var/run/docker.sock
      - ~/.local/share/docker/volumes:/var/lib/docker/volumes 
      - $DOCKERDIR/portainer/data:/data
    ports:
      - 9000:9000



Ik mis dus iets.. in rootless mode kan je blijkbaar niet (zomaar) docker networks aanmaken..

edit3: AHA, rootless mode ondersteund geen overlay networks. Dus ik moet kiezen: of overlay networks gebruiken waarbij docker containers root access hebben, of geen overlay networks gebruiken met rootless mode..

Hoe weet je nu wat het beste/veiligste is voor een homeserver?

[Voor 96% gewijzigd door Jazco2nd op 08-04-2022 15:13]


  • Ben.Hahlen
  • Registratie: December 2003
  • Laatst online: 30-09 14:48
Ik zit met een probleem waar ik niet uit kom en heb ondertussen zo'n beetje alles afgestruind wat ik kon vinden, maar nog steeds geen oplossing...
Dus ik hoop dat jullie mij kunnen helpen! (Geen druk verder :) ).

Situtatieschets:
Op mijn server draai ik Docker met een MACVLan netwerk. Dit heb ik destijds gedaan om er mee te leren omgaan én omdat ik dan IP's had voor de verschillende services, zodat ik ook HomeAssistant (o.a.) makkelijk kon draaien :)

Dit heeft tijden lang goed gedraaid, tot ik mijn switch heb vervangen van een Zyxel naar een Ubiquiti, omdat ik ook al een USG had en de AP's.
Nu weet ik niet of dat een causaal verband is, maar het is wel belangrijk om te melden.

Sindsdien krijg ik van watchtower de volgende meldingen tijdens runs:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
$ docker run --rm --network=lan_net -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once
time="2022-08-18T10:34:06Z" level=info msg="Watchtower 1.4.0"
time="2022-08-18T10:34:06Z" level=info msg="Using no notifications"
time="2022-08-18T10:34:06Z" level=info msg="Checking all containers (except explicitly disabled with label)"
time="2022-08-18T10:34:06Z" level=info msg="Running a one time update."
time="2022-08-18T10:34:41Z" level=warning msg="Could not do a head request for \"linuxserver/transmission:latest\", falling back to regular pull." container=/transmission image="linuxserver/transmission:latest"
time="2022-08-18T10:34:41Z" level=warning msg="Reason: Head \"https://index.docker.io/v2/linuxserver/transmission/manifests/latest\": dial tcp 44.205.66.155:443: i/o timeout" container=/transmission image="linuxserver/transmission:latest"
time="2022-08-18T10:35:41Z" level=warning msg="Could not do a head request for \"linuxserver/nginx:latest\", falling back to regular pull." container=/eefsoriginals image="linuxserver/nginx:latest"
time="2022-08-18T10:35:41Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.205.66.155:443: i/o timeout" container=/eefsoriginals image="linuxserver/nginx:latest"
time="2022-08-18T10:36:41Z" level=warning msg="Could not do a head request for \"linuxserver/nginx:latest\", falling back to regular pull." container=/wowmirrors image="linuxserver/nginx:latest"
time="2022-08-18T10:36:41Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.205.66.155:443: i/o timeout" container=/wowmirrors image="linuxserver/nginx:latest"
time="2022-08-18T10:37:42Z" level=warning msg="Could not do a head request for \"homeassistant/home-assistant:latest\", falling back to regular pull." container=/homeassistant image="homeassistant/home-assistant:latest"
time="2022-08-18T10:37:42Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.206.182.67:443: i/o timeout" container=/homeassistant image="homeassistant/home-assistant:latest"
time="2022-08-18T10:38:42Z" level=warning msg="Could not do a head request for \"eclipse-mosquitto:latest\", falling back to regular pull." container=/mosquitto image="eclipse-mosquitto:latest"
time="2022-08-18T10:38:42Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.206.182.67:443: i/o timeout" container=/mosquitto image="eclipse-mosquitto:latest"
time="2022-08-18T10:39:23Z" level=warning msg="Could not do a head request for \"linuxserver/unifi-controller:latest\", falling back to regular pull." container=/unifi image="linuxserver/unifi-controller:latest"
time="2022-08-18T10:39:23Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": net/http: TLS handshake timeout" container=/unifi image="linuxserver/unifi-controller:latest"
time="2022-08-18T10:40:13Z" level=warning msg="Could not do a head request for \"portainer/portainer-ce:latest\", falling back to regular pull." container=/portainer image="portainer/portainer-ce:latest"
time="2022-08-18T10:40:13Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.206.182.67:443: i/o timeout" container=/portainer image="portainer/portainer-ce:latest"
time="2022-08-18T10:41:14Z" level=warning msg="Could not do a head request for \"linuxserver/wireguard:latest\", falling back to regular pull." container=/wireguard image="linuxserver/wireguard:latest"
time="2022-08-18T10:41:14Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.205.66.155:443: i/o timeout" container=/wireguard image="linuxserver/wireguard:latest"
time="2022-08-18T10:43:13Z" level=info msg="Session done" Failed=0 Scanned=35 Updated=0 notify=no
time="2022-08-18T10:43:13Z" level=info msg="Waiting for the notification goroutine to finish" notify=no


Als ik watchtower in een run-once draai, zonder gebruik te maken van het MACVLan netwerk, dan werkt dit zonder problemen (let ook op dat de macvlan variant eerder is gestart, maar langer heeft geduurd):
code:
1
2
3
4
5
6
7
$ docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once
time="2022-08-18T10:34:29Z" level=info msg="Watchtower 1.4.0"
time="2022-08-18T10:34:29Z" level=info msg="Using no notifications"
time="2022-08-18T10:34:29Z" level=info msg="Checking all containers (except explicitly disabled with label)"
time="2022-08-18T10:34:29Z" level=info msg="Running a one time update."
time="2022-08-18T10:35:02Z" level=info msg="Session done" Failed=0 Scanned=36 Updated=0 notify=no
time="2022-08-18T10:35:02Z" level=info msg="Waiting for the notification goroutine to finish" notify=no


Verder relevante info:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
$ docker network inspect lan_net
[
    {
        "Name": "lan_net",
        "Id": "148a4c4c72d13f2e816fd932e4c874d3421b52c3f1488b4b817c16539c185d7f",
        "Created": "2022-08-18T10:47:49.404058043+02:00",
        "Scope": "local",
        "Driver": "macvlan",
        "EnableIPv6": false,
        "IPAM": {
            "Driver": "default",
            "Options": {},
            "Config": [
                {
                    "Subnet": "192.168.2.0/24",
                    "IPRange": "192.168.2.0/24",
                    "Gateway": "192.168.2.1",
                    "AuxiliaryAddresses": {
                        "host": "192.168.2.251"
                    }
                }
            ]
        },
        "Internal": false,
        "Attachable": false,
        "Ingress": false,
        "ConfigFrom": {
            "Network": ""
        },
        "ConfigOnly": false,
        "Containers": {
            ... (Verwijderd)
        },
        "Options": {
            "parent": "enp0s31f6"
        },
        "Labels": {}
    }
]


Commands voor creëren netwerk:
code:
1
2
3
4
5
6
7
docker network create -d macvlan \
  -o parent=enp0s31f6 \
  --subnet=192.168.2.0/24 \
  --gateway=192.168.2.1 \
  --ip-range=192.168.2.0/24 \
  --aux-address 'host=192.168.2.251' \
  lan_net


MACVLan Shim voor communicatie:
code:
1
2
3
4
ip link add lan_net_shim link enp0s31f6 type macvlan mode bridge
ip addr add 192.168.2.251/32 dev lan_net_shim
ip link set lan_net_shim up
ip route add 192.168.2.0/24 dev lan_net_shim


Zoals ik dus zei: ik ben redelijk lost waar ik het moet zoeken, dus als iemand de gouden tip heeft :)

Blog


  • Freee!!
  • Registratie: December 2002
  • Laatst online: 30-09 17:46

Freee!!

Trotse papa van Toon en Len!

Ben.Hahlen schreef op donderdag 18 augustus 2022 @ 12:43:
Ik zit met een probleem waar ik niet uit kom en heb ondertussen zo'n beetje alles afgestruind wat ik kon vinden, maar nog steeds geen oplossing...
Dus ik hoop dat jullie mij kunnen helpen! (Geen druk verder :) ).

Situtatieschets:
Op mijn server draai ik Docker met een MACVLan netwerk. Dit heb ik destijds gedaan om er mee te leren omgaan én omdat ik dan IP's had voor de verschillende services, zodat ik ook HomeAssistant (o.a.) makkelijk kon draaien :)

Dit heeft tijden lang goed gedraaid, tot ik mijn switch heb vervangen van een Zyxel naar een Ubiquiti, omdat ik ook al een USG had en de AP's.
Nu weet ik niet of dat een causaal verband is, maar het is wel belangrijk om te melden.

Sindsdien krijg ik van watchtower de volgende meldingen tijdens runs:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
$ docker run --rm --network=lan_net -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once
time="2022-08-18T10:34:06Z" level=info msg="Watchtower 1.4.0"
time="2022-08-18T10:34:06Z" level=info msg="Using no notifications"
time="2022-08-18T10:34:06Z" level=info msg="Checking all containers (except explicitly disabled with label)"
time="2022-08-18T10:34:06Z" level=info msg="Running a one time update."
time="2022-08-18T10:34:41Z" level=warning msg="Could not do a head request for \"linuxserver/transmission:latest\", falling back to regular pull." container=/transmission image="linuxserver/transmission:latest"
time="2022-08-18T10:34:41Z" level=warning msg="Reason: Head \"https://index.docker.io/v2/linuxserver/transmission/manifests/latest\": dial tcp 44.205.66.155:443: i/o timeout" container=/transmission image="linuxserver/transmission:latest"
time="2022-08-18T10:35:41Z" level=warning msg="Could not do a head request for \"linuxserver/nginx:latest\", falling back to regular pull." container=/eefsoriginals image="linuxserver/nginx:latest"
time="2022-08-18T10:35:41Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.205.66.155:443: i/o timeout" container=/eefsoriginals image="linuxserver/nginx:latest"
time="2022-08-18T10:36:41Z" level=warning msg="Could not do a head request for \"linuxserver/nginx:latest\", falling back to regular pull." container=/wowmirrors image="linuxserver/nginx:latest"
time="2022-08-18T10:36:41Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.205.66.155:443: i/o timeout" container=/wowmirrors image="linuxserver/nginx:latest"
time="2022-08-18T10:37:42Z" level=warning msg="Could not do a head request for \"homeassistant/home-assistant:latest\", falling back to regular pull." container=/homeassistant image="homeassistant/home-assistant:latest"
time="2022-08-18T10:37:42Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.206.182.67:443: i/o timeout" container=/homeassistant image="homeassistant/home-assistant:latest"
time="2022-08-18T10:38:42Z" level=warning msg="Could not do a head request for \"eclipse-mosquitto:latest\", falling back to regular pull." container=/mosquitto image="eclipse-mosquitto:latest"
time="2022-08-18T10:38:42Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.206.182.67:443: i/o timeout" container=/mosquitto image="eclipse-mosquitto:latest"
time="2022-08-18T10:39:23Z" level=warning msg="Could not do a head request for \"linuxserver/unifi-controller:latest\", falling back to regular pull." container=/unifi image="linuxserver/unifi-controller:latest"
time="2022-08-18T10:39:23Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": net/http: TLS handshake timeout" container=/unifi image="linuxserver/unifi-controller:latest"
time="2022-08-18T10:40:13Z" level=warning msg="Could not do a head request for \"portainer/portainer-ce:latest\", falling back to regular pull." container=/portainer image="portainer/portainer-ce:latest"
time="2022-08-18T10:40:13Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.206.182.67:443: i/o timeout" container=/portainer image="portainer/portainer-ce:latest"
time="2022-08-18T10:41:14Z" level=warning msg="Could not do a head request for \"linuxserver/wireguard:latest\", falling back to regular pull." container=/wireguard image="linuxserver/wireguard:latest"
time="2022-08-18T10:41:14Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.205.66.155:443: i/o timeout" container=/wireguard image="linuxserver/wireguard:latest"
time="2022-08-18T10:43:13Z" level=info msg="Session done" Failed=0 Scanned=35 Updated=0 notify=no
time="2022-08-18T10:43:13Z" level=info msg="Waiting for the notification goroutine to finish" notify=no


Als ik watchtower in een run-once draai, zonder gebruik te maken van het MACVLan netwerk, dan werkt dit zonder problemen (let ook op dat de macvlan variant eerder is gestart, maar langer heeft geduurd):
code:
1
2
3
4
5
6
7
$ docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once
time="2022-08-18T10:34:29Z" level=info msg="Watchtower 1.4.0"
time="2022-08-18T10:34:29Z" level=info msg="Using no notifications"
time="2022-08-18T10:34:29Z" level=info msg="Checking all containers (except explicitly disabled with label)"
time="2022-08-18T10:34:29Z" level=info msg="Running a one time update."
time="2022-08-18T10:35:02Z" level=info msg="Session done" Failed=0 Scanned=36 Updated=0 notify=no
time="2022-08-18T10:35:02Z" level=info msg="Waiting for the notification goroutine to finish" notify=no


Verder relevante info:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
$ docker network inspect lan_net
[
    {
        "Name": "lan_net",
        "Id": "148a4c4c72d13f2e816fd932e4c874d3421b52c3f1488b4b817c16539c185d7f",
        "Created": "2022-08-18T10:47:49.404058043+02:00",
        "Scope": "local",
        "Driver": "macvlan",
        "EnableIPv6": false,
        "IPAM": {
            "Driver": "default",
            "Options": {},
            "Config": [
                {
                    "Subnet": "192.168.2.0/24",
                    "IPRange": "192.168.2.0/24",
                    "Gateway": "192.168.2.1",
                    "AuxiliaryAddresses": {
                        "host": "192.168.2.251"
                    }
                }
            ]
        },
        "Internal": false,
        "Attachable": false,
        "Ingress": false,
        "ConfigFrom": {
            "Network": ""
        },
        "ConfigOnly": false,
        "Containers": {
            ... (Verwijderd)
        },
        "Options": {
            "parent": "enp0s31f6"
        },
        "Labels": {}
    }
]


Commands voor creëren netwerk:
code:
1
2
3
4
5
6
7
docker network create -d macvlan \
  -o parent=enp0s31f6 \
  --subnet=192.168.2.0/24 \
  --gateway=192.168.2.1 \
  --ip-range=192.168.2.0/24 \
  --aux-address 'host=192.168.2.251' \
  lan_net


MACVLan Shim voor communicatie:
code:
1
2
3
4
ip link add lan_net_shim link enp0s31f6 type macvlan mode bridge
ip addr add 192.168.2.251/32 dev lan_net_shim
ip link set lan_net_shim up
ip route add 192.168.2.0/24 dev lan_net_shim


Zoals ik dus zei: ik ben redelijk lost waar ik het moet zoeken, dus als iemand de gouden tip heeft :)
Waarschijnlijk checkt je Watchtower te vaak, er is al een tijdje een limiet aan het aantal opvragingen per tijdseenheid. Ik heb het interval nu op elke twee uur staan.
code:
1
-e WATCHTOWER_POLL_INTERVAL=7200 \

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]

Смерть Путину


  • Ben.Hahlen
  • Registratie: December 2003
  • Laatst online: 30-09 14:48
Freee!! schreef op donderdag 18 augustus 2022 @ 18:39:
[...]

Waarschijnlijk checkt je Watchtower te vaak, er is al een tijdje een limiet aan het aantal opvragingen per tijdseenheid. Ik heb het interval nu op elke twee uur staan.
code:
1
-e WATCHTOWER_POLL_INTERVAL=7200 \
Thanks, maar dat bleek het niet te zijn...

Wat wel?
Nou... Als je dus MACVlans doet, dan moet je wel adressen reserveren.
Watchtower pakte blijkbaar 192.168.2.2, waar mijn main switch ook op draait... En dat gaat dus niet.

De vraag is natuurlijk wel: waarom gebeurde dat eerst niet, maar nu ineens wel... Maar dat is voor later...

Blog


  • Freee!!
  • Registratie: December 2002
  • Laatst online: 30-09 17:46

Freee!!

Trotse papa van Toon en Len!

Ben.Hahlen schreef op vrijdag 19 augustus 2022 @ 09:31:
[...]
Thanks, maar dat bleek het niet te zijn...

Wat wel?
Nou... Als je dus MACVlans doet, dan moet je wel adressen reserveren.
Watchtower pakte blijkbaar 192.168.2.2, waar mijn main switch ook op draait... En dat gaat dus niet.

De vraag is natuurlijk wel: waarom gebeurde dat eerst niet, maar nu ineens wel... Maar dat is voor later...
Daar had ik niet aan gedacht, ik hoef Watchtower niet te benaderen en andere services ook niet, dus dat draait bij mij niet in macvlan.

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]

Смерть Путину


  • Hathi
  • Registratie: Mei 2012
  • Laatst online: 00:05
Ik vraag me inderdaad af waarom je watchtower in een macvlan zou draaien. Voor homeassistant snap ik het, dan is die gewoon benaderbaar op een eigen IP, maar watchtower zou ik lekker in een bridge netwerk draaien.

  • Ben.Hahlen
  • Registratie: December 2003
  • Laatst online: 30-09 14:48
Freee!! schreef op vrijdag 19 augustus 2022 @ 11:35:
[...]
Daar had ik niet aan gedacht, ik hoef Watchtower niet te benaderen en andere services ook niet, dus dat draait bij mij niet in macvlan.
Hathi schreef op vrijdag 19 augustus 2022 @ 12:37:
Ik vraag me inderdaad af waarom je watchtower in een macvlan zou draaien. Voor homeassistant snap ik het, dan is die gewoon benaderbaar op een eigen IP, maar watchtower zou ik lekker in een bridge netwerk draaien.
Dat is ook niet bewust zo, moet ik eerlijk zeggen...
Ik dacht altijd dat watchtower in de bridge draaide...

...maar toen kwam ik dit stukje in mijn compose.yaml tegen:
YAML:
1
2
3
4
5
6
networks:
  lan_net:
    external: true
  default:
    external: true
    name: lan_net


Ooit zo opgezet (lang, lang geleden) en nooit meer naar gekeken, want: "het werkte" :) :+

Nu ben ik toch bezig om e.e.a. te bekijken en te herconfigureren, dus er zullen vast meer wijzigingen gaan plaatsvinden :)

Blog


  • Piet400
  • Registratie: Juli 2009
  • Laatst online: 30-09 17:24
Heeft iemand een goede suggestie voor een (docker) app waarmee je backups maakt van iOS en Android devices kan maken?

  • HenkEisjedies
  • Registratie: Maart 2004
  • Laatst online: 30-09 19:32
Ik heb een docker image (https://www.freqtrade.io/en/stable/docker_quickstart/) die ik draaiend wil hebben en houden in Azure. Lokaal lukt het me prima om de image te starten. Ik doorloop gewoon de stappen uit de handleiding en klaar.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
mkdir ft_userdata
cd ft_userdata/
# Download the docker-compose file from the repository
curl https://raw.githubusercontent.com/freqtrade/freqtrade/stable/docker-compose.yml -o docker-compose.yml

# Pull the freqtrade image
docker-compose pull

# Create user directory structure
docker-compose run --rm freqtrade create-userdir --userdir user_data

# Create configuration - Requires answering interactive questions
docker-compose run --rm freqtrade new-config --config user_data/config.json


Zoals je ziet, redelijk simpel. Ik download de docker-compose file die freqtrade meelevert, pull de freqtrade image en maak een nieuwe config file aan.

Maar zodra ik ditzelfde wil doen op Azure gaat het mis. Je kunt bij Azure bij het aanmaken van een nieuwe container een aantal commando's meegeven die als eerste worden uitgevoerd. Dus ik zet bovenstaande commando's neer, maar de container killt zichzelf vrijwel direct. Nu heb ik geleerd dat dit opzich normaal docker gedrag is als een container niets meer te doen heeft en er geen actieve processen draaien. Ik denk dat het komt omdat het laatste commando een interactieve questionaire is en er dus eigenlijk nooit een valide config.json bestand wordt aangemaakt. Zou ik de antwoorden op deze questionairre ook kunnen meegeven in Azure?

Daarnaast vraag ik me af hoe het gaat in Azure met lokale bestanden. Ik heb nu de bestanden lokaal staan, maar deze moeten uiteindelijk ook in Azure terecht komen. Alleen als ik bovenstaande riedeltje uitvoer dan staan die bestanden in de container en als ik docker goed begrijp bestaan deze bestanden alleen zolang de container bestaat. Hoe vertel ik Azure dat hij het config.json bestand in Azure aanmaakt op een niet vluchtige manier?

Tot slot heb ik nog een vraag over de SQL database in de container. Deze moet ook persistant worden, maar first things first eerst maar eens dat config bestand persistant maken.

Of gebruik ik docker verkeerd en kan ik beter een virtuele ubuntu omgeving in Azure maken en daar python en freqtrade op installeren? Dan heb ik alles netjes in één pakketje, maar dan moet ik ook gaan nadenken over updaten en beveiligen van linux (waar ik niet goed in ben). Mijn ultieme doel is dat ik vrij makkelijk ook voor wat vrienden freqtrade draaiend kan krijgen, dus het is niet alleen voor mijzelf.

  • Jaguar645
  • Registratie: Juni 2001
  • Laatst online: 10:11
Met Azure maak je gebruik van Container Instance neem ik aan?

Volgens mij wordt alleen Azure files als persistent storage ondersteund om je config/logging dan in op te slaan zoals bv:

code:
1
az container create -g MyResourceGroup --name myapp --image myimage:latest --command-line "cat /mnt/azfile/myfile" --azure-file-volume-share-name myshare --azure-file-volume-account-name mystorageaccount --azure-file-volume-account-key mystoragekey --azure-file-volume-mount-path /mnt/azfile


komt uit de az cli docs: https://docs.microsoft.co...atest#az-container-create

voor persistent sql/dabase kun je dan het beste Azure SQL inzetten natuurlijk :) helemaal als je beide vnet integrate gaat er niets het internet over

ik heb nog geen commands gerund tegen een container instance aan maar volgens mij gaat dat volgens de docs op de volgende manier:

code:
1
az container create -g MyResourceGroup --name myapp --image myimage:latest --command-line "/bin/sh -c '/path to/myscript.sh'"


maar dan uiteraard customized naar wat jij nodig hebt

  • HenkEisjedies
  • Registratie: Maart 2004
  • Laatst online: 30-09 19:32
Thanks man, ik ga vanavond even kijken of het me lukt met Azure Files. Ik gebruik inderdaad een Azure Container Instance.

Verder werkt Freqtrade met sqllite en dat zit dus ook allemaal in die Docker Image neem ik aan, ik moet even checken waar die dbms zijn storage/files doet. Ik weet niet zeker wat het slimste is om te doen: die dbms zijn bestanden in Azure Files hosten of een Azure database gebruiken. Die eerste lijkt me het makkelijkst omdat ik dan alleen bestandslocaties hoef aan te passen.

  • Jaguar645
  • Registratie: Juni 2001
  • Laatst online: 10:11
Denk dat je een SQLite DB prima in files kunt hosten :) die is in principe snel genoeg... mocht je toch tegen zaken aanlopen kun je altijd nog naar een serverless azure sql migreren

  • Jaguar645
  • Registratie: Juni 2001
  • Laatst online: 10:11
Heb even nog gezocht en vond een oude pipeline waar ooit een syslog-ng instance als ACI deployed was geweest :) heb het even proberen te vertalen naar de globale stappen zoals uitgevoerd:

1. Deploy storage account (Standard_LRS in ons geval)
2. Enable privatelink en configure dns (mits van toepassing, je kunt uiteraard ook over service endpoint connecten)
3. Create file shares:

code:
1
2
3
4
5
$resourceGroupName = ""
$filesharename = ""
$storageaccountname = ""
$storagekey=$(az storage account keys list --resource-group $resourceGroupName --account-name $storageaccountname --query "[0].value" --output tsv)
az storage share create --name $filesharename --account-name $storageaccountname --account-key $storagekey


4. Create container:

code:
1
2
$resourceGroupName = ""
az container create --resource-group $resourceGroupName --file .\deploytemplate.yml


template.yml:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
apiVersion: '2021-07-01'
location: westeurope
name: ##containername##
properties:
  containers:
  - name: ##containername##
    properties:
      environmentVariables: []
      image: lscr.io/linuxserver/syslog-ng
      ports:
      - protocol: tcp
        port: 6514
      resources:
        requests:
          cpu: 2.0
          memoryInGB: 3.5
      volumeMounts:
      - mountPath: /config
        name: ##mountname##
      - mountPath: /var/log
        name: ##mountname##
  osType: Linux
  restartPolicy: Always
  ipAddress:
    type: Private
    ports:
      - protocol: tcp
        port: 6514
  volumes:
  - name: ##name##
    azureFile:
      sharename: ##sharename##
      storageAccountName: ##storageAccountName##
      storageAccountKey: ##storageAccountKey##
  subnetIds:
    - id: /subscriptions/$subscription/resourceGroups/$rg/providers/Microsoft.Network/virtualNetworks/$vnet/subnets/$sub
      name: ##subnetname##
tags: {}
type: Microsoft.ContainerInstance/containerGroups


ipv cli voor de container zelf dus yaml gebruikt omdat ik dat iets makkelijker/begrijpelijker vond dan de cli :P maar choice of preference

uiteraard aanpassen waar nodig naar je eigen config

  • HenkEisjedies
  • Registratie: Maart 2004
  • Laatst online: 30-09 19:32
Cool thanks wederom. :) Dit is echt precies wat ik straks nodig ga hebben om het deployen helemaal te automatiseren denk ik.

Ik heb inmiddels storage (volgens mij ook standard_LRS), de juiste resource group heeft dr toegang tot en dr zitten files in. Dan is het nu volgens mij alleen nog een kwestie van docker runnen met een verwijzing naar die files. 🙃 Nice!

Dit weekend ga ik kijken of ik hem dan ook daadwerkelijk kan runnen.

  • HenkEisjedies
  • Registratie: Maart 2004
  • Laatst online: 30-09 19:32
Grappig dat je zei dat je het via een YML file gedaan hebt omdat de CLI wat weinig overzichtelijk is. Ik denk dat ik hier tegen dezelfde complexiteit aan loop.

Volgens mij moet ik docker-compose run freqtrade trade --config /user_data/config.json --strategy SampleStrategy meegeven bij het opstarten. Dit werkt in elk geval op Docker Desktop zo.

Ik probeer daarom nu een container aan te maken als volgt:
az container create --command-line "`"docker-compose run freqtrade trade --config /user_data/config.json --strategy SampleStrategy`""
https://tweakers.net/i/yWHwx4PwwX7LGR0SkyeYJE9c_fw=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/qL0DgsSsQ0hcnE71MiWUHVuc.png?f=user_large

Alleen als ik dan ga kijken bij de aangemaakte Container Instances dan zie ik dit:

Maar dit zijn geen losse commando's. Naja, morgen weer verder.

  • Webgnome
  • Registratie: Maart 2001
  • Laatst online: 07:56
Hi,

een docker noob hier. Ik ben in mijn vrije tijd een beetje aan het klooien met Docker om wat services op mijn pi te draaien. En de basis dat lukt mij altijd wel echter loop ik op dit moment tegen een bepaald probleempje aan wat ik niet helemaal begrijp.

Ik heb twee docker compose files.

domoticz.yml
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
version: '3.3'

services:
  domoticz:
    image: domoticz/domoticz
    container_name: domoticz
    restart: unless-stopped
    # Pass devices to container
    devices:
      - "/dev/serial/by-id/usb-FTDI_FT232R_USB_UART_AB6648AH-if00-port0:/dev/ttyUSB0"
    ports:
      - "8080:8080"
    volumes:
      - /mnt/ssd/docker/data/domoticz/:/opt/domoticz/userdata
      - /mnt/ssd/logs/domoticz:/opt/domoticz/userdata/logs
    environment:
      - TZ=Europe/Amsterdam
      - LOG_PATH=/opt/domoticz/userdata/logs/logsdomoticz.log
    networks:
      - domoticz

networks:
  domoticz:
    name: domoticz


wordpress.yml
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
services:
  db:
    # We use a mariadb image which supports both amd64 & arm64 architecture
    image: mariadb:10.6.4-focal
    # If you really want to use MySQL, uncomment the following line
    #image: mysql:8.0.27
    command: '--default-authentication-plugin=mysql_native_password'
    volumes:
      -  /mnt/ssd/docker/data/blog/mysql:/var/lib/mysql
    restart: always
    environment:
      - MYSQL_ROOT_PASSWORD=somewordpress
      - MYSQL_DATABASE=wordpress
      - MYSQL_USER=wordpress
      - MYSQL_PASSWORD=wordpress
  wordpress:
    image: wordpress:latest
    ports:
      - 8081:80
    restart: always
    depends_on:
      - db
    volumes:
      -  /mnt/ssd/docker/data/blog/www:/var/www/html
    environment:
      - WORDPRESS_DB_HOST=db
      - WORDPRESS_DB_USER=wordpress
      - WORDPRESS_DB_PASSWORD=wordpress
      - WORDPRESS_DB_NAME=wordpress


Nu starte ik zojuist de wordpress op en krijg ik in de console de volgende melding
Found orphan containers ([config-web-1 domoticz]) for this project. If you removed or renamed this service in your compose file, you can run this command with the --remove-orphans flag to clean it up.

Ik begrijp even niet waar dat docker deze melding vandaan tovert. Immers het zijn twee losstaande compose files. Is het nu zo dat docker deze twee compose files ziet als eenzelfde set containers of hoe moet ik dat zien? En belangrijker nog. Wat gebeurd er als ik een van de twee docker compose -f file.yml down breng?

Strava, Twitter


  • lolgast
  • Registratie: November 2006
  • Laatst online: 08:25
@Webgnome Staan beide compose files in dezelfde directory? Óf, heeft 1 van de compose files beide containers erin gehad en heb je ze later gesplit?

Het is in principe de bedoeling dat alle containers in dezelfde compose file staan, of je moet per container een eigen directory aanmaken en daarin een compose file met alleen die container/benodigdheden erin

  • Webgnome
  • Registratie: Maart 2001
  • Laatst online: 07:56
Ik heb een directory /mnt/ssd/docker/config waar ik alle compose files heb staan aangezien ik de structuur aan houd:

/mnt/ssd/docker/config/ -> compose files
/mnt/ssd/docker/data/naamconfig/... -> container data voor compose file x

Strava, Twitter


  • lolgast
  • Registratie: November 2006
  • Laatst online: 08:25
Dan is de foutmelding logisch. Als je 1 dir wilt voor je compose.yaml, ‘moet’ je al je containers in die ene file zetten

  • Webgnome
  • Registratie: Maart 2001
  • Laatst online: 07:56
En daar is geen andere oplossing voor? Wel jammer wel..

Strava, Twitter


  • technorabilia
  • Registratie: November 2006
  • Laatst online: 30-09 20:01

technorabilia

(fka kraades)

Webgnome schreef op zaterdag 27 augustus 2022 @ 19:00:
En daar is geen andere oplossing voor? Wel jammer wel..
Vanuit een unieke directory refereren naar de compose file in je verzamel directory met de -f optie misschien?

👉🏻 Blog 👈🏻


  • MikeyMan
  • Registratie: Februari 2003
  • Nu online

MikeyMan

Vidi, Vici, Veni

Ben momenteel bezig om zoveel mogelijk spul dat op de Pi draait over te zetten op mijn DS1520+. Iets duurzamer oplossing.

Echter; daarmee word ik in veel gevallen geforceerd om Docker te gebruiken. Prima als het werkt. Maar als het dat niet doet, is de probleemanalyse er niet perse makkelijker op.

Waar ik nu tegenaan loop is een issue in NodeRed. Waarom dan in dit topic? Nou, dezelfde flow/call doet het op de Pi helemaal prima. Maar nu krijg ik een error:



De volledige request call is:
https://gateway-2017-8871...r-mobile-web/1/enduserAPI

Nu denk ik dat dit komt doordat dit een multicast call is. Iemand enig idee of dit op te lossen is binnen docker? Zie dat @ThinkPad al eerder iets vroeg over multicast. Nog aan de praat gekregen?

Ip Adressen kan ik gewoon pingen vanuit de container dus dat is het niet.

[Voor 8% gewijzigd door MikeyMan op 01-09-2022 09:19]


  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 09:34

ThinkPad

Moderator Wonen & Mobiliteit
Het multicast verhaal bij mij was dat het inkomend moest werken op de Docker container en dat bleek vrij lastig te zijn. Dat van jou lijkt uitgaand te zijn en zal dus meer kans van slagen hebben.

Misschien kun je toelichten wat je flow zou moeten doen?

[Voor 6% gewijzigd door ThinkPad op 01-09-2022 09:22]

Gas besparen door CV-tuning | Elektriciteit besparen
Geen vragen via privébericht die ook via het forum kunnen a.u.b.


  • MikeyMan
  • Registratie: Februari 2003
  • Nu online

MikeyMan

Vidi, Vici, Veni

ThinkPad schreef op donderdag 1 september 2022 @ 09:21:
Het multicast verhaal bij mij was dat het inkomend moest werken op de Docker container en dat bleek vrij lastig te zijn. Dat van jou lijkt uitgaand te zijn en zal dus meer kans van slagen hebben.

Misschien kun je toelichten wat je flow zou moeten doen?
Ik heb nu de simpelste flow die je kunt bedenken, aangezien ik nog aan het pogen ben om de API's via NodeRed te ontsluiten.

In dit geval gaat het om een get version number.


Komt er van diezelfde call ook niet iets terug via multicast dan? :?

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 09:34

ThinkPad

Moderator Wonen & Mobiliteit
Ik denk dat je beter een eigen topic kunt openen, het gaat hier offtopic denk ik :P

Naar mijn idee kan hij het adres gewoon niet vinden, maar ik vind het ook wel een bijzonder adres. Met multicast heeft het volgens mij niks te maken, het is gewoon een HTTP-request :P ?

Wat voor apparaat op je netwerk is dat precies? Kun je het vanaf je PC/laptop wel bereiken op dat adres?

[Voor 13% gewijzigd door ThinkPad op 01-09-2022 09:33]

Gas besparen door CV-tuning | Elektriciteit besparen
Geen vragen via privébericht die ook via het forum kunnen a.u.b.


  • MikeyMan
  • Registratie: Februari 2003
  • Nu online

MikeyMan

Vidi, Vici, Veni

ThinkPad schreef op donderdag 1 september 2022 @ 09:33:
Ik denk dat je beter een eigen topic kunt openen, het gaat hier offtopic denk ik :P

Naar mijn idee kan hij het adres gewoon niet vinden, maar ik vind het ook wel een bijzonder adres. Met multicast heeft het volgens mij niks te maken, het is gewoon een HTTP-request :P ?

Wat voor apparaat op je netwerk is dat precies? Kun je het vanaf je PC/laptop wel bereiken op dat adres?
.local is volgens mij Multicast gerelateerd:



Het is een Somfy Tahoma Switch. En als je met 'bereiken' bedoelt dat de API call het daar wel doet; ja. Vanaf alle andere apparaten. Sterker nog het werkt vanaf de PI ook gewoon met een Curl get.
Eens even op de Nas proberen.

edit: Heb je me toch geholpen denk ik. _/-\o_
Op de NAS Krijg ik een "could not resolve host". Dus dat zal niet beperkt zijn tot Docker.
Mocht iemand hier nog tegenaan lopen op een of andere vreemde manier. mDNS (Multicast DNS) zou de oplossing moeten zijn hier.

[Voor 10% gewijzigd door MikeyMan op 01-09-2022 10:08]

Pagina: 1 ... 4 5 6 Laatste



Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee