Toon posts:

[Docker] [alle OS] Het grote Docker ervaringen en tips topic

Pagina: 1 ... 4 5 6 Laatste
Acties:

  • Foxdelta-mods
  • Registratie: Mei 2009
  • Laatst online: 24-09 14:38
Le Enfant! schreef op zondag 13 februari 2022 @ 12:05:
[...]

Al de client_max_body size aangepast in de proxy conf?
In mijn swag container:
- nginx.conf client_max_body_size 0;
- default.cong client_max_body_size 0;
- nextcloud.subdomain.conf client_max_body_size 0;

hetzelfde geld voor mijn nextcloud container. Alle php.ini files staan op 16G en timeouts staan hoog ingesteld. Vanuit mijn client logs krijg in totaal geen data waar ik iets op kan zoeken en de enige foutmelding die ik krijg is:
"connection closed".

Mocht je nog meer ideeën hebben dan hoor ik het graag!

EDIT: Probleem blijkt te zitten in de laatste versie van de windows sync client. Deze heeft een probleem met "chunking" van de bestanden waardoor cloudflare de verbinding stopt als de upload groter wordt dan 100mb. Zie dit bugrapport die ik gisteren heb aangemaakt.

[Voor 36% gewijzigd door Foxdelta-mods op 14-02-2022 09:13]


  • technorabilia
  • Registratie: November 2006
  • Laatst online: 24-09 21:18

technorabilia

(fka kraades)

@pven
Wat ik zo kan bedenken.
  • De gebruiker is lid van de docker groep?
  • De rechten op docker.sock staan goed?

👉🏻 Blog 👈🏻


Acties:
  • +1Henk 'm!

  • Foxdelta-mods
  • Registratie: Mei 2009
  • Laatst online: 24-09 14:38
D vd V schreef op zaterdag 12 februari 2022 @ 14:15:
[...]

Nginx Proxy Manager vond ik toch behoorlijk makkelijk op te zetten met mijn Docker containers. Ik zou SWAG hooguit willen proberen om te testen om dat wel goed klikt met Authelia. Op een later moment. Voor nu heb ik er ff genoeg van, haha.
Heb na twee dagen hobbiën Authelia aan de gang gekregen, om vervolgens tot de conclusie te komen dat ik geen enkele container naar buiten wil brengen. Dus authelia is er weer vanaf. VPN via wireguard is voldoende voor mij en mijn vriendin voorlopig. Kom toch langzaam op het punt dat ik geen flauw idee meer heb wat ik aan containers kan gebruiken/nodig heb.

EDIT:
op verzoek van Mars Warrior.
In mij geval was het een kwestie van een docker compose maken zoals hier staat beschreven. Zodra de container is gemaakt krijg je de ene na de andere error m.b.t je configuratie file wat niet is ingesteld. Ik heb uiteindelijk deze config gebruikt. Hier staan zaken ingesteld m.b.t welke DB je gebruikt/SMTP settings/ welke manier van 2FA etc. etc. Documentatie omtrent dit alles staat vrij goed beschreven op de site van Authelia. Een aantal zaken heb ik met enviroment variables via portainer meegegeven o.a. AUTHELIA_JWT_SECRET, AUTHELIA_STORAGE_MYSQL_PASSWORD en AUTHELIA_NOTIFIER_SMTP_PASSWORD.

Authelia heeft verschillende manier voor het opslaan van gebruikers. Voor je homelab is opslaan in een file de meest voor de handliggend tenzij je bijv al LDAP hebt draaien. In mij geval kwestie van een gebruiker aanmaken en wachtwoordt toevoegen (gehashed). Deze gebruiker worden dan opgeslagen in: /config/users_database.yml zoals ook in de config staat

Als je dat eenmaal draaiende hebt en authelia start op zonder errors moet je nog je SWAG container configureren. In de swag/config/nginx/site-conf/ de default aanpassen en de twee regels m.b.t. authelia uit commentaar halen. Vervolgens zorgen dat er op je DNS server een CNAME ingesteld staat naar je endpoint (bijv. sonarr of radarr etc. etc.) en tot slot in swag/config/nginx/proxy-confs de juiste .conf gebruiken. Hier staat allemaal samples voor zo'n beetje iedere endpoint die je maar kunt verzinnen. de .sample weghalen en de .conf openen. Controleer je poort en de authelia regels weer uit commentaar halen. SWAG opnieuw opstarten en dan moet je op de authelia pagina uitkomen als je naar je subdomein navigeert. Inloggen met je gebruiker/pass om vervolgens een 2FA code toe te voegen. Als alles goed gaat komt je uit op je ingestelde endpoint.

Beknopte samenvatting ;). Als er vragen zijn hoor ik het wel.

[Voor 58% gewijzigd door Foxdelta-mods op 05-03-2022 22:06]


  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 25-09 12:28

Mars Warrior

Earth, the final frontier

Foxdelta-mods schreef op zaterdag 5 maart 2022 @ 21:42:
[...]
Heb na twee dagen hobbiën Authelia aan de gang gekregen, om vervolgens tot de conclusie te komen dat ik geen enkele container naar buiten wil brengen. Dus authelia is er weer vanaf. VPN via wireguard is voldoende voor mij en mijn vriendin voorloping. Kom toch langzaam op het punt dat ik geen flauw idee meer heb wat ik aan containers kan gebruiken/nodig heb.
Wil je nog aangeven hoe je Authelia aan de gang hebt gekregen qua configuratie?

Dan kan iedereen daar weer profijt van hebben!

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


  • MDXTweaker
  • Registratie: April 2002
  • Laatst online: 23-09 17:04
Ik heb inmiddels ook al een aantal containers draaien op mijn Debian bakje (oa Portainer, watchtower, vaultwarden, adguard). Af en toe kom ik erachter dat vaultwarden niet meer actief is. Ik zou het handig vinden om daar op één of andere manier een notificatie van te ontvangen. Heel spannend hoeft dat niet te zijn, maar nu kom ik er vaak achter op het moment dat de container al een tijdje niet meer draait. Aangezien ik 'm ook voor andere mensen dan mezelf gebruik vind ik dat vervelend. Iemand een goede tip voor een eenvoudige monitoring tool voor zulk doel? Zit dat toevallig niet in Portainer?

Acties:
  • +1Henk 'm!

  • Yucko
  • Registratie: Mei 2000
  • Laatst online: 06:21

Yucko

One clown to rule them all !

Volgens mij heb je binnen Portainer geen optie om een notificatie te sturen bij het stoppen van een container (draai zelf ook Debian icm Portainer, Watchtower en Vaultwaren en draait eigenlijk mega-stabiel).

Ik zou daarnaast toch gaan eens kijken in de logs waarom de container stopt. Restart-policy = never neem ik aan? Wellicht die ook even op "unless-stopped" te zetten.

[Voor 4% gewijzigd door Yucko op 04-04-2022 13:57]

. iPhone X Space Gray 64GB -  iPhone SE Space Gray 64GB -  iPad Pro 2018 12.9" Space Gray 64GB -  Watch 5 Space Gray LTE -  TV4 64GB -  TV4 32GB


  • MDXTweaker
  • Registratie: April 2002
  • Laatst online: 23-09 17:04
@Yucko Restart stond inderdaad op "never" en nu aangepast naar "unless-stopped". Logs heb ik inderdaad niet in detail bekeken.... Dat zal ik volgende keer zeker doen!

Met dank aan de tip van @ThinkPad draai ik nu een smokeping container. Best grappig om te zien en heel eenvoudig in te stellen. Wat ik zou willen is iets vergelijkbaars (zo simpel is goed genoeg) maar dan met de mogelijkheid om een notificatie te versturen op het moment dat een endpoint niet bereikbaar is. Iemand een idee?

[Voor 53% gewijzigd door MDXTweaker op 04-04-2022 17:08. Reden: smokeping toegevoegd]


Acties:
  • +1Henk 'm!

  • ravedek
  • Registratie: Juli 2011
  • Niet online
MDXTweaker schreef op maandag 4 april 2022 @ 14:01:
@Yucko Restart stond inderdaad op "never" en nu aangepast naar "unless-stopped". Logs heb ik inderdaad niet in detail bekeken.... Dat zal ik volgende keer zeker doen!

Met dank aan de tip van @ThinkPad draai ik nu een smokeping container. Best grappig om te zien en heel eenvoudig in te stellen. Wat ik zou willen is iets vergelijkbaars (zo simpel is goed genoeg) maar dan met de mogelijkheid om een notificatie te versturen op het moment dat een endpoint niet bereikbaar is. Iemand een idee?
Voor monitoring van oa. Docker containers gebruik ik tegenwoordig Telegraf.
De metrics schrijft Telegraf weg naar een InfluxDB bucket (database). Vervolgens kan je binnen InfluxDB notifications en endpoints instellen. Ook is het eenvoudig om de historie te raadplegen en bijvoorbeeld voor een dashboard te gebruiken (leuk met Grafana 8)).

Misschien iets meer werk om op te zetten maar het bevalt erg goed. InfluxDB gebruikte ik al voor andere data dus de keuze was bij mij snel gemaakt.

En de linkjes naar Docker Hub voor de liefhebber :P :
Telegraf en InfluxDB

[Voor 3% gewijzigd door ravedek op 04-04-2022 19:22]

https://fictionbecomesfact.com - Mijn digitale tuin


  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 22-09 08:30
ravedek schreef op maandag 4 april 2022 @ 19:19:
[...]


Voor monitoring van oa. Docker containers gebruik ik tegenwoordig Telegraf.
De metrics schrijft Telegraf weg naar een InfluxDB bucket (database). Vervolgens kan je binnen InfluxDB notifications en endpoints instellen. Ook is het eenvoudig om de historie te raadplegen en bijvoorbeeld voor een dashboard te gebruiken (leuk met Grafana 8)).

Misschien iets meer werk om op te zetten maar het bevalt erg goed. InfluxDB gebruikte ik al voor andere data dus de keuze was bij mij snel gemaakt.

En de linkjes naar Docker Hub voor de liefhebber :P :
Telegraf en InfluxDB
Heb je ook voorbeelden hoe je dit monitort? Ben wel beneuwd hoe je status van containers hierin krijgt.

Gebruik nu de combinatie wel voor wat data uit de HomeAssistant en Pihole.
Nog wel met Influxdb 1.x, want ik krijg het allemaal nog niet goed aan de praat met 2.x. Zal daar als ik meer tijd heb weer induiken.

Draai overigens Influxdb, Telegraf en Grafana in 1 container op de Raspberry Pi. Het image daarvoor was erg oud (uit 2018) en heb ik gefaseerd up-to-date gemaakt en werk ik ook weer bij indien nodig, en dat is toch regelmatig want Grafana kan er wat van qua releases. :-)

Acties:
  • +1Henk 'm!

  • ravedek
  • Registratie: Juli 2011
  • Niet online
@DikkieDick Binnen Telegraf heb je de Docker Input Plugin en de InfluxDB Output Plugin nodig. De configuration kan je trouwens laten genereren binnen de InfluxDB GUI, ook wel handig 8).
Het docker run script die ik gebruik (let op de --user parameter):
code:
1
2
3
4
5
6
7
8
9
10
11
12
docker run -d \
 --name=telegraf \
 --hostname=telegraf \
 --user telegraf:$(stat -c '%g' /var/run/docker.sock) \
 -p 8125:8125/udp \
 -p 8092:8092/udp \
 -p 8094:8094 \
 -v $PWD/config/telegraf.conf:/etc/telegraf/telegraf.conf:ro \
 -v /var/run/docker.sock:/var/run/docker.sock \
 -e TZ=Europe/Amsterdam \
 --restart unless-stopped \
 telegraf

Zie eventueel ook mijn notitie.

Ik draai dit met InfluxDB 2.x. Home Assistant heb ik ook op 2.x draaien mocht je daar interesse in hebben (maar ik had geen historie in InfluxDB 1.x dus dan is het wat makkelijker...).

De status van de containers staat dan als volgt in InfluxDB:


En nog een lading andere metrics :)

https://fictionbecomesfact.com - Mijn digitale tuin


Acties:
  • +1Henk 'm!

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 22-09 08:30
Aha, thanx @ravedek ik duik er later eens dieper in. Had het ook al wel geprobeerd met Mariadb maar mijn conversie van de SQLite-database naar MariaDb ging op zich goed, maar daarna raakte de data behoorlijk vernaggeld. Met name die van de P1-meter. Had al wel eens de upgrade van Influxdb 1.x naar 2.x gedaan (na eerst kopie te hebben gemaakt), maar dat kon ik niet goed aan de praat krijgen. Op zich werkt het nu ook nog goed, dus heb ik het even in de ijskast gezet.

  • Jazco2nd
  • Registratie: Augustus 2002
  • Nu online
Ik heb mijn homeserver opnieuw geinstalleerd (van Ubuntu naar Manjaro) en volg nu veel beter de officiele documentatie. Dit keer wil ik docker rootless installeren:
https://docs.docker.com/engine/security/rootless/
Dat is gelukt. Het werkt. Maar via mijn compose file moet ik ook een systeemmap (/usr/share/fonts/) kunnen mounten. Dat gaat natuurlijk niet...

code:
1
Error response from daemon: failed to create shim task: OCI runtime create failed: runc create failed: unable to start container process: error during container init: error mounting "/home/asterix/.local/share/docker/volumes/6b317558e2e43b67a999890647c14fd389e75a774dd4cf0f51d969737548f6c1/_data" to rootfs at "/usr/share/fonts/truetype/custom": mkdir /home/asterix/.local/share/docker/btrfs/subvolumes/4eda4a9d259568ac7dc3b23c6761346f0ee53515b00a89c1dab00268a69ea535/usr/share/fonts/truetype: permission denied: unknown


Bestaat er een manier om dit toch te kunnen doen, net zoals je bijvoorbeeld privileged ports toch kan mappen?

edit: los hiervan, compose up -d werkt prima, maar ik kan geen enkele container bereiken. Ook Portainer niet. Terwijl als ik Portainer simpelweg via:
code:
1
docker run -d -p 9000:9000 --name=portainer --restart=always -v /$XDG_RUNTIME_DIR/docker.sock:/var/run/docker.sock -v ~/.local/share/docker/volumes:/var/lib/docker/volumes portainer/portainer-ce
maak en start, kan ik deze prima bereiken.. via Compose niet 8)7

edit2: aha, het verschil is dat ik in mijn compose file netjes netwerken definieer. Als ik dat in mijn compose file uitcomment zoals hieronder, werkt Portainer ook via Compose.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
##____________________ Portainer [Management/Docker]
  portainer:
    container_name: portainer
    image: portainer/portainer-ce
    restart: always
    #networks: 
     # - management
    volumes:
      - /$XDG_RUNTIME_DIR/docker.sock:/var/run/docker.sock
      - ~/.local/share/docker/volumes:/var/lib/docker/volumes 
      - $DOCKERDIR/portainer/data:/data
    ports:
      - 9000:9000



Ik mis dus iets.. in rootless mode kan je blijkbaar niet (zomaar) docker networks aanmaken..

edit3: AHA, rootless mode ondersteund geen overlay networks. Dus ik moet kiezen: of overlay networks gebruiken waarbij docker containers root access hebben, of geen overlay networks gebruiken met rootless mode..

Hoe weet je nu wat het beste/veiligste is voor een homeserver?

[Voor 96% gewijzigd door Jazco2nd op 08-04-2022 15:13]


  • Ben.Hahlen
  • Registratie: December 2003
  • Laatst online: 23-09 16:11
Ik zit met een probleem waar ik niet uit kom en heb ondertussen zo'n beetje alles afgestruind wat ik kon vinden, maar nog steeds geen oplossing...
Dus ik hoop dat jullie mij kunnen helpen! (Geen druk verder :) ).

Situtatieschets:
Op mijn server draai ik Docker met een MACVLan netwerk. Dit heb ik destijds gedaan om er mee te leren omgaan én omdat ik dan IP's had voor de verschillende services, zodat ik ook HomeAssistant (o.a.) makkelijk kon draaien :)

Dit heeft tijden lang goed gedraaid, tot ik mijn switch heb vervangen van een Zyxel naar een Ubiquiti, omdat ik ook al een USG had en de AP's.
Nu weet ik niet of dat een causaal verband is, maar het is wel belangrijk om te melden.

Sindsdien krijg ik van watchtower de volgende meldingen tijdens runs:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
$ docker run --rm --network=lan_net -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once
time="2022-08-18T10:34:06Z" level=info msg="Watchtower 1.4.0"
time="2022-08-18T10:34:06Z" level=info msg="Using no notifications"
time="2022-08-18T10:34:06Z" level=info msg="Checking all containers (except explicitly disabled with label)"
time="2022-08-18T10:34:06Z" level=info msg="Running a one time update."
time="2022-08-18T10:34:41Z" level=warning msg="Could not do a head request for \"linuxserver/transmission:latest\", falling back to regular pull." container=/transmission image="linuxserver/transmission:latest"
time="2022-08-18T10:34:41Z" level=warning msg="Reason: Head \"https://index.docker.io/v2/linuxserver/transmission/manifests/latest\": dial tcp 44.205.66.155:443: i/o timeout" container=/transmission image="linuxserver/transmission:latest"
time="2022-08-18T10:35:41Z" level=warning msg="Could not do a head request for \"linuxserver/nginx:latest\", falling back to regular pull." container=/eefsoriginals image="linuxserver/nginx:latest"
time="2022-08-18T10:35:41Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.205.66.155:443: i/o timeout" container=/eefsoriginals image="linuxserver/nginx:latest"
time="2022-08-18T10:36:41Z" level=warning msg="Could not do a head request for \"linuxserver/nginx:latest\", falling back to regular pull." container=/wowmirrors image="linuxserver/nginx:latest"
time="2022-08-18T10:36:41Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.205.66.155:443: i/o timeout" container=/wowmirrors image="linuxserver/nginx:latest"
time="2022-08-18T10:37:42Z" level=warning msg="Could not do a head request for \"homeassistant/home-assistant:latest\", falling back to regular pull." container=/homeassistant image="homeassistant/home-assistant:latest"
time="2022-08-18T10:37:42Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.206.182.67:443: i/o timeout" container=/homeassistant image="homeassistant/home-assistant:latest"
time="2022-08-18T10:38:42Z" level=warning msg="Could not do a head request for \"eclipse-mosquitto:latest\", falling back to regular pull." container=/mosquitto image="eclipse-mosquitto:latest"
time="2022-08-18T10:38:42Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.206.182.67:443: i/o timeout" container=/mosquitto image="eclipse-mosquitto:latest"
time="2022-08-18T10:39:23Z" level=warning msg="Could not do a head request for \"linuxserver/unifi-controller:latest\", falling back to regular pull." container=/unifi image="linuxserver/unifi-controller:latest"
time="2022-08-18T10:39:23Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": net/http: TLS handshake timeout" container=/unifi image="linuxserver/unifi-controller:latest"
time="2022-08-18T10:40:13Z" level=warning msg="Could not do a head request for \"portainer/portainer-ce:latest\", falling back to regular pull." container=/portainer image="portainer/portainer-ce:latest"
time="2022-08-18T10:40:13Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.206.182.67:443: i/o timeout" container=/portainer image="portainer/portainer-ce:latest"
time="2022-08-18T10:41:14Z" level=warning msg="Could not do a head request for \"linuxserver/wireguard:latest\", falling back to regular pull." container=/wireguard image="linuxserver/wireguard:latest"
time="2022-08-18T10:41:14Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.205.66.155:443: i/o timeout" container=/wireguard image="linuxserver/wireguard:latest"
time="2022-08-18T10:43:13Z" level=info msg="Session done" Failed=0 Scanned=35 Updated=0 notify=no
time="2022-08-18T10:43:13Z" level=info msg="Waiting for the notification goroutine to finish" notify=no


Als ik watchtower in een run-once draai, zonder gebruik te maken van het MACVLan netwerk, dan werkt dit zonder problemen (let ook op dat de macvlan variant eerder is gestart, maar langer heeft geduurd):
code:
1
2
3
4
5
6
7
$ docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once
time="2022-08-18T10:34:29Z" level=info msg="Watchtower 1.4.0"
time="2022-08-18T10:34:29Z" level=info msg="Using no notifications"
time="2022-08-18T10:34:29Z" level=info msg="Checking all containers (except explicitly disabled with label)"
time="2022-08-18T10:34:29Z" level=info msg="Running a one time update."
time="2022-08-18T10:35:02Z" level=info msg="Session done" Failed=0 Scanned=36 Updated=0 notify=no
time="2022-08-18T10:35:02Z" level=info msg="Waiting for the notification goroutine to finish" notify=no


Verder relevante info:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
$ docker network inspect lan_net
[
    {
        "Name": "lan_net",
        "Id": "148a4c4c72d13f2e816fd932e4c874d3421b52c3f1488b4b817c16539c185d7f",
        "Created": "2022-08-18T10:47:49.404058043+02:00",
        "Scope": "local",
        "Driver": "macvlan",
        "EnableIPv6": false,
        "IPAM": {
            "Driver": "default",
            "Options": {},
            "Config": [
                {
                    "Subnet": "192.168.2.0/24",
                    "IPRange": "192.168.2.0/24",
                    "Gateway": "192.168.2.1",
                    "AuxiliaryAddresses": {
                        "host": "192.168.2.251"
                    }
                }
            ]
        },
        "Internal": false,
        "Attachable": false,
        "Ingress": false,
        "ConfigFrom": {
            "Network": ""
        },
        "ConfigOnly": false,
        "Containers": {
            ... (Verwijderd)
        },
        "Options": {
            "parent": "enp0s31f6"
        },
        "Labels": {}
    }
]


Commands voor creëren netwerk:
code:
1
2
3
4
5
6
7
docker network create -d macvlan \
  -o parent=enp0s31f6 \
  --subnet=192.168.2.0/24 \
  --gateway=192.168.2.1 \
  --ip-range=192.168.2.0/24 \
  --aux-address 'host=192.168.2.251' \
  lan_net


MACVLan Shim voor communicatie:
code:
1
2
3
4
ip link add lan_net_shim link enp0s31f6 type macvlan mode bridge
ip addr add 192.168.2.251/32 dev lan_net_shim
ip link set lan_net_shim up
ip route add 192.168.2.0/24 dev lan_net_shim


Zoals ik dus zei: ik ben redelijk lost waar ik het moet zoeken, dus als iemand de gouden tip heeft :)

Blog


  • Freee!!
  • Registratie: December 2002
  • Laatst online: 07:44

Freee!!

Trotse papa van Toon en Len!

Ben.Hahlen schreef op donderdag 18 augustus 2022 @ 12:43:
Ik zit met een probleem waar ik niet uit kom en heb ondertussen zo'n beetje alles afgestruind wat ik kon vinden, maar nog steeds geen oplossing...
Dus ik hoop dat jullie mij kunnen helpen! (Geen druk verder :) ).

Situtatieschets:
Op mijn server draai ik Docker met een MACVLan netwerk. Dit heb ik destijds gedaan om er mee te leren omgaan én omdat ik dan IP's had voor de verschillende services, zodat ik ook HomeAssistant (o.a.) makkelijk kon draaien :)

Dit heeft tijden lang goed gedraaid, tot ik mijn switch heb vervangen van een Zyxel naar een Ubiquiti, omdat ik ook al een USG had en de AP's.
Nu weet ik niet of dat een causaal verband is, maar het is wel belangrijk om te melden.

Sindsdien krijg ik van watchtower de volgende meldingen tijdens runs:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
$ docker run --rm --network=lan_net -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once
time="2022-08-18T10:34:06Z" level=info msg="Watchtower 1.4.0"
time="2022-08-18T10:34:06Z" level=info msg="Using no notifications"
time="2022-08-18T10:34:06Z" level=info msg="Checking all containers (except explicitly disabled with label)"
time="2022-08-18T10:34:06Z" level=info msg="Running a one time update."
time="2022-08-18T10:34:41Z" level=warning msg="Could not do a head request for \"linuxserver/transmission:latest\", falling back to regular pull." container=/transmission image="linuxserver/transmission:latest"
time="2022-08-18T10:34:41Z" level=warning msg="Reason: Head \"https://index.docker.io/v2/linuxserver/transmission/manifests/latest\": dial tcp 44.205.66.155:443: i/o timeout" container=/transmission image="linuxserver/transmission:latest"
time="2022-08-18T10:35:41Z" level=warning msg="Could not do a head request for \"linuxserver/nginx:latest\", falling back to regular pull." container=/eefsoriginals image="linuxserver/nginx:latest"
time="2022-08-18T10:35:41Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.205.66.155:443: i/o timeout" container=/eefsoriginals image="linuxserver/nginx:latest"
time="2022-08-18T10:36:41Z" level=warning msg="Could not do a head request for \"linuxserver/nginx:latest\", falling back to regular pull." container=/wowmirrors image="linuxserver/nginx:latest"
time="2022-08-18T10:36:41Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.205.66.155:443: i/o timeout" container=/wowmirrors image="linuxserver/nginx:latest"
time="2022-08-18T10:37:42Z" level=warning msg="Could not do a head request for \"homeassistant/home-assistant:latest\", falling back to regular pull." container=/homeassistant image="homeassistant/home-assistant:latest"
time="2022-08-18T10:37:42Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.206.182.67:443: i/o timeout" container=/homeassistant image="homeassistant/home-assistant:latest"
time="2022-08-18T10:38:42Z" level=warning msg="Could not do a head request for \"eclipse-mosquitto:latest\", falling back to regular pull." container=/mosquitto image="eclipse-mosquitto:latest"
time="2022-08-18T10:38:42Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.206.182.67:443: i/o timeout" container=/mosquitto image="eclipse-mosquitto:latest"
time="2022-08-18T10:39:23Z" level=warning msg="Could not do a head request for \"linuxserver/unifi-controller:latest\", falling back to regular pull." container=/unifi image="linuxserver/unifi-controller:latest"
time="2022-08-18T10:39:23Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": net/http: TLS handshake timeout" container=/unifi image="linuxserver/unifi-controller:latest"
time="2022-08-18T10:40:13Z" level=warning msg="Could not do a head request for \"portainer/portainer-ce:latest\", falling back to regular pull." container=/portainer image="portainer/portainer-ce:latest"
time="2022-08-18T10:40:13Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.206.182.67:443: i/o timeout" container=/portainer image="portainer/portainer-ce:latest"
time="2022-08-18T10:41:14Z" level=warning msg="Could not do a head request for \"linuxserver/wireguard:latest\", falling back to regular pull." container=/wireguard image="linuxserver/wireguard:latest"
time="2022-08-18T10:41:14Z" level=warning msg="Reason: Get \"https://index.docker.io/v2/\": dial tcp 44.205.66.155:443: i/o timeout" container=/wireguard image="linuxserver/wireguard:latest"
time="2022-08-18T10:43:13Z" level=info msg="Session done" Failed=0 Scanned=35 Updated=0 notify=no
time="2022-08-18T10:43:13Z" level=info msg="Waiting for the notification goroutine to finish" notify=no


Als ik watchtower in een run-once draai, zonder gebruik te maken van het MACVLan netwerk, dan werkt dit zonder problemen (let ook op dat de macvlan variant eerder is gestart, maar langer heeft geduurd):
code:
1
2
3
4
5
6
7
$ docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once
time="2022-08-18T10:34:29Z" level=info msg="Watchtower 1.4.0"
time="2022-08-18T10:34:29Z" level=info msg="Using no notifications"
time="2022-08-18T10:34:29Z" level=info msg="Checking all containers (except explicitly disabled with label)"
time="2022-08-18T10:34:29Z" level=info msg="Running a one time update."
time="2022-08-18T10:35:02Z" level=info msg="Session done" Failed=0 Scanned=36 Updated=0 notify=no
time="2022-08-18T10:35:02Z" level=info msg="Waiting for the notification goroutine to finish" notify=no


Verder relevante info:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
$ docker network inspect lan_net
[
    {
        "Name": "lan_net",
        "Id": "148a4c4c72d13f2e816fd932e4c874d3421b52c3f1488b4b817c16539c185d7f",
        "Created": "2022-08-18T10:47:49.404058043+02:00",
        "Scope": "local",
        "Driver": "macvlan",
        "EnableIPv6": false,
        "IPAM": {
            "Driver": "default",
            "Options": {},
            "Config": [
                {
                    "Subnet": "192.168.2.0/24",
                    "IPRange": "192.168.2.0/24",
                    "Gateway": "192.168.2.1",
                    "AuxiliaryAddresses": {
                        "host": "192.168.2.251"
                    }
                }
            ]
        },
        "Internal": false,
        "Attachable": false,
        "Ingress": false,
        "ConfigFrom": {
            "Network": ""
        },
        "ConfigOnly": false,
        "Containers": {
            ... (Verwijderd)
        },
        "Options": {
            "parent": "enp0s31f6"
        },
        "Labels": {}
    }
]


Commands voor creëren netwerk:
code:
1
2
3
4
5
6
7
docker network create -d macvlan \
  -o parent=enp0s31f6 \
  --subnet=192.168.2.0/24 \
  --gateway=192.168.2.1 \
  --ip-range=192.168.2.0/24 \
  --aux-address 'host=192.168.2.251' \
  lan_net


MACVLan Shim voor communicatie:
code:
1
2
3
4
ip link add lan_net_shim link enp0s31f6 type macvlan mode bridge
ip addr add 192.168.2.251/32 dev lan_net_shim
ip link set lan_net_shim up
ip route add 192.168.2.0/24 dev lan_net_shim


Zoals ik dus zei: ik ben redelijk lost waar ik het moet zoeken, dus als iemand de gouden tip heeft :)
Waarschijnlijk checkt je Watchtower te vaak, er is al een tijdje een limiet aan het aantal opvragingen per tijdseenheid. Ik heb het interval nu op elke twee uur staan.
code:
1
-e WATCHTOWER_POLL_INTERVAL=7200 \

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]

Смерть Путину


  • Ben.Hahlen
  • Registratie: December 2003
  • Laatst online: 23-09 16:11
Freee!! schreef op donderdag 18 augustus 2022 @ 18:39:
[...]

Waarschijnlijk checkt je Watchtower te vaak, er is al een tijdje een limiet aan het aantal opvragingen per tijdseenheid. Ik heb het interval nu op elke twee uur staan.
code:
1
-e WATCHTOWER_POLL_INTERVAL=7200 \
Thanks, maar dat bleek het niet te zijn...

Wat wel?
Nou... Als je dus MACVlans doet, dan moet je wel adressen reserveren.
Watchtower pakte blijkbaar 192.168.2.2, waar mijn main switch ook op draait... En dat gaat dus niet.

De vraag is natuurlijk wel: waarom gebeurde dat eerst niet, maar nu ineens wel... Maar dat is voor later...

Blog


  • Freee!!
  • Registratie: December 2002
  • Laatst online: 07:44

Freee!!

Trotse papa van Toon en Len!

Ben.Hahlen schreef op vrijdag 19 augustus 2022 @ 09:31:
[...]
Thanks, maar dat bleek het niet te zijn...

Wat wel?
Nou... Als je dus MACVlans doet, dan moet je wel adressen reserveren.
Watchtower pakte blijkbaar 192.168.2.2, waar mijn main switch ook op draait... En dat gaat dus niet.

De vraag is natuurlijk wel: waarom gebeurde dat eerst niet, maar nu ineens wel... Maar dat is voor later...
Daar had ik niet aan gedacht, ik hoef Watchtower niet te benaderen en andere services ook niet, dus dat draait bij mij niet in macvlan.

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]

Смерть Путину


  • Hathi
  • Registratie: Mei 2012
  • Laatst online: 08:20
Ik vraag me inderdaad af waarom je watchtower in een macvlan zou draaien. Voor homeassistant snap ik het, dan is die gewoon benaderbaar op een eigen IP, maar watchtower zou ik lekker in een bridge netwerk draaien.

  • Ben.Hahlen
  • Registratie: December 2003
  • Laatst online: 23-09 16:11
Freee!! schreef op vrijdag 19 augustus 2022 @ 11:35:
[...]
Daar had ik niet aan gedacht, ik hoef Watchtower niet te benaderen en andere services ook niet, dus dat draait bij mij niet in macvlan.
Hathi schreef op vrijdag 19 augustus 2022 @ 12:37:
Ik vraag me inderdaad af waarom je watchtower in een macvlan zou draaien. Voor homeassistant snap ik het, dan is die gewoon benaderbaar op een eigen IP, maar watchtower zou ik lekker in een bridge netwerk draaien.
Dat is ook niet bewust zo, moet ik eerlijk zeggen...
Ik dacht altijd dat watchtower in de bridge draaide...

...maar toen kwam ik dit stukje in mijn compose.yaml tegen:
YAML:
1
2
3
4
5
6
networks:
  lan_net:
    external: true
  default:
    external: true
    name: lan_net


Ooit zo opgezet (lang, lang geleden) en nooit meer naar gekeken, want: "het werkte" :) :+

Nu ben ik toch bezig om e.e.a. te bekijken en te herconfigureren, dus er zullen vast meer wijzigingen gaan plaatsvinden :)

Blog


  • Piet400
  • Registratie: Juli 2009
  • Laatst online: 06:47
Heeft iemand een goede suggestie voor een (docker) app waarmee je backups maakt van iOS en Android devices kan maken?

  • HenkEisjedies
  • Registratie: Maart 2004
  • Laatst online: 10:09
Ik heb een docker image (https://www.freqtrade.io/en/stable/docker_quickstart/) die ik draaiend wil hebben en houden in Azure. Lokaal lukt het me prima om de image te starten. Ik doorloop gewoon de stappen uit de handleiding en klaar.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
mkdir ft_userdata
cd ft_userdata/
# Download the docker-compose file from the repository
curl https://raw.githubusercontent.com/freqtrade/freqtrade/stable/docker-compose.yml -o docker-compose.yml

# Pull the freqtrade image
docker-compose pull

# Create user directory structure
docker-compose run --rm freqtrade create-userdir --userdir user_data

# Create configuration - Requires answering interactive questions
docker-compose run --rm freqtrade new-config --config user_data/config.json


Zoals je ziet, redelijk simpel. Ik download de docker-compose file die freqtrade meelevert, pull de freqtrade image en maak een nieuwe config file aan.

Maar zodra ik ditzelfde wil doen op Azure gaat het mis. Je kunt bij Azure bij het aanmaken van een nieuwe container een aantal commando's meegeven die als eerste worden uitgevoerd. Dus ik zet bovenstaande commando's neer, maar de container killt zichzelf vrijwel direct. Nu heb ik geleerd dat dit opzich normaal docker gedrag is als een container niets meer te doen heeft en er geen actieve processen draaien. Ik denk dat het komt omdat het laatste commando een interactieve questionaire is en er dus eigenlijk nooit een valide config.json bestand wordt aangemaakt. Zou ik de antwoorden op deze questionairre ook kunnen meegeven in Azure?

Daarnaast vraag ik me af hoe het gaat in Azure met lokale bestanden. Ik heb nu de bestanden lokaal staan, maar deze moeten uiteindelijk ook in Azure terecht komen. Alleen als ik bovenstaande riedeltje uitvoer dan staan die bestanden in de container en als ik docker goed begrijp bestaan deze bestanden alleen zolang de container bestaat. Hoe vertel ik Azure dat hij het config.json bestand in Azure aanmaakt op een niet vluchtige manier?

Tot slot heb ik nog een vraag over de SQL database in de container. Deze moet ook persistant worden, maar first things first eerst maar eens dat config bestand persistant maken.

Of gebruik ik docker verkeerd en kan ik beter een virtuele ubuntu omgeving in Azure maken en daar python en freqtrade op installeren? Dan heb ik alles netjes in één pakketje, maar dan moet ik ook gaan nadenken over updaten en beveiligen van linux (waar ik niet goed in ben). Mijn ultieme doel is dat ik vrij makkelijk ook voor wat vrienden freqtrade draaiend kan krijgen, dus het is niet alleen voor mijzelf.

  • Jaguar645
  • Registratie: Juni 2001
  • Laatst online: 22:48
Met Azure maak je gebruik van Container Instance neem ik aan?

Volgens mij wordt alleen Azure files als persistent storage ondersteund om je config/logging dan in op te slaan zoals bv:

code:
1
az container create -g MyResourceGroup --name myapp --image myimage:latest --command-line "cat /mnt/azfile/myfile" --azure-file-volume-share-name myshare --azure-file-volume-account-name mystorageaccount --azure-file-volume-account-key mystoragekey --azure-file-volume-mount-path /mnt/azfile


komt uit de az cli docs: https://docs.microsoft.co...atest#az-container-create

voor persistent sql/dabase kun je dan het beste Azure SQL inzetten natuurlijk :) helemaal als je beide vnet integrate gaat er niets het internet over

ik heb nog geen commands gerund tegen een container instance aan maar volgens mij gaat dat volgens de docs op de volgende manier:

code:
1
az container create -g MyResourceGroup --name myapp --image myimage:latest --command-line "/bin/sh -c '/path to/myscript.sh'"


maar dan uiteraard customized naar wat jij nodig hebt

  • HenkEisjedies
  • Registratie: Maart 2004
  • Laatst online: 10:09
Thanks man, ik ga vanavond even kijken of het me lukt met Azure Files. Ik gebruik inderdaad een Azure Container Instance.

Verder werkt Freqtrade met sqllite en dat zit dus ook allemaal in die Docker Image neem ik aan, ik moet even checken waar die dbms zijn storage/files doet. Ik weet niet zeker wat het slimste is om te doen: die dbms zijn bestanden in Azure Files hosten of een Azure database gebruiken. Die eerste lijkt me het makkelijkst omdat ik dan alleen bestandslocaties hoef aan te passen.

  • Jaguar645
  • Registratie: Juni 2001
  • Laatst online: 22:48
Denk dat je een SQLite DB prima in files kunt hosten :) die is in principe snel genoeg... mocht je toch tegen zaken aanlopen kun je altijd nog naar een serverless azure sql migreren

  • Jaguar645
  • Registratie: Juni 2001
  • Laatst online: 22:48
Heb even nog gezocht en vond een oude pipeline waar ooit een syslog-ng instance als ACI deployed was geweest :) heb het even proberen te vertalen naar de globale stappen zoals uitgevoerd:

1. Deploy storage account (Standard_LRS in ons geval)
2. Enable privatelink en configure dns (mits van toepassing, je kunt uiteraard ook over service endpoint connecten)
3. Create file shares:

code:
1
2
3
4
5
$resourceGroupName = ""
$filesharename = ""
$storageaccountname = ""
$storagekey=$(az storage account keys list --resource-group $resourceGroupName --account-name $storageaccountname --query "[0].value" --output tsv)
az storage share create --name $filesharename --account-name $storageaccountname --account-key $storagekey


4. Create container:

code:
1
2
$resourceGroupName = ""
az container create --resource-group $resourceGroupName --file .\deploytemplate.yml


template.yml:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
apiVersion: '2021-07-01'
location: westeurope
name: ##containername##
properties:
  containers:
  - name: ##containername##
    properties:
      environmentVariables: []
      image: lscr.io/linuxserver/syslog-ng
      ports:
      - protocol: tcp
        port: 6514
      resources:
        requests:
          cpu: 2.0
          memoryInGB: 3.5
      volumeMounts:
      - mountPath: /config
        name: ##mountname##
      - mountPath: /var/log
        name: ##mountname##
  osType: Linux
  restartPolicy: Always
  ipAddress:
    type: Private
    ports:
      - protocol: tcp
        port: 6514
  volumes:
  - name: ##name##
    azureFile:
      sharename: ##sharename##
      storageAccountName: ##storageAccountName##
      storageAccountKey: ##storageAccountKey##
  subnetIds:
    - id: /subscriptions/$subscription/resourceGroups/$rg/providers/Microsoft.Network/virtualNetworks/$vnet/subnets/$sub
      name: ##subnetname##
tags: {}
type: Microsoft.ContainerInstance/containerGroups


ipv cli voor de container zelf dus yaml gebruikt omdat ik dat iets makkelijker/begrijpelijker vond dan de cli :P maar choice of preference

uiteraard aanpassen waar nodig naar je eigen config

  • HenkEisjedies
  • Registratie: Maart 2004
  • Laatst online: 10:09
Cool thanks wederom. :) Dit is echt precies wat ik straks nodig ga hebben om het deployen helemaal te automatiseren denk ik.

Ik heb inmiddels storage (volgens mij ook standard_LRS), de juiste resource group heeft dr toegang tot en dr zitten files in. Dan is het nu volgens mij alleen nog een kwestie van docker runnen met een verwijzing naar die files. 🙃 Nice!

Dit weekend ga ik kijken of ik hem dan ook daadwerkelijk kan runnen.

  • HenkEisjedies
  • Registratie: Maart 2004
  • Laatst online: 10:09
Grappig dat je zei dat je het via een YML file gedaan hebt omdat de CLI wat weinig overzichtelijk is. Ik denk dat ik hier tegen dezelfde complexiteit aan loop.

Volgens mij moet ik docker-compose run freqtrade trade --config /user_data/config.json --strategy SampleStrategy meegeven bij het opstarten. Dit werkt in elk geval op Docker Desktop zo.

Ik probeer daarom nu een container aan te maken als volgt:
az container create --command-line "`"docker-compose run freqtrade trade --config /user_data/config.json --strategy SampleStrategy`""
https://tweakers.net/i/yWHwx4PwwX7LGR0SkyeYJE9c_fw=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/qL0DgsSsQ0hcnE71MiWUHVuc.png?f=user_large

Alleen als ik dan ga kijken bij de aangemaakte Container Instances dan zie ik dit:

Maar dit zijn geen losse commando's. Naja, morgen weer verder.

  • Webgnome
  • Registratie: Maart 2001
  • Nu online
Hi,

een docker noob hier. Ik ben in mijn vrije tijd een beetje aan het klooien met Docker om wat services op mijn pi te draaien. En de basis dat lukt mij altijd wel echter loop ik op dit moment tegen een bepaald probleempje aan wat ik niet helemaal begrijp.

Ik heb twee docker compose files.

domoticz.yml
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
version: '3.3'

services:
  domoticz:
    image: domoticz/domoticz
    container_name: domoticz
    restart: unless-stopped
    # Pass devices to container
    devices:
      - "/dev/serial/by-id/usb-FTDI_FT232R_USB_UART_AB6648AH-if00-port0:/dev/ttyUSB0"
    ports:
      - "8080:8080"
    volumes:
      - /mnt/ssd/docker/data/domoticz/:/opt/domoticz/userdata
      - /mnt/ssd/logs/domoticz:/opt/domoticz/userdata/logs
    environment:
      - TZ=Europe/Amsterdam
      - LOG_PATH=/opt/domoticz/userdata/logs/logsdomoticz.log
    networks:
      - domoticz

networks:
  domoticz:
    name: domoticz


wordpress.yml
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
services:
  db:
    # We use a mariadb image which supports both amd64 & arm64 architecture
    image: mariadb:10.6.4-focal
    # If you really want to use MySQL, uncomment the following line
    #image: mysql:8.0.27
    command: '--default-authentication-plugin=mysql_native_password'
    volumes:
      -  /mnt/ssd/docker/data/blog/mysql:/var/lib/mysql
    restart: always
    environment:
      - MYSQL_ROOT_PASSWORD=somewordpress
      - MYSQL_DATABASE=wordpress
      - MYSQL_USER=wordpress
      - MYSQL_PASSWORD=wordpress
  wordpress:
    image: wordpress:latest
    ports:
      - 8081:80
    restart: always
    depends_on:
      - db
    volumes:
      -  /mnt/ssd/docker/data/blog/www:/var/www/html
    environment:
      - WORDPRESS_DB_HOST=db
      - WORDPRESS_DB_USER=wordpress
      - WORDPRESS_DB_PASSWORD=wordpress
      - WORDPRESS_DB_NAME=wordpress


Nu starte ik zojuist de wordpress op en krijg ik in de console de volgende melding
Found orphan containers ([config-web-1 domoticz]) for this project. If you removed or renamed this service in your compose file, you can run this command with the --remove-orphans flag to clean it up.

Ik begrijp even niet waar dat docker deze melding vandaan tovert. Immers het zijn twee losstaande compose files. Is het nu zo dat docker deze twee compose files ziet als eenzelfde set containers of hoe moet ik dat zien? En belangrijker nog. Wat gebeurd er als ik een van de twee docker compose -f file.yml down breng?

Strava, Twitter


  • lolgast
  • Registratie: November 2006
  • Laatst online: 10:16
@Webgnome Staan beide compose files in dezelfde directory? Óf, heeft 1 van de compose files beide containers erin gehad en heb je ze later gesplit?

Het is in principe de bedoeling dat alle containers in dezelfde compose file staan, of je moet per container een eigen directory aanmaken en daarin een compose file met alleen die container/benodigdheden erin

  • Webgnome
  • Registratie: Maart 2001
  • Nu online
Ik heb een directory /mnt/ssd/docker/config waar ik alle compose files heb staan aangezien ik de structuur aan houd:

/mnt/ssd/docker/config/ -> compose files
/mnt/ssd/docker/data/naamconfig/... -> container data voor compose file x

Strava, Twitter


  • lolgast
  • Registratie: November 2006
  • Laatst online: 10:16
Dan is de foutmelding logisch. Als je 1 dir wilt voor je compose.yaml, ‘moet’ je al je containers in die ene file zetten

  • Webgnome
  • Registratie: Maart 2001
  • Nu online
En daar is geen andere oplossing voor? Wel jammer wel..

Strava, Twitter


  • technorabilia
  • Registratie: November 2006
  • Laatst online: 24-09 21:18

technorabilia

(fka kraades)

Webgnome schreef op zaterdag 27 augustus 2022 @ 19:00:
En daar is geen andere oplossing voor? Wel jammer wel..
Vanuit een unieke directory refereren naar de compose file in je verzamel directory met de -f optie misschien?

👉🏻 Blog 👈🏻


  • MikeyMan
  • Registratie: Februari 2003
  • Nu online

MikeyMan

Vidi, Vici, Veni

Ben momenteel bezig om zoveel mogelijk spul dat op de Pi draait over te zetten op mijn DS1520+. Iets duurzamer oplossing.

Echter; daarmee word ik in veel gevallen geforceerd om Docker te gebruiken. Prima als het werkt. Maar als het dat niet doet, is de probleemanalyse er niet perse makkelijker op.

Waar ik nu tegenaan loop is een issue in NodeRed. Waarom dan in dit topic? Nou, dezelfde flow/call doet het op de Pi helemaal prima. Maar nu krijg ik een error:



De volledige request call is:
https://gateway-2017-8871...r-mobile-web/1/enduserAPI

Nu denk ik dat dit komt doordat dit een multicast call is. Iemand enig idee of dit op te lossen is binnen docker? Zie dat @ThinkPad al eerder iets vroeg over multicast. Nog aan de praat gekregen?

Ip Adressen kan ik gewoon pingen vanuit de container dus dat is het niet.

[Voor 8% gewijzigd door MikeyMan op 01-09-2022 09:19]


  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 09:37

ThinkPad

Moderator Wonen & Mobiliteit
Het multicast verhaal bij mij was dat het inkomend moest werken op de Docker container en dat bleek vrij lastig te zijn. Dat van jou lijkt uitgaand te zijn en zal dus meer kans van slagen hebben.

Misschien kun je toelichten wat je flow zou moeten doen?

[Voor 6% gewijzigd door ThinkPad op 01-09-2022 09:22]

Gas besparen door CV-tuning | Elektriciteit besparen
Geen vragen via privébericht die ook via het forum kunnen a.u.b.


  • MikeyMan
  • Registratie: Februari 2003
  • Nu online

MikeyMan

Vidi, Vici, Veni

ThinkPad schreef op donderdag 1 september 2022 @ 09:21:
Het multicast verhaal bij mij was dat het inkomend moest werken op de Docker container en dat bleek vrij lastig te zijn. Dat van jou lijkt uitgaand te zijn en zal dus meer kans van slagen hebben.

Misschien kun je toelichten wat je flow zou moeten doen?
Ik heb nu de simpelste flow die je kunt bedenken, aangezien ik nog aan het pogen ben om de API's via NodeRed te ontsluiten.

In dit geval gaat het om een get version number.


Komt er van diezelfde call ook niet iets terug via multicast dan? :?

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 09:37

ThinkPad

Moderator Wonen & Mobiliteit
Ik denk dat je beter een eigen topic kunt openen, het gaat hier offtopic denk ik :P

Naar mijn idee kan hij het adres gewoon niet vinden, maar ik vind het ook wel een bijzonder adres. Met multicast heeft het volgens mij niks te maken, het is gewoon een HTTP-request :P ?

Wat voor apparaat op je netwerk is dat precies? Kun je het vanaf je PC/laptop wel bereiken op dat adres?

[Voor 13% gewijzigd door ThinkPad op 01-09-2022 09:33]

Gas besparen door CV-tuning | Elektriciteit besparen
Geen vragen via privébericht die ook via het forum kunnen a.u.b.


  • MikeyMan
  • Registratie: Februari 2003
  • Nu online

MikeyMan

Vidi, Vici, Veni

ThinkPad schreef op donderdag 1 september 2022 @ 09:33:
Ik denk dat je beter een eigen topic kunt openen, het gaat hier offtopic denk ik :P

Naar mijn idee kan hij het adres gewoon niet vinden, maar ik vind het ook wel een bijzonder adres. Met multicast heeft het volgens mij niks te maken, het is gewoon een HTTP-request :P ?

Wat voor apparaat op je netwerk is dat precies? Kun je het vanaf je PC/laptop wel bereiken op dat adres?
.local is volgens mij Multicast gerelateerd:



Het is een Somfy Tahoma Switch. En als je met 'bereiken' bedoelt dat de API call het daar wel doet; ja. Vanaf alle andere apparaten. Sterker nog het werkt vanaf de PI ook gewoon met een Curl get.
Eens even op de Nas proberen.

edit: Heb je me toch geholpen denk ik. _/-\o_
Op de NAS Krijg ik een "could not resolve host". Dus dat zal niet beperkt zijn tot Docker.
Mocht iemand hier nog tegenaan lopen op een of andere vreemde manier. mDNS (Multicast DNS) zou de oplossing moeten zijn hier.

[Voor 10% gewijzigd door MikeyMan op 01-09-2022 10:08]

Pagina: 1 ... 4 5 6 Laatste



Google Pixel 7 Sony WH-1000XM5 Apple iPhone 14 Samsung Galaxy Watch5, 44mm Sonic Frontiers Samsung Galaxy Z Fold4 Insta360 X3 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee