JohnS
Nog geen data. In het geval van de filestorage verwacht ik dat de container daar een mappenstructuur aanmaakt.
Duidelijk. Als je niet van plan bent de data vanuit de dataset te delen met iets anders buiten je VM, dan zou ik er gewoon een virtuele disk onder hangen via de Proxmox GUI. Dat is blockstorage en dan kun je dat partitioneren onder je VM en Docker daar je volumes op laten zetten. Dan hoef je niet te klooien met permissies en weet ik wat.RudolfR schreef op donderdag 3 augustus 2023 @ 10:10:
@orvintax
Nog geen data. In het geval van de filestorage verwacht ik dat de container daar een mappenstructuur aanmaakt.
Ok, thanks. En voor het geval ik de data nog wel met iets anders wil delen, bijv. read-only met gebruikers via CIFS?
Dan is eigenlijk de enige optie om dat via de VM te doen. Omdat je de virtuele disk niet aan meerdere VMs kan hangen. Afhankelijk van je principes is dat wel of geen probleemRudolfR schreef op donderdag 3 augustus 2023 @ 18:24:
@orvintax
Ok, thanks. En voor het geval ik de data nog wel met iets anders wil delen, bijv. read-only met gebruikers via CIFS?
NextCloud en Firefly III werken niet lekker of niet. Wat de redenen zijn, geen idee, maar ben er ondertussen wel klaar mee zeg maar om dat uit te zoeken.
Denk dat ik gewoon Hyper-v kan gebruiken, een VM met Linux en dan een map van de host delen.
Uiteraard moet er dan wat gedaan worden met netwerk controllers. Maar verwacht dat dit het projectje wel gaat worden en uiteindelijk alles dan die kant op schuiven.
Als er mede-tweakers zijn die dit zo gebruiken en daar tips uit hebben, mag dat uiteraard gedeeld worden!
Kan op windows inloggen op de docker met local -ip raspberry poort 9000.
Wekt perfect maar heb nu de eerste image homeassistant geïnstalleerd in docker, zie dat hij het doet.
Hoe kom ik nu in het menu van homeassistant?
Poort 9000 is een bekende poort die door Portainer wordt gebruikt. Heb je na de installatie van Docker daarna een Portainer-container gemaakt en gebruik je die om je Docker-omgeving te beheren in een webinterface?boomer21 schreef op maandag 9 oktober 2023 @ 11:58:
Kom er niet uit, heb voor het eerst docker op raspberry pi n4 geïnstalleerd.
Kan op windows inloggen op de docker met local -ip raspberry poort 9000.
Heb je een bepaalde installatiehandleiding gevolgd voor het installeren van HomeAssistant in een dockercontainer? HA heeft doorgaans erg uitgebreide stappenplannen waar de gebruikte poort en manier van benaderen ook in zou moeten staan.Wekt perfect maar heb nu de eerste image homeassistant geïnstalleerd in docker, zie dat hij het doet.
Hoe kom ik nu in het menu van homeassistant?
Als je geen aanpassingen hebt gedaan in standaardinstellingen zou via je browser naar http://<ip-adres-van-raspberry>:8123 navigeren moeten/kunnen werken.
Klopt.
Homeassistant webgui.
000.000.000.000:9000. (Local ip raspberry)
Als je geen aanpassingen hebt gedaan in standaardinstellingen zou via je browser naar http://<ip-adres-van-raspberry>:8123 navigeren moeten/kunnen werken.
Werkt niet.
Heb je poort 8123 ook geforward in je compose file? En heb je misschien een firewall draaien?boomer21 schreef op maandag 9 oktober 2023 @ 12:22:
Poort 9000 is een bekende poort die door Portainer wordt gebruikt. Heb je na de installatie van Docker daarna een Portainer-container gemaakt en gebruik je die om je Docker-omgeving te beheren in een webinterface?
Klopt.
Homeassistant webgui.
000.000.000.000:9000. (Local ip raspberry)
Als je geen aanpassingen hebt gedaan in standaardinstellingen zou via je browser naar http://<ip-adres-van-raspberry>:8123 navigeren moeten/kunnen werken.
Werkt niet.
Als je dan naar Home Assistant gaat kijken dan zie bij de Home Assistant Container instructies het volgende:
1
2
3
4
5
6
7
8
| docker run -d \ --name homeassistant \ --privileged \ --restart=unless-stopped \ --environment TZ=MY_TIME_ZONE \ --volume /PATH_TO_YOUR_CONFIG:/config \ --network=host \ ghcr.io/home-assistant/home-assistant:stable |
(waarbij ik -e en -v even volledig heb uitgeschreven)
Stap voor stap staat hier het volgende:
- Docker, Run een container in detached mode
- Geef de container de naam homeassistant
- Geef de container alle systeem privileges (wordt niet aangeraden, maar kan hier handig zijn, omdat je met eventuele USB apparaten zit).
- Herstart de container altijd, behalve als je deze handmatig stopt. Dit doe je om eventuele crashes automatisch op te vangen
- Zet de omgevingsvariable met jouw tijdzone. In ons geval Europe/Amsterdam
- Map een stukje bestandsysteem als volume naar de container toe in het container pad /config. Lokaal zou dit bijvoorbeeld /opt/homeassistant/ kunnen zijn
- Zet de network mode op host, waarmee je de Home Assistant container alle vrijheid geeft om de poorten te pakken die deze wil
- Gebruik hiervoor de image ghcr.io/home-assistant/home-assistant:stable
1
2
3
4
5
6
7
| docker run -d \ --name homeassistant \ --restart=unless-stopped \ -e TZ="Europe/Amsterdam" \ -v /opt/homeassistant:/config \ --network=host \ ghcr.io/home-assistant/home-assistant:stable |
En wil je alleen specifiek poort 8123 gebruiken, dan zouden we dat ook kunnen doen:
1
2
3
4
5
6
7
| docker run -d \ --name homeassistant \ --restart=unless-stopped \ -e TZ="Europe/Amsterdam" \ -v /opt/homeassistant:/config \ -p 8123:8123 \ ghcr.io/home-assistant/home-assistant:stable |
Hetzelfde zie je ook in de interface van Portainer. Daar moet je ook specifieke toewijzingen doen. Zomaar naar poort X surfen zal dus (gelukkig maar) nooit werken. Diet moet je expliciet toewijzen.
Ik zou je verder aan kunnen raden om de CLI van Docker beter te leren kennen voordat je met tooling zoals Portainer aan de slag gaat. Portainer is heel mooi, maar neemt wat basiszaken voor je weg, die je later wellicht nodig hebt. Zoals, hoe werkt dit nu eigenlijk? Ook zou je altijd een Docker Tutorial kunnen doen.
Mocht je al met Compose aan de slag zijn gegaan, dan zie je dat dit eigenlijk meer van hetzelfde is, maar dan in een ander formaat. Het Home Assistant voorbeeld van boven zou er zo uitzien in Docker Compose:
1
2
3
4
5
6
7
8
9
10
11
12
| --- services: homeassistant: container_name: homeassistant privileged: true restart: unless-stopped environment: TZ: "Europe/Amsterdam" volumes: - /opt/homeassistant:/config network_mode: host image: "ghcr.io/home-assistant/home-assistant:stable" |
Echter houden we bij Compose vaak een nèt andere volgorde aan omdat dit wat eenvoudiger te lezen is. Als ik dit bijvoorbeeld vertaal naar bovenstaand voorbeeld 3 (zonder privileged en met expliciete poortmapping) zou ik dit zo in Compose doen:
1
2
3
4
5
6
7
8
9
10
11
12
| --- services: homeassistant: container_name: homeassistant image: "ghcr.io/home-assistant/home-assistant:stable" restart: unless-stopped environment: TZ: "Europe/Amsterdam" ports: - "8123:8123" volumes: - /opt/homeassistant:/config |
Maar ook hier geldt weer voor. Leer de basis en ken de verschillende parameters. Anders zie je in de kortste keren door de bomen het bos niet meer.
[ Voor 5% gewijzigd door WheeleE op 09-10-2023 13:59 ]
Wat is een ha adres ? En ha -container?WheeleE schreef op maandag 9 oktober 2023 @ 12:27:
Draait de HA-container correct en zo ja, wat voor melding krijg je in je browser als je naar het HA-adres gaat? En welke handleiding heb je gebruikt om de HA-omgeving in de lucht te krijgen?
Heb nu de pi-hole in de root van de raspberry en die open ik met local ip raspberry/admin en de portainer kan ik gewoon openen met raspberry ip:9000. Maar 8123 wil niet.Webgnome schreef op maandag 9 oktober 2023 @ 13:05:
[...]
Heb je poort 8123 ook geforward in je compose file? En heb je misschien een firewall draaien?
HA = HomeAssistantboomer21 schreef op maandag 9 oktober 2023 @ 14:13:
[...]
Heb nu de pi-hole in de root van de raspberry en die open ik met local ip raspberry/admin en de portainer kan ik gewoon openen met raspberry ip:9000. Maar 8123 wil niet.
Aangezien je de Portainer-webinterface kunt bereiken en gebruiken draait die docker-container dus correct.
Als je HomeAssistant niet kunt bereiken lijkt het er dus op dat dat niet (goed) draait.
Om dat verder te kunnen troubleshooten is het handig om te weten hoe je HomeAssistant hebt geinstalleerd.
Heb je een handleiding of stappenplan gevolgd, en zo ja op welke website heb je die gevonden?
Hoe meer informatie we hebben hoe beter we je kunnen helpen. Een firewall troubleshoten heeft bijvoorbeeld geen zin als je HomeAssistant-contaienr in Docker niet draait of niet correct is geconfigureerd.
En veel informatie mbt HA kan uit Portainer getrokken worden, te beginnen met bestaat en draait de container.WheeleE schreef op maandag 9 oktober 2023 @ 17:01:
[...]
[...]
HA = HomeAssistant
Aangezien je de Portainer-webinterface kunt bereiken en gebruiken draait die docker-container dus correct.
Als je HomeAssistant niet kunt bereiken lijkt het er dus op dat dat niet (goed) draait.
Om dat verder te kunnen troubleshooten is het handig om te weten hoe je HomeAssistant hebt geinstalleerd.
Heb je een handleiding of stappenplan gevolgd, en zo ja op welke website heb je die gevonden?
Hoe meer informatie we hebben hoe beter we je kunnen helpen. Een firewall troubleshoten heeft bijvoorbeeld geen zin als je HomeAssistant-contaienr in Docker niet draait of niet correct is geconfigureerd.
The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long
GoT voor Behoud der Nederlandschen Taal [GvBdNT
Hoe heb je de container geconfigureerd, met welke parameters, welke commando's, etcetera. In je screenshot is te zien dat de HA-container niet in een stack zit dus waarschijnlijk heb je m aangemaakt via de commandline op je Pi?
Ik heb nu een aantal docker containers die ik allemaal apart run vanuit bash scripts. Dit zijn:
- Adguard Home;
- Home Assistant;
- Portainer;
- PhpMyAdmin (ad hoc);
- Calibre-web;
- Firefly-III;
- ZwaveJS;
- vaultwarden;
- Node-Sonos-HTTP-api.
Op zich werkt dit prima. Maar zou het beter zijn om deze op te nemen in een docker-composer.yml file, of files?
Wat zouden dan de voordelen, of nadelen zijn?
Klopt command line putty ssh windows computer.WheeleE schreef op maandag 9 oktober 2023 @ 18:43:
@boomer21 Je draait dus HA in een Docker-container, dat is nuttige info. Nogmaals: met welke handleiding heb je de boel ingericht?
Hoe heb je de container geconfigureerd, met welke parameters, welke commando's, etcetera. In je screenshot is te zien dat de HA-container niet in een stack zit dus waarschijnlijk heb je m aangemaakt via de commandline op je Pi?
Driemaal is scheepsrecht: welke handleiding heb je gebruikt?boomer21 schreef op maandag 9 oktober 2023 @ 20:00:
[...]
Klopt command line putty ssh windows computer.
We hebben echt te weinig info om je goed te kunnen helpen. We weten niet welke stappen je precies hebt uitgevoerd, welke commando's je hebt ingevoerd. Dat maakt het bijna onmogelijk om de oorzaak van je probleem te vinden.
Correctie: TOTAAL onmogelijk.WheeleE schreef op maandag 9 oktober 2023 @ 20:06:
[...]
Driemaal is scheepsrecht: welke handleiding heb je gebruikt?
We hebben echt te weinig info om je goed te kunnen helpen. We weten niet welke stappen je precies hebt uitgevoerd, welke commando's je hebt ingevoerd. Dat maakt het bijna onmogelijk om de oorzaak van je probleem te vinden.
The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long
GoT voor Behoud der Nederlandschen Taal [GvBdNT
Nextcloud in een docker container ben ik ook maar mee gestopt. toch te weinig flexibel naar mijn idee, die draait nu native in apache2 (Ubuntu server), maar firefly-III heb ik prima draaien in docker. Waar loop je tegenaan?Arunia schreef op dinsdag 26 september 2023 @ 11:31:
Ik loop toch tegen een aantal problemen aan die denk ik in de Windows versie van docker niet zijn op te lossen.
NextCloud en Firefly III werken niet lekker of niet. Wat de redenen zijn, geen idee, maar ben er ondertussen wel klaar mee zeg maar om dat uit te zoeken.
Denk dat ik gewoon Hyper-v kan gebruiken, een VM met Linux en dan een map van de host delen.
Uiteraard moet er dan wat gedaan worden met netwerk controllers. Maar verwacht dat dit het projectje wel gaat worden en uiteindelijk alles dan die kant op schuiven.
Als er mede-tweakers zijn die dit zo gebruiken en daar tips uit hebben, mag dat uiteraard gedeeld worden!
Firefly draait bij mij als:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
| docker run -d \ -v /home/bart/docker/firefly-III/storage/upload:/var/www/html/storage/upload \ -v /home/bart/docker/firefly-III/storage/export:/var/www/html/storage/export \ -p 8075:8080 \ --name=fireflyIII \ --network=bridge \ -e APP_KEY=base64:xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx \ -e DB_HOST=172.17.0.1 \ -e DB_PORT=3306 \ -e DB_CONNECTION=mysql \ -e DB_DATABASE=firefly \ -e DB_USERNAME=fireflyuser \ -e DB_PASSWORD=xxxxxxxxxxxxxxxx \ --restart unless-stopped \ -e APP_URL=https://192.168.188.69:8075 \ -e TRUSTED_PROXIES=172.17.0.1 \ fireflyiii/core:latest |
Geen idee wat er wel en niet kan onder windows.
Voor mij zou het andersom zijn: waarom in hemelsnaam geen docker compose gebruiken?ahbart schreef op maandag 9 oktober 2023 @ 19:41:
Naar aanleiding van een draadje in Smarhome vraag ik mij af hoe en waarom ik docker compose zou moeten gebruiken.
Ik heb nu een aantal docker containers die ik allemaal apart run vanuit bash scripts. Dit zijn:
- Adguard Home;
- Home Assistant;
- Portainer;
- PhpMyAdmin (ad hoc);
- Calibre-web;
- Firefly-III;
- ZwaveJS;
- vaultwarden;
- Node-Sonos-HTTP-api.
Op zich werkt dit prima. Maar zou het beter zijn om deze op te nemen in een docker-composer.yml file, of files?
Wat zouden dan de voordelen, of nadelen zijn?
- Alles overzichtelijk in één yaml bestand
- Een .env file die werkt en alle secrets etc. bevat
- via docker compose up -d alles starten en/of herstarten
- via docker compose pull een image bijwerken en dan weer met docker compose up -d herstarten wat is gewijzigd...
- En bij een systeem herstart start ook alles automatisch...
- Eenvoudig dependencies kunnen instellen
- Eenvoudig een proxy als Caddy kunnen gebruiken via YAML labels
[ Voor 5% gewijzigd door Mars Warrior op 09-10-2023 21:02 ]
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Sorry : YouTube: How to install Docker (and Portainer) on a RaspberryPi and run milli...WheeleE schreef op maandag 9 oktober 2023 @ 20:06:
[...]
Driemaal is scheepsrecht: welke handleiding heb je gebruikt?
We hebben echt te weinig info om je goed te kunnen helpen. We weten niet welke stappen je precies hebt uitgevoerd, welke commando's je hebt ingevoerd. Dat maakt het bijna onmogelijk om de oorzaak van je probleem te vinden.
En toen deze image
ssh docker run homeassistant/raspberrypi4-homeassistant
Oei, dat klinkt wel eenvoudiger. Dat ga ik eens onderzoeken. Nu doe ik ze allemaal apart.Mars Warrior schreef op maandag 9 oktober 2023 @ 21:01:
[...]
Voor mij zou het andersom zijn: waarom in hemelsnaam geen docker compose gebruiken?
- Alles overzichtelijk in één yaml bestand
- Een .env file die werkt en alle secrets etc. bevat
- via docker compose up -d alles starten en/of herstarten
- via docker compose pull een image bijwerken en dan weer met docker compose up -d herstarten wat is gewijzigd...
- En bij een systeem herstart start ook alles automatisch...
- Eenvoudig dependencies kunnen instellen
- Eenvoudig een proxy als Caddy kunnen gebruiken via YAML labels
Dank je!
Ik heb geen ervaring, dus gewoon om te leren hoe de volgende dingen een beetje in elkaar steken:
Github,
Github Workflow,
Azure Container Registry
Azure Service Principal
Ik heb deze guide gevolgd: https://towardsdatascienc...app-to-azure-29753ee507eb
Dingen waar ik tegenaan liep waren:
1) Verkeerde login url in Github secrets gebruikt
2) Verkeerde versies van de verschillende dependencies
Ja, dat gaat natuurlijk nooit werkenboomer21 schreef op maandag 9 oktober 2023 @ 21:04:
[...]
Sorry : YouTube: How to install Docker (and Portainer) on a RaspberryPi and run milli...
En toen deze image
ssh docker run homeassistant/raspberrypi4-homeassistant

Dan heb je de meest kale HA-container mogelijk gestart, daar kun je verder weinig mee.boomer21 schreef op maandag 9 oktober 2023 @ 21:04:
[...]
Sorry : YouTube: How to install Docker (and Portainer) on a RaspberryPi and run milli...
En toen deze image
ssh docker run homeassistant/raspberrypi4-homeassistant
Je kunt het beste de handleiding van HomeAssistant volgen: https://www.home-assistan...-home-assistant-container
Maar...als je zo weinig kennis hebt van Docker gaat het inrichten en beheren van HomeAssistant een uitdaging worden. Ik snap dat je ook al een en ander lokaal op je Pi heb geïnstalleerd, maar overweeg serieus om je Raspberry exclusief voor HA in te zetten door het HomeAssistan-image te gebruiken. Dat is een nagenoeg kant en klare installatie.
Als je toch al bash scripts gebruikt zou ik zeker Compose aanraden. En je hoeft ook niet maar één Compose file te gebruiken hè. Je kunt ook meerdere Compose files gebruiken. In Portainer heten dit overigens stacks, mocht je dat prettiger vinden.ahbart schreef op maandag 9 oktober 2023 @ 19:41:
Naar aanleiding van een draadje in Smarhome vraag ik mij af hoe en waarom ik docker compose zou moeten gebruiken.
Ik heb nu een aantal docker containers die ik allemaal apart run vanuit bash scripts. Dit zijn:
- Adguard Home;
- Home Assistant;
- Portainer;
- PhpMyAdmin (ad hoc);
- Calibre-web;
- Firefly-III;
- ZwaveJS;
- vaultwarden;
- Node-Sonos-HTTP-api.
Op zich werkt dit prima. Maar zou het beter zijn om deze op te nemen in een docker-composer.yml file, of files?
Wat zouden dan de voordelen, of nadelen zijn?
Buiten wat @Mars Warrior zegt kun je ook nog wat bijzondere setups maken die wat lastiger zijn zonder Compose. Zo heb ik bijvoorbeeld Home Assistant met InfluxDB en MariaDB, maar alleen Home Assistant ontsloten naar de buitenwereld. Een (gedeeltelijk) snippet:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
| --- services: homeassistant: container_name: homeassistant image: "ghcr.io/home-assistant/home-assistant:stable" env_file: - stack.env networks: homeassistant: vlan: ipv4_address: 192.168.1.3 depends_on: - influxdb - mariadb influxdb: container_name: homeassistant_influxdb image: influxdb:1.8 volumes: - ${ROOT_CONFIG}/influxdb:/var/lib/influxdb env_file: - stack.env networks: homeassistant: mariadb: container_name: homeassistant_mariadb image: mariadb:10.7 restart: always volumes: - ${ROOT_CONFIG}/database:/var/lib/mysql environment: MYSQL_DATABASE: ${DATABASE_NAME} MYSQL_USER: ${DATABASE_USER} MYSQL_PASSWORD: ${DATABASE_PASS} MYSQL_RANDOM_ROOT_PASSWORD: 'yes' env_file: - stack.env networks: homeassistant: networks: homeassistant: name: homeassistant vlan: name: br0 external: true |
Waarin het netwerk vlan eigenlijk br0 is wat een ipvlan network is die door unRAID beheert wordt. Zo heb ik ook flexibiliteit qua onderliggend systeem én weet ik zeker dat de databases gedeployed zijn voordat Home Assistant wordt gedeployed.
In unRAID beheer ik dan (momenteel) mijn losse applicaties die ook geen dependencies hebben, terwijl ik Portainer met Compose (vanuit Git) gebruik om complete stacks te draaien. Bijvoorbeeld dus Home Assistant, maar ook Immich. Dat vind ik momenteel handig werken, maar om eerlijk te zijn kan dat volgende week/maand/jaar weer anders zijn
Belangrijkste punt, wat ik bijna vergeet, is dat Compose idempotent werkt. Dus zonder veranderingen wordt er in principe geen (vervangende) deploy gedaan. Dat is bij Docker zelf wel anders.
Dank je volgens mij wil ik te snel ga er mee aan de slag kan nog wel even duren heb momenteel niet zo veelalex3305 schreef op maandag 9 oktober 2023 @ 21:50:
[...]
Ja, dat gaat natuurlijk nooit werken. Nu heb je namelijk een container gestart zonder enige privileges. Lees anders even mijn post van vanmiddag door. Daarin heb ik speciaal voor je uitgeschreven hoe de basis van Docker werkt en ook hoe je Home Assistant kunt starten.
Vrije tijd en laat weten hoe is afgelopen.
Mooi dank je is ook een idee, trouwens wat voor usb antenne voor HA kun je het best gebruiken.WheeleE schreef op maandag 9 oktober 2023 @ 21:55:
[...]
Dan heb je de meest kale HA-container mogelijk gestart, daar kun je verder weinig mee.
Je kunt het beste de handleiding van HomeAssistant volgen: https://www.home-assistan...-home-assistant-container
Maar...als je zo weinig kennis hebt van Docker gaat het inrichten en beheren van HomeAssistant een uitdaging worden. Ik snap dat je ook al een en ander lokaal op je Pi heb geïnstalleerd, maar overweeg serieus om je Raspberry exclusief voor HA in te zetten door het HomeAssistan-image te gebruiken. Dat is een nagenoeg kant en klare installatie.
Geen idee wat voor USB-antenne HA nodig heeft, ik gebruik geen HA. Wellicht kunnen ze je er in het HomeAssistant-topic meer over vertellen.boomer21 schreef op dinsdag 10 oktober 2023 @ 08:32:
[...]
Mooi dank je is ook een idee, trouwens wat voor usb antenne voor HA kun je het best gebruiken.
Nu heb je het over een USB-antenne. Voor zover ik weet werkt USB toch altijd nog gewoon met een draadje en zijn daar dus geen antennes voor. Waarschijnlijk zoek je een antenne voor een ander protocol dat wel gebruik maakt van een radiosignaal en die je vervolgens via USB met je HA machine wil verbinden. Aangezien het over HA gaat zal dat waarschijnlijk Zigbee of Zwave zijn, maar misschien heb je het wel over bluetooth of WiFi?
Probeer je vragen dus eens wat duidelijker te stellen. De kans op een snel en duidelijk antwoord is dan veel groter en dan zullen er ook meer mensen bereid zijn om je te helpen aangezien niet iedereen zin heeft om tot 3x toe dezelfde vraag te stellen om wat meer informatie van je te krijgen.
Maar de vraag over die "usb antenne" kan je inderdaad beter in het HA topic stellen, dat hoort hier niet thuis. Voorlopig althans, want de kans is groot dat je die antenne vervolgens ook nog moet doorgeven aan je docker container zodat die container er toegang toe heeft, dat gebeurt ook niet zomaar automagisch namelijk
[ Voor 8% gewijzigd door Hathi op 10-10-2023 09:42 ]
Je gaat niet per se te snel, maar volgens mij ben je een beetje ongeduldig. En dat in combinatie met een niet zo denderende vraagstelling, zoals @Hathi terecht aangeeft, is nogal ongelukkig. Wij weten niet wat jij al hebt gedaan. We kunnen, soms helaas, niet door het scherm heenkijken.boomer21 schreef op dinsdag 10 oktober 2023 @ 08:21:
[...]
Dank je volgens mij wil ik te snel ga er mee aan de slag kan nog wel even duren heb momenteel niet zo veel
Vrije tijd en laat weten hoe is afgelopen.
Wat je nu wilt doen kun je enigszins vergelijken met het plaatsen van een keuken. Het is niet heel moeilijk en eigenlijk kan iedereen het wel. Maar zonder (een beetje) kennis, tijd en kunde kom je nergens. Een vaatwasser doet het bijvoorbeeld ook niet als je die niet op zowel de watertoevoer, afvoer en stroom aangesloten zit. Met andere woorden, jouw Home Assistant Docker container (vaatwasser) staat er wel, maar functioneert niet. Daar heb je niets aan. Je zult dus toch nog wat stappen moeten zetten en kennis op moeten doen voordat je iets functioneels hebt.
Overigens, om in de keukens te blijven, zou je ook nog kunnen kijken naar een wat eenvoudigere, IKEA-achtige oplossing. Bijvoorbeeld:Daarmee wordt een gedeelte van de complexiteit van het Docker beheer je uit handen genomen. Zelf heb ik het nooit gebruikt. Maar wellicht is het iets wat jou meer aanspreekt.
Overigens zul je nog steeds wel wat kennis op moeten doen. Bijvoorbeeld met de USB antenne-vraag. Ik kan het wel invullen, maar denk heel even na wat je ermee wilt. Want bedoel je een dongle voor Zigbee (oa. Philips Hue, IKEA, LIDL), Z-Wave (oa. Fibaro, Aeotec, Danfoss), Thread/Matter (oa. Eve, nieuwe Hue), Bluetooth (oa. Oral-B, WiZ), 433MHz/868MHz (oa. (oude) KlikAanKlikUit, diverse weerstations) of toch iets anders? Schrijf dit ook even voor je zelf op zodat je het overzicht houdt. En beschrijf ook je doel. Dat weten wij (helaas) niet.
Caddy pakt daarmee de interne poort en maakt deze beschikbaar op http of https, waarbij automatisch een SSL certificaat wordt opgevraagd en bijgewerkt.
1
2
3
4
5
6
7
8
9
10
11
12
13
| labels: # Plugsy dashboard settings plugsy.name: DSMR Reader plugsy.link: http://dsmr.z plugsy.category: Domotica # Local domain setup over http caddy: http://dsmr.z caddy.reverse_proxy: "{{upstreams 80}}" # External domain setup over HTTPS caddy_1: dsmr.mydomain.com caddy_1.reverse_proxy: "{{upstreams 80}}" |
De enige poorten die daarmee open staan zijn 80 en 443. Alle container poorten van de diverse applicaties zijn dus niet beschikbaar van buitenaf omdat Caddy alles afschermt voor de containers die in het ingress netwerk zitten (gedefinieerd door de omgevingsvariabele CADDY_INGRESS_NETWORKS).
Ik hoef dus ook nooit een poortnummer te onthouden. Enkel het domein. En als dat niet lukt heb ik plugsy nog die op een dashboard - adv de labels - een klik/klak/klaar mogelijkheid geeft voor al mijn containers met een web interface.
Een deel van mijn containers met webinterface zijn dus of enkel lokaal te benaderen, of lokaal en extern. Natuurlijk kun je er ook voor kiezen om niks extern beschikbaar te maken, en alles via een VPN te doen.
Een kind kan de was doen
En oja. de Adguard container fungeert als DNS server, dus daarin definieer ik de lokale en externe domeinen. Mijn KPN modem kan geen DNS loopbacks aan, dus vandaar worden de externe domeinen ook lokaal gedefinieerd.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Dat heb ik bijna hetzelfde, maar dan met Nginx Proxy Manager (NPM). Echter heb ik alleen poort 443 openstaan. En alleen voor Cloudflare IP'sMars Warrior schreef op dinsdag 10 oktober 2023 @ 12:48:
@alex3305 , ik gebruik altijd een proxy. Hoef ik nooit poorten te exposen...
Caddy pakt daarmee de interne poort en maakt deze beschikbaar op http of https, waarbij automatisch een SSL certificaat wordt opgevraagd en bijgewerkt.
[...]
De enige poorten die daarmee open staan zijn 80 en 443.
Maar ik heb mijn Docker containers met de ipvlan network driver een dedicated IP gegeven in een range buiten mijn DHCP server. Die voeg ik dan met de hand toe aan NPM, die de diensten voorziet van een SSL certificaat en SSO. In de DHCP server zet ik dan tevens hostnames via static leases. Dat werkt erg makkelijk.
Ik hoef het dus ook niet te onthouden, maar alleen eenmaal toe te wijzen. En of je dat dan met labels of op een andere manier doet vind ik om het even.Ik hoef dus ook nooit een poortnummer te onthouden. Enkel het domein. En als dat niet lukt heb ik plugsy nog die op een dashboard - adv de labels - een klik/klak/klaar mogelijkheid geeft voor al mijn containers met een web interface.
Yes. Zo heb ik het ook ongeveer. Wel heb ik er van buiten nog Cloudflare voorhangen voor een extra tandje beveiliging. Intern overschrijf ik de DNS dan naar mijn reverse proxy in AdGuard Home:Een deel van mijn containers met webinterface zijn dus of enkel lokaal te benaderen, of lokaal en extern. Natuurlijk kun je er ook voor kiezen om niks extern beschikbaar te maken, en alles via een VPN te doen.
1
| ||example.com^$dnsrewrite=192.168.1.200 |
Zodat intern verkeer direct via NPM gaat.
Ik gebruik een ASUS Router als KPN modem en dat werkt echt als een tierelier.Mijn KPN modem kan geen DNS loopbacks aan, dus vandaar worden de externe domeinen ook lokaal gedefinieerd.
Ik begrijp jouw Caddy setup overigens volledig. Ik heb dat in het verleden ook gebruikt. Idem voor Traefik (v2) en Nginx. Maar ik ben nu toch weer terug bij Nginx Proxy Manager. Dat komt met name omdat ik bij Traefik de Real IP van Cloudflare maar niet werkend kon krijgen. En vroeger werkte Caddy niet met Cloudflare's verplichte Let's Encrypt DNS challenge (dat zal nu wel anders zijn).
Zelf heb ik ook nog even zitten kijken naar Consul, maar ik eigenlijk maar één host hebben en dan is dat ook niet denderend. Dus vooralsnog houd ik het even hierbij. Totdat ik weer iets anders in mijn hoofd heb
Ik heb hiervoor NPM gebruikt, en toen deed ik dat ook omdat NPM niet de interne poorten kan gebruiken. Dat kan Caddy wel en vond ik toch een stuk eenvoudiger dan al die extra proxy dingen voor NPM elke keer te moeten invoeren. Dat deel ben ik nu helemaal kwijt gelukkig. Maar dat komt ook omdat Caddy by default SSL doet, dus die verzorgt automatisch al die wijzigingen die in in NPM altijd handmatig moest doen.alex3305 schreef op dinsdag 10 oktober 2023 @ 13:00:
[...]
Dat heb ik bijna hetzelfde, maar dan met Nginx Proxy Manager (NPM). Echter heb ik alleen poort 443 openstaan. En alleen voor Cloudflare IP's.
Maar ik heb mijn Docker containers met de ipvlan network driver een dedicated IP gegeven in een range buiten mijn DHCP server. Die voeg ik dan met de hand toe aan NPM, die de diensten voorziet van een SSL certificaat en SSO. In de DHCP server zet ik dan tevens hostnames via static leases. Dat werkt erg makkelijk.
Aangezien bij mij verschillende (sub)domeinen binnekomen die NIET van mij zijn gebruik ik geen cloudflare als extra laag. Ik vertrouw maar op SSL, Bitwarden met wachtwoorden van 40 lang en two-factor voor de domeinen om vervelende lui buiten te houden.
Caddy kent DNS plugins voor Cloudflare, maar het schijnt wel zo te zijn dat je als resolver voor Caddy dan 1.1.1.1 moet gebruiken, want anders werkt het nog nietIk begrijp jouw Caddy setup overigens volledig. Ik heb dat in het verleden ook gebruikt. Idem voor Traefik (v2) en Nginx. Maar ik ben nu toch weer terug bij Nginx Proxy Manager. Dat komt met name omdat ik bij Traefik de Real IP van Cloudflare maar niet werkend kon krijgen. En vroeger werkte Caddy niet met Cloudflare's verplichte Let's Encrypt DNS challenge (dat zal nu wel anders zijn).
Ik ben vooralsnog erg tevreden over deze setup omdat ik nu ALLES in de docker compose file kan doen. Die pleur ik op github (alle secrets staan in een .env file) en klaar.
Als ik een nieuwe server moet inrichten dan heb ik behalve de backup (data) dus enkel deze compose file nodig om alles weer snel in te richten.
Backups worden verzorgd door een Crashplan container.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Van een draaiende Mariadb-container wil ik een database-export maken.
Het commando om dat te doen heb ik:
1
| mariadb-dump -u <user> -p<password> <dbnaam> > /backup/mariadb_export.sql |
Via de commandline in de container werkt dit perfect. Zowel via Portainer als via docker exec -it.
Uitgevoerd als 1 commando blijf ik echter een foutmelding krijgen
1
2
| host: ~$ docker exec --user root maria-db mariadb-dump -u <user> -p<password> <dbnaam> > /backup/mariadb_export.sql -sh: /backup/mariadb_export.sql: No such file or directory |
Ik snap niet waarom /backup/mariadb_export.sql niet gevonden kan worden. Het pad is aanwezig en de file kan overschreven worden.
Waarschijnlijk mis ik een cruciaal stukje info of kennis, maar waar?
Waar verwacht jij dat nu mariadb_export.sql terecht komt? Ik vermoed namelijk op de host, en niet in de docker-container.WheeleE schreef op dinsdag 10 oktober 2023 @ 17:30:
Nu heb ik een eigen Docker-uitdaging.
Van een draaiende Mariadb-container wil ik een database-export maken.
Het commando om dat te doen heb ik:
code:
1 mariadb-dump -u <user> -p<password> <dbnaam> > /backup/mariadb_export.sql
Via de commandline in de container werkt dit perfect. Zowel via Portainer als via docker exec -it.
Uitgevoerd als 1 commando blijf ik echter een foutmelding krijgen
code:
1 2 host: ~$ docker exec --user root maria-db mariadb-dump -u <user> -p<password> <dbnaam> > /backup/mariadb_export.sql -sh: /backup/mariadb_export.sql: No such file or directory
Ik snap niet waarom /backup/mariadb_export.sql niet gevonden kan worden. Het pad is aanwezig en de file kan overschreven worden.
Waarschijnlijk mis ik een cruciaal stukje info of kennis, maar waar?
Het zou mij verbazen als je op je host een map /backup hebt waar je ook nog schrijfrechten hebt.
*insert facepalm emoji here* Dank!Vloris schreef op dinsdag 10 oktober 2023 @ 17:33:
[...]
Waar verwacht jij dat nu mariadb_export.sql terecht komt? Ik vermoed namelijk op de host, en niet in de docker-container.
Het zou mij verbazen als je op je host een map /backup hebt waar je ook nog schrijfrechten hebt.
Ik was in de veronderstelling dat het commando in de container werd uitgevoerd, vandaar het pad dat in de container aanwezig is.
Met een pad dat op de host bestaat werkt het wel. Waarom ik dat niet heb getest...geen idee.
Maar wat is nu de goede procedure om de lopende docker containers te upgraden?
docker compose pull en dan docker compose restart, of docker compose up -d?
Blijven de oude dan niet staan?
Dat is inderdaad de juiste procedure. Bestaande container wordt dan verwijderd en de nieuwe gestart. Enige wat wel blijft staan is de oude gedownloade image van de oude versie van de container. Dus die oude images zo nu en dan verwijderen met docker image prune bijvoorbeeld.ahbart schreef op woensdag 11 oktober 2023 @ 14:56:
Ik heb mijn losse bach scripts met run commando's omgezet naar docker compose yml file en kan de boel starten.
Maar wat is nu de goede procedure om de lopende docker containers te upgraden?
docker compose pull en dan docker compose restart, of docker compose up -d?
Blijven de oude dan niet staan?
Uhm,Hathi schreef op woensdag 11 oktober 2023 @ 15:04:
[...]
Dat is inderdaad de juiste procedure. Bestaande container wordt dan verwijderd en de nieuwe gestart. Enige wat wel blijft staan is de oude gedownloade image van de oude versie van de container. Dus die oude images zo nu en dan verwijderen met docker image prune bijvoorbeeld.
Dus docker compose pull docker compose restart?docker compose pull en dan docker compose restart, of docker compose up -d?
Of kunnen ze allebei? dus ook docker compose up -d?
[ Voor 4% gewijzigd door ahbart op 11-10-2023 15:16 ]
Ik gebruik altijd:ahbart schreef op woensdag 11 oktober 2023 @ 14:56:
Maar wat is nu de goede procedure om de lopende docker containers te upgraden?
docker compose pull en dan docker compose restart, of docker compose up -d?
Blijven de oude dan niet staan?
1
| docker compose up -d --no-deps |
Dat herstart alleen de containers waarvan er een nieuwer image is.
Ik gebruik altijd docker compose pull en vervolgens docker compose up -d.ahbart schreef op woensdag 11 oktober 2023 @ 15:15:
[...]
Dus docker compose pull docker compose restart?
Of kunnen ze allebei? dus ook docker compose up -d?
Dan worden alleen de containers in de desbetreffende compose file opnieuw aangemaakt waarin iets gewijzigd is, in dit geval dus de containers waarvoor een nieuw image is gedownload. Docker compose restart zal altijd restarten volgens mij, ook als er niets gewijzigd is.
Dat --no-deps is daarvoor niet nodig. Dat heeft alleen invloed op containers die vermeld staan bij de depends_on optie.remyz schreef op woensdag 11 oktober 2023 @ 15:56:
[...]
Ik gebruik altijd:
code:
1 docker compose up -d --no-deps
Dat herstart alleen de containers waarvan er een nieuwer image is.
[ Voor 24% gewijzigd door Hathi op 11-10-2023 16:24 ]
En toch is het wel handig en slim om jezelf aan te leren. Zeker als je een hoop containers in de compose file hebt staan die wel afhankelijk van elkaar zijn maar niet herstart zouden hoeven worden als het image vernieuwd is.Hathi schreef op woensdag 11 oktober 2023 @ 16:22:
[...]
Dat --no-deps is daarvoor niet nodig. Dat heeft alleen invloed op containers die vermeld staan bij de depends_on optie.
Ik moet er echt rustig even naar kijken. Firefly doet sowieso moeilijk. De ene keer wel, de andere keer niet na nieuwe installatie.ahbart schreef op maandag 9 oktober 2023 @ 20:53:
[...]
Nextcloud in een docker container ben ik ook maar mee gestopt. toch te weinig flexibel naar mijn idee, die draait nu native in apache2 (Ubuntu server), maar firefly-III heb ik prima draaien in docker. Waar loop je tegenaan?
Firefly draait bij mij als:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 docker run -d \ -v /home/bart/docker/firefly-III/storage/upload:/var/www/html/storage/upload \ -v /home/bart/docker/firefly-III/storage/export:/var/www/html/storage/export \ -p 8075:8080 \ --name=fireflyIII \ --network=bridge \ -e APP_KEY=base64:xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx \ -e DB_HOST=172.17.0.1 \ -e DB_PORT=3306 \ -e DB_CONNECTION=mysql \ -e DB_DATABASE=firefly \ -e DB_USERNAME=fireflyuser \ -e DB_PASSWORD=xxxxxxxxxxxxxxxx \ --restart unless-stopped \ -e APP_URL=https://192.168.188.69:8075 \ -e TRUSTED_PROXIES=172.17.0.1 \ fireflyiii/core:latest
Geen idee wat er wel en niet kan onder windows.
Overigens heb ik de database niet in een docker. Daar had ik ook problemen mee.Arunia schreef op donderdag 12 oktober 2023 @ 15:45:
[...]
Ik moet er echt rustig even naar kijken. Firefly doet sowieso moeilijk. De ene keer wel, de andere keer niet na nieuwe installatie.
Anoniem: 407645
1
2
| volumes: - /var/docker/heimdall/heimdall-data:/config |
Is het niet praktischer om alles contained in de working dir te houden door het volgende te doen bij zo'n beetje al je containers? Heb je gelijk alles bij elkaar om een nieuwe instance te rebuilden. Maar misschien zie ik iets over het hoofd.
1
2
| volumes: - ./config:/config |
Inmiddels ben ik al een tijdje bezig en draait zon beetje alles in docker. Het begon voor mij met Nextcloud, toen kwam ik er achter dat ik een reverse proxy nodig was en werd mijn eerste VM Nextcloud+NPM. Daarna nog wat meer VMs gemaakt om een functionele scheiding te maken per VM. één voor networking, een ander voor een framework voor RSS feeds. Servertje gekocht via AliExpress met 4 NICS, gesegmenteerd met vlans, 32gb ram en een aantal schijven en vervolgens daar alles naar toe geheveld. Inmiddels toch een beetje uit de hand gelopen.
[ Voor 53% gewijzigd door Anoniem: 407645 op 12-10-2023 19:27 ]
https://github.com/awesome-selfhosted/awesome-selfhosted
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40
Die heb ik nog nooit gezien. Beetje vreemde plek eerlijk gezegd om alles daar neer te zetten.Anoniem: 407645 schreef op donderdag 12 oktober 2023 @ 18:44:
In veel docker-compose files zie ik vaak de volumes zo gedefinieerd.
code:
1 2 volumes: - /var/docker/heimdall/heimdall-data:/config
Deze kom ik inderdaad vaker tegen, maar die gebruik ik ook niet...Is het niet praktischer om alles contained in de working dir te houden door het volgende te doen bij zo'n beetje al je containers? Heb je gelijk alles bij elkaar om een nieuwe instance te rebuilden. Maar misschien zie ik iets over het hoofd.
code:
1 2 volumes: - ./config:/config
Ik deel mijn containers functioneel op, en deel zo ook de mappen in met de configuratie en data. Ik gebruik $DOCKERDIR als hoofdmap. Die is gedefinieerd in de .env file.
Ik kan zo kiezen (onafhankelijk van de compose file, waar de hoofdmap komt te staan. In het algemeen is dat wel de map waar ik op inlog: /home/mars/Docker bijvoorbeeld. Maar soms kies ik er ook voor om een algemene map te maken, dus iets van /srv/Docker
Dan krijg je voor bijv heimdall onder het blok management (mngt) het volgende volume:
1
2
| volumes - $DOCKERDIR/mngt/heimdall/config:/config |
Voor Docker zelf maakt het natuurlijk niet uit, zolang de rechten maar goed staan!
Ik draaide voorheen ook wat dingen in VM's, maar zit inmiddels al wat jaren volledig op docker. Mijn nieuwe zuinige server (2023) zit rond de 30 containers met 32GB RAM (11GB in gebruik) op een 12700K CPU.Inmiddels ben ik al een tijdje bezig en draait zon beetje alles in docker. Het begon voor mij met Nextcloud, toen kwam ik er achter dat ik een reverse proxy nodig was en werd mijn eerste VM Nextcloud+NPM. Daarna nog wat meer VMs gemaakt om een functionele scheiding te maken per VM. één voor networking, een ander voor een framework voor RSS feeds. Servertje gekocht via AliExpress met 4 NICS, gesegmenteerd met vlans, 32gb ram en een aantal schijven en vervolgens daar alles naar toe geheveld. Inmiddels toch een beetje uit de hand gelopen.Wel erg leerzaam geweest.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Sinds kort krijg ik helaas een foutmelding, meer mensen hebben hetzelfde probleem.
https://www.reddit.com/r/...lxc_container_is_failing/
Iemand hier ook tegen aan gelopen?
Whatever.
Ken Immich niet (lijkt op PhotoPrism), maar als je docker gebruikt kun je toch gewoon een versie terug die nog wel werkte? Op de site geeft men keurig aan dat de app actief wordt ontwikkeld, en dat er dus bugs in kunnen zitten, en dat je niet zomaar moet upgraden alvorens de release notes te lezen...Harmen schreef op maandag 23 oktober 2023 @ 19:30:
Hopelijk kan iemand mij verder helpen? Draai sinds een aantal maanden Immich in. (Linux container op een Proxmox host). Voorheen kon vanuit de cli Immich updaten (docker compose pull && docker compose up -d).
Sinds kort krijg ik helaas een foutmelding, meer mensen hebben hetzelfde probleem.
https://www.reddit.com/r/...lxc_container_is_failing/
Iemand hier ook tegen aan gelopen?
Dus ik zou zeggen: terug naar de vorige versie die nog wel werkte...
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Het probleem is dat de Android client nieuwe is dan de server versie. Zal eens kijken of ik ergens een oudere client kan vinden. Bedankt voor de tip!Mars Warrior schreef op maandag 23 oktober 2023 @ 20:32:
[...]
Ken Immich niet (lijkt op PhotoPrism), maar als je docker gebruikt kun je toch gewoon een versie terug die nog wel werkte? Op de site geeft men keurig aan dat de app actief wordt ontwikkeld, en dat er dus bugs in kunnen zitten, en dat je niet zomaar moet upgraden alvorens de release notes te lezen...
Dus ik zou zeggen: terug naar de vorige versie die nog wel werkte...
Edit, client gedowngrade naar 1.80. Probleem is opgelost voor nu.
[ Voor 5% gewijzigd door Harmen op 23-10-2023 21:57 ]
Whatever.
Even een vraagje. Ik zou bepaalde containers maar een beperkte tijd willen laten draaien in de dag.
Bv nextcloud, ik zie dat deze met sync wel wat cpu verbruikt en als 1 keer per dag mijn gsm en die van de kinderen synct voor backup is dat voldoende.
Het 1ste waar ik aan denk is om in cron een schedule aan te maken maar ik vroeg me af of er andere mogelijkheden zijn ?
Docker zet bij default zichzelf uit nadat er een taak is uitgevoerd. Maar een sync gebeurt vanaf de client toch en niet vanaf de server?
Dus je kunt de server wel aanzetten, maar je zal de client de opdracht moeten geven om te syncen.
In theorie zou je dan de server aan kunnen zetten om 01.00 en dan een sync initiëren om 2.00 en dan om 3.00 de docker weer uit.
Misschien ergens een log captureren zodat je er zeker van weet dat alles goed gesynchroniseerd is. Maar al met al klinkt het als een hoog knutsel gehalte.
Ik heb Home Assistant draaien op een nas. Dit heb ik via een handleiding gedaan dmv docker.
Heb hier namelijk weinig kaas van gegeten.
Nu loopt het op zich prima. HA zelf wordt netjes geupdate.
Echter; de rand-containers niet.
Zie hier:
/f/image/BIy3OSGxcGEGgksHkrLWPWVl.png?f=fotoalbum_large)
Van supervisor is bijvoorbeeld ook een .12 versie beschikbaar.
Nu wil ik niets om zeep helpen, maar hoe zou ik deze ook gewoon netjes in de pas kunnen laten lopen?
Het image pullen is op zich geen probleem, dat lukt met een directe link naar:
https://github.com/home-a...%5Bversion_type%5D=tagged
Nu weet ik niet of je 'latest' moet willen, aangezien dat zo te zien een beta is. Maar verschillende versies achter lopen lijkt me ook niet top.
Iemand een idee?
edit: zie nu dat niet alle versies netjes in de pas lopen. Maar Supervisor wel
[ Voor 3% gewijzigd door MikeyMan op 21-12-2023 09:42 ]
Immich is heel duidelijk nog experimenteel. Dat staat expliciet op hun pagina vermeld..Mars Warrior schreef op maandag 23 oktober 2023 @ 20:32:
[...]
Ken Immich niet (lijkt op PhotoPrism), maar als je docker gebruikt kun je toch gewoon een versie terug die nog wel werkte? Op de site geeft men keurig aan dat de app actief wordt ontwikkeld, en dat er dus bugs in kunnen zitten, en dat je niet zomaar moet upgraden alvorens de release notes te lezen...
Dus ik zou zeggen: terug naar de vorige versie die nog wel werkte...
Dus dit kan je juist verwachten.
https://github.com/immich-app/immich
Duidelijker dan dit kan haast niet. Om dan om hulp te vragen is een beetje gek toch. Laat dat team lekker ontwikkelen en zorg ervoor dat je heel duidelijke volledige bug rapporten schrijft voor ze. Anders moet je er niet aan beginnen.
Dat gebruik ik om m'n containers automatisch te laten bijwerken. De standaard update interval is wel heel vaak, ik doe het één keer in de week van zondag op maandag. Stuurt mij netjes een mailtje met wat hij gedaan heeft.
Ik heb deze gevolgd. Eigenlijk vooral omdat ik na installatie van core een addon nodig had.alex3305 schreef op donderdag 21 december 2023 @ 10:44:
@MikeyMan Welke installatie heb je gevolgd, want heb je nu Supervised of Container draaien? Want ik heb met mijn Container installatie geen Supervisor.
Heb het inmiddels voor elkaar; issue lijkt inderdaad te zitten in de hard coded versioning.
Hoewel dat met HA Zelf geen issue lijkt te zijn.
Ik heb watchtower draaien. Maar die moet wel weten waar ie moet kijken.ThinkPad schreef op donderdag 21 december 2023 @ 10:47:
@MikeyMan Zoek je niet Watchtower?
Dat gebruik ik om m'n containers automatisch te laten bijwerken. De standaard update interval is wel heel vaak, ik doe het één keer in de week van zondag op maandag. Stuurt mij netjes een mailtje met wat hij gedaan heeft.
Zo te zien keek hij naar 11.6. Heb het nu opnieuw gedaan met een link naar 12.0.
Latest kreeg ik niet aan de praat...
Add-ons heb je nooit nodig en kun je ook eenvoudig zelf draaien. Dat doe ik inmiddels ook en ben ik ook enorm over te spreken.
Ja, punt is alleen dat ik ook helemaal geen kaas heb gegeten van VM.alex3305 schreef op donderdag 21 december 2023 @ 10:53:
@MikeyMan Als ik je een ongevraagd advies kan geven, ga alsjeblieft naar HA Container toe op je NAS. Of OS in een VM. Stop met een half supported installatie met Supervisor. Voor nu kan het werken, maar ik heb al een paar keer meegemaakt dat Home Assistant die setup simpelweg sloopte. En als je dan op hun GitHub of Forums zit wordt er gewoon medegedeeld: "Jammer de bammer, kies maar een andere installatiemethode" en wordt je met een kluitje het riet ingestuurd.
Add-ons heb je nooit nodig en kun je ook eenvoudig zelf draaien. Dat doe ik inmiddels ook en ben ik ook enorm over te spreken.
Kan me er eens in verdiepen, maar kwam bij docker uit omdat ik het én al heb draaien én het voor (blijkbaar alleen core) de way to go was.
Addons die ik nu heb draaien zijn:
/f/image/52GgNBXk6esrGTbinuGCO8UC.png?f=fotoalbum_large)

En Home Assistant in Container is helemaal niet zo complex. Ik draai onderstaande stack en dat gaat echt prima.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
| services: homeassistant: container_name: homeassistant image: ghcr.io/home-assistant/home-assistant:stable volumes: - /opt/homeassistant/config:/config:/config - /opt/homeassistant/userhome:/root - /etc/localtime:/etc/localtime:ro restart: always networks: homeassistant: br0: ipv4_address: 192.168.1.200 depends_on: - influxdb - mariadb influxdb: container_name: homeassistant_influxdb image: influxdb:1.8 volumes: - /opt/homeassistant/influxdb:/var/lib/influxdb environment: INFLUXDB_DATA_WAL_FSYNC_DELAY: 60s INFLUXDB_MONITOR_STORE_ENABLED: false INFLUXDB_DATA_QUERY_LOG_ENABLED: false INFLUXDB_HTTP_LOG_ENABLED: false networks: homeassistant: mariadb: container_name: homeassistant_mariadb image: mariadb:10.7 restart: always volumes: - /opt/homeassistant/database:/var/lib/mysql environment: TZ: ${TZ} MYSQL_DATABASE: ${DATABASE_NAME} MYSQL_USER: ${DATABASE_USER} MYSQL_PASSWORD: ${DATABASE_PASS} MYSQL_RANDOM_ROOT_PASSWORD: yes networks: homeassistant: networks: homeassistant: name: homeassistant br0: name: br0 external: true |
Dan heb ik nog een 'aparte' netwerkconfiguratie ook
- SQLite Web, als je de database wilt inzien kun je ook eenvoudig de SQLite van je NAS afhalen met Samba of NFS en gewoon inspecteren met een desktop tool?
- Studio Code Server, is handig voor de config te bewerken, maar ik neem aan dat jouw config ook gewoon via Samba of NFS te benaderen is.
- Terminal & SSH, waarom? Dan heb je dus een SSH sessie in een container die draait naast de Container van HA
? Lijkt mij nogal complex. Dan kun je beter SSH op de NAS aanzetten lijkt mij.
Je begrijpt dat ik echt geen idee heb hoe ik hier terecht ben gekomen. Kom van Domoticz af, en nu dus naar HA over. Zat wat druk op ivm de WAF.alex3305 schreef op donderdag 21 december 2023 @ 11:02:
@MikeyMan Die add-ons heb je echt niet nodig.
Ik ga er eens naar kijken, volgens mij had ik SSH nodig om eea aan de praat te krijgen
- SQLite Web, als je de database wilt inzien kun je ook eenvoudig de SQLite van je NAS afhalen met Samba of NFS en gewoon inspecteren met een desktop tool?
- Studio Code Server, is handig voor de config te bewerken, maar ik neem aan dat jouw config ook gewoon via Samba of NFS te benaderen is.
- Terminal & SSH, waarom? Dan heb je dus een SSH sessie in een container die draait naast de Container van HA
? Lijkt mij nogal complex. Dan kun je beter SSH op de NAS aanzetten lijkt mij.
Ga 'gewoon' over naar Home Assistant Container of naar Home Assistant OS in een VM. Daar maak je het jezelf enorm veel makkelijker mee. Oh, en volg de officiële handleiding!
[ Voor 8% gewijzigd door alex3305 op 21-12-2023 11:06 ]
Zat net al te prutsen, maar brtfs is vereist voor VMM blijkbaar... Wist dat dat er een keer aan zat te komen na upgrade van DS414 naar DS1520+. Maar das zomaar niet geregeld.alex3305 schreef op donderdag 21 december 2023 @ 11:06:
@MikeyMan Je tovert een glimlach op mijn gezicht. Volledig herkenbaar!
Ga 'gewoon' over naar Home Assistant Container of naar Home Assistant OS in een VM. Daar maak je het jezelf enorm veel makkelijker mee. Oh, en volg de officiële handleiding!
Zo rol je van de ene in de ander uitdaging

[ Voor 10% gewijzigd door MikeyMan op 21-12-2023 11:10 ]
Gelukkig is het bijna kerstvakantieMikeyMan schreef op donderdag 21 december 2023 @ 11:09:
[...]
Zo rol je van de ene in de ander uitdaging
@alex3305 Bizar dat stukje code waaraan je refereert

Ja ware het niet dat dit ook nog een enorme berg knaken gaat kosten.
Moet tijdelijk er een extra Synology naast gaan zetten met 2x16tb erin. Dan de data over zetten.
En schijven weer terug proppen in mn huidige nas...
Echt een topactiviteit

Zeker met een kleintje die een dezer dagen zou moeten verschijnen
[ Voor 7% gewijzigd door MikeyMan op 21-12-2023 11:32 ]
Wat er echter bij mij (alweer twee of drie jaar geleden) gebeurde was dat Supervisor zichzelf had geüpdatet en ik daardoor Home Assistant niet meer kon updaten. Want mijn systeem was 'unhealthy'. Ik draaide namelijk HA Supervised en had tegelijk op die machine een tiental andere Docker containers draaien. Voor die containers had ik Portainer om vanaf de bank te kunnen beheren. En ik had Watchtower, zelfs met een whitelist, waarmee ik de overige containers automatisch kon updaten.
Ik snap dat je soms gebruikers tegen zichzelf in bescherming moet nemen, maar ik draaide al een advanced configuration, dus laat me. Het is ook niet dat je het met een vlaggetje uit kunt zetten of zo. Op dat moment heb ik ook besloten naar VM over te stappen omdat gezeik niet meer te hebben. Maar inmiddels ben ik, met name vanwege stroomverbruik, weer terug bij Container.
Huh!? Nee joh! Gewoon alleen de Home Assistant container uitrollen. Daar heb je genoeg aan. Deze installatie kun je daarvoor volgen.MikeyMan schreef op donderdag 21 december 2023 @ 11:32:
[...]
Ja ware het niet dat dit ook nog een enorme berg knaken gaat kosten.
Moet tijdelijk er een extra Synology naast gaan zetten met 2x16tb erin. Dan de data over zetten.
En schijven weer terug proppen in mn huidige nas...
Alvast gefeliciteerd!Zeker met een kleintje die een dezer dagen zou moeten verschijnen
Oh, docker bedoelde je... Ja op zich zou ik nu ook gewoon de huidige configuratie over kunnen zetten naar non supervised natuurlijk...alex3305 schreef op donderdag 21 december 2023 @ 11:34:
[...]
Huh!? Nee joh! Gewoon alleen de Home Assistant container uitrollen. Daar heb je genoeg aan. Deze installatie kun je daarvoor volgen.
[...]
Alvast gefeliciteerd!
Maargoed, moet sowieso nog een keer over naar BRTFS. Heb al teveel schijfruimte die niet beschikbaar is.
Misschien toch maar naar een 1522 of 1621/1821. Scheelt weer een stap
[ Voor 5% gewijzigd door MikeyMan op 21-12-2023 11:49 ]
Ik draai Ubuntu server (22.04.3 LTS) op een Odroid N2+
In Docker wil ik Pihole starten als volgt, met de volledige output.
1
2
3
4
5
| root@camelot:~/docker/pihole# docker compose up -d [+] Running 1/1 ✘ Network pihole_default Error 0.4s failed to create network pihole_default: Error response from daemon: Failed to program FILTER chain: iptables failed: iptables --wait -I FORWARD -o br-abea338a2bb0 -j DOCKER: iptables v1.8.7 (nf_tables): RULE_INSERT failed (Invalid argument): rule in chain FORWARD (exit status 4) |
Een 'lsmod' geeft o.a.:
1
| nf_tables 94208 146 nft_chain_nat_ipv4,nft_compat,nf_tables_ipv4,nft_meta,nft_counter |
Ik heb gezocht maar niets wat lijkt op een passende oplossing. Wie kan mijn helpen?
[ Voor 7% gewijzigd door szjoin op 21-12-2023 14:00 ]
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
| version: '3' name: pihole services: pihole: image: pihole/pihole:latest container_name: pihole restart: unless-stopped ports: - "80:80/tcp" - "53:53/tcp" - "53:53/udp" environment: TZ: 'Europe/Amsterdam' WEBPASSWORD: 'password' PIHOLE_DNS_: 1.1.1.1;9.9.9.9 DNSSEC: 'false' WEBTHEME: default-dark volumes: - ./etc/pihole:/etc/pihole/ - ./etc/dnsmasq.d:/etc/dnsmasq.d/ |
Het is toch raar dat een veelgebruikte usecase als deze zo lang geen fix krijgt? Dit is allemaal standaardwerk!

Ubuntu gebruikt al jaren nftables met een iptables fallback vziw.szjoin schreef op donderdag 21 december 2023 @ 14:25:
@alex3305 Dit is mijn docker-compose.yml:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 version: '3' name: pihole services: pihole: image: pihole/pihole:latest container_name: pihole restart: unless-stopped ports: - "80:80/tcp" - "53:53/tcp" - "53:53/udp" environment: TZ: 'Europe/Amsterdam' WEBPASSWORD: 'password' PIHOLE_DNS_: 1.1.1.1;9.9.9.9 DNSSEC: 'false' WEBTHEME: default-dark volumes: - ./etc/pihole:/etc/pihole/ - ./etc/dnsmasq.d:/etc/dnsmasq.d/
Het is toch raar dat een veelgebruikte usecase als deze zo lang geen fix krijgt? Dit is allemaal standaardwerk!
Ik draai ook Ubuntu 22.04.3 (Desktop versie) en gebruik AdGuard ipv PiHole.
Dit werkt gewoon
Ik heb wel deze tutorial even moeten volgen om de DNSStublistener van Ubuntu uit te zetten, want die luistert standaard op poort 53: https://github.com/AdguardTeam/AdGuardHome/wiki/Docker
Wie weet is dat voor PiHole ook nodig.
Ik draai AdGuard wel als host netwerk overigens.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| dns-adguard: container_name: dns-adguard image: adguard/adguardhome restart: always network_mode: host cpuset: $CPUSET_E_CORES_ALL volumes: - $DOCKERDIR/mngt/adguardhome/conf:/opt/adguardhome/conf - $DOCKERDIR/mngt/adguardhome/work:/opt/adguardhome/work healthcheck: disable: true labels: plugsy.name: AdGuard plugsy.link: http://adguard.z/ plugsy.category: Network |
Als ik overigens nftables in type, dan krijg ik een foutmelding.
Doe ik iptables dan krijg ik "iptables v1.8.7 (nf_tables): no command specified"
Ik draai Kernel 6.2
Als ik in OneNote kijk bij mij, dan heb ik blijkbaar deze guide gevolgd:
https://smarthomepursuits...rd-home-docker-in-ubuntu/
Ik heb namelijk die adguard conf file.
[ Voor 23% gewijzigd door Mars Warrior op 21-12-2023 15:57 ]
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Zonet Transmission Docker geinstalleerd. Exact dezelfde foutmelding.Ik draai ook Ubuntu 22.04.3 (Desktop versie) en gebruik AdGuard ipv PiHole.
Dit werkt gewoon
Dus ik kom niet weg met jouw oplossing
Je hebt helemaal niets geïnstalleerd, want het werkt nietszjoin schreef op donderdag 21 december 2023 @ 20:42:
[...]
Zonet Transmission Docker geinstalleerd. Exact dezelfde foutmelding.
Dus ik kom niet weg met jouw oplossing
Waar heb je het over met geen fix? Docker kan blijkbaar geen forward chain aanmaken in iptables omdat Ubuntu nftables gebruikt. Dat ligt niet aan Docker, Pi-Hole of een 'standaard use-case', maar dat Ubuntu ervoor kiest eigen packages mee te leveren. Er staat namelijk overal in de Docker documentatie iptables. Maar goed, wat heb je al geprobeerd uit de eerdere GitHub link die ik vermeldde? Want volgens mij staan daar meerdere, duidelijke antwoorden in. Waaronder het terug wisselen naar iptables.szjoin schreef op donderdag 21 december 2023 @ 14:25:
[...]
Het is toch raar dat een veelgebruikte usecase als deze zo lang geen fix krijgt? Dit is allemaal standaardwerk!
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte Aorus GTX1080TI | Samsung 970 Pro 512GB + 860 EVO 1TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Acer Predator X34P | M-Audio AV40
Verder zie ik in de foutmelding gewoon iptables (nftables) staan, net als bij mij.
Met de foutmelding van transmission er ook nog bij vraag ik me af of docker wel goed is geconfigureerd…
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Mijn stack:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
| version: "3.9" services: frigate: container_name: frigate privileged: true # this may not be necessary for all setups restart: unless-stopped image: ghcr.io/blakeblackshear/frigate:stable shm_size: "512mb" # update for your cameras based on calculation above devices: # - /dev/bus/usb:/dev/bus/usb # passes the USB Coral, needs to be modified for other versions # - /dev/apex_0:/dev/apex_0 # passes a PCIe Coral, follow driver instructions here https://coral.ai/docs/m2/get-started/#2a-on-linux - /dev/dri/renderD128 # for intel hwaccel, needs to be updated for your hardware volumes: - /etc/localtime:/etc/localtime:ro - /Docker/frigate/config.yml:/config.yml - /Docker/frigate/storage:/media/frigate - type: tmpfs # Optional: 1GB of memory, reduces SSD/SD Card wear target: /tmp/cache tmpfs: size: 1000000000 cap_add: - CAP_PERFMON ports: - "5000:5000" - "8554:8554" # RTSP feeds - "8555:8555/tcp" # WebRTC over tcp - "8555:8555/udp" # WebRTC over udp environment: FRIGATE_RTSP_PASSWORD: "password" |
Mijn config.yml:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
| mqtt: enabled: false go2rtc: streams: oprit: - rtsp://admin:ww@192.168.1.203:554/h264Preview_01_main cameras: oprit: ffmpeg: # hwaccel_args: preset-intel-qsv-h265 hwaccel_args: preset-vaapi inputs: # - path: rtsp://admin:ww@192.168.1.203:554/h265Preview_01_main - path: rtsp://admin:ww@192.168.1.203:554/h264Preview_01_main roles: - detect - record objects: track: - person - dog # - cat - bicycle - car - motorcycle detect: enabled: False # width: 3840 # height: 2160 width: 2560 # h264 maximale resolutie voor Reolink RLC-822A height: 1440 # h264 maximale resolutie voor Reolink RLC-822A record: enabled: True retain: days: 30 mode: all detectors: cpu1: type: cpu num_threads: 3 |
De log:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
| Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:19.707870107 [INFO] The go2rtc service exited with code 1 (by signal 0) 2023-12-23 13:05:20.316667911 192.168.1.100 - - [23/Dec/2023:13:05:20 +0100] "GET / HTTP/1.1" 200 6641 "-" "Mozilla/5.0 (X11; Linux x86_64; rv:121.0) Gecko/20100101 Firefox/121.0" "-" 2023-12-23 13:05:20.491346168 2023/12/23 13:05:20 [error] 132#132: *11 connect() failed (111: Connection refused) while connecting to upstream, client: 192.168.1.100, server: , request: "GET /api/config HTTP/1.1", upstream: "http://127.0.0.1:5001/config", host: "192.168.1.25:5000", referrer: "http://192.168.1.25:5000/" 2023-12-23 13:05:20.491391862 192.168.1.100 - - [23/Dec/2023:13:05:20 +0100] "GET /api/config HTTP/1.1" 502 157 "http://192.168.1.25:5000/" "Mozilla/5.0 (X11; Linux x86_64; rv:121.0) Gecko/20100101 Firefox/121.0" "-" 2023-12-23 13:05:20.712037871 [INFO] Preparing go2rtc config... Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:20.907400201 [INFO] The go2rtc service exited with code 1 (by signal 0) 2023-12-23 13:05:21.911581612 [INFO] Preparing go2rtc config... Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:22.107380418 [INFO] The go2rtc service exited with code 1 (by signal 0) 2023-12-23 13:05:23.111598721 [INFO] Preparing go2rtc config... Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:23.307479426 [INFO] The go2rtc service exited with code 1 (by signal 0) 2023-12-23 13:05:24.311705840 [INFO] Preparing go2rtc config... Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:24.507495182 [INFO] The go2rtc service exited with code 1 (by signal 0) 2023-12-23 13:05:25.511722239 [INFO] Preparing go2rtc config... Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:25.707134244 [INFO] The go2rtc service exited with code 1 (by signal 0) 2023-12-23 13:05:26.711365931 [INFO] Preparing go2rtc config... Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:26.908508123 [INFO] The go2rtc service exited with code 1 (by signal 0) 2023-12-23 13:05:27.912715642 [INFO] Preparing go2rtc config... Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:28.108000571 [INFO] The go2rtc service exited with code 1 (by signal 0) 2023-12-23 13:05:29.112240303 [INFO] Preparing go2rtc config... Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:29.308243454 [INFO] The go2rtc service exited with code 1 (by signal 0) 2023-12-23 13:05:30.312547553 [INFO] Preparing go2rtc config... Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:30.510654356 [INFO] The go2rtc service exited with code 1 (by signal 0) 2023-12-23 13:05:30.777725380 2023/12/23 13:05:30 [error] 132#132: *11 connect() failed (111: Connection refused) while connecting to upstream, client: 192.168.1.100, server: , request: "GET /api/config HTTP/1.1", upstream: "http://127.0.0.1:5001/config", host: "192.168.1.25:5000", referrer: "http://192.168.1.25:5000/" 2023-12-23 13:05:30.777772403 192.168.1.100 - - [23/Dec/2023:13:05:30 +0100] "GET /api/config HTTP/1.1" 502 157 "http://192.168.1.25:5000/" "Mozilla/5.0 (X11; Linux x86_64; rv:121.0) Gecko/20100101 Firefox/121.0" "-" 2023-12-23 13:05:31.514933794 [INFO] Preparing go2rtc config... Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:31.711283077 [INFO] The go2rtc service exited with code 1 (by signal 0) 2023-12-23 13:05:32.715503596 [INFO] Preparing go2rtc config... Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:32.916793378 [INFO] The go2rtc service exited with code 1 (by signal 0) 2023-12-23 13:05:33.920868495 [INFO] Preparing go2rtc config... Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:34.121486688 [INFO] The go2rtc service exited with code 1 (by signal 0) 2023-12-23 13:05:35.125814340 [INFO] Preparing go2rtc config... Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:35.323372648 [INFO] The go2rtc service exited with code 1 (by signal 0) 2023-12-23 13:05:36.327657160 [INFO] Preparing go2rtc config... Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:36.523902486 [INFO] The go2rtc service exited with code 1 (by signal 0) 2023-12-23 13:05:37.528113925 [INFO] Preparing go2rtc config... Traceback (most recent call last): File "/usr/local/go2rtc/create_config.py", line 23, in <module> with open(config_file) as f: FileNotFoundError: [Errno 2] No such file or directory: '/config/config.yml' 2023-12-23 13:05:37.723767614 [INFO] The go2rtc service exited with code 1 (by signal 0) |
Asustor AS6704T (32GB, 4x16TB MG08), OpenWrt (3x GL.iNet Flint 2 MT6000), Lyrion Media Server, Odroid H2/N2+/C4/C2, DS918+ (4x8TB WD RED)
Helpt dit voldoende?Videopac schreef op zaterdag 23 december 2023 @ 13:24:
code:
1 - /Docker/frigate/config.yml:/config.yml
De log:
code:
1 No such file or directory: '/config/config.yml'
Dank. Dat had ik ook al geprobeerd. De oplossing bleek uiteindelijk dat ik het volledige pad, in mijn geval inclusief /volume1 moet ingeven.RobertMe schreef op zaterdag 23 december 2023 @ 13:54:
[...]
Helpt dit voldoende?
spoiler:Je zult de config.yml wel naar /config/config.yml moeten mounten, en niet naar /config.yml.
Asustor AS6704T (32GB, 4x16TB MG08), OpenWrt (3x GL.iNet Flint 2 MT6000), Lyrion Media Server, Odroid H2/N2+/C4/C2, DS918+ (4x8TB WD RED)
Ook dat kan natuurlijk. Heb geen Syno dus geen idee hoe die mappenstructuur in elkaar zit. Als je met / begint is het in ieder geval een absolute path. In docker-compose kun je ook relatieve paden gebruiken, maar die "beginnen" dan met ./.Videopac schreef op zondag 24 december 2023 @ 17:22:
[...]
Dank. Dat had ik ook al geprobeerd. De oplossing bleek uiteindelijk dat ik het volledige pad, in mijn geval inclusief /volume1 moet ingeven.
Maar waarschijnlijk was de mapping dan alsnog verkeerd? Want je zet de file "in" /config.yml terwijl het afgaande op de error toch echt /config/config.yml moet zijn.
Daarin had je gelijk, mijn excuses dat ik dat niet duidelijk gemaakt had: dank dus!RobertMe schreef op zondag 24 december 2023 @ 17:53:
[...]
Ook dat kan natuurlijk. Heb geen Syno dus geen idee hoe die mappenstructuur in elkaar zit. Als je met / begint is het in ieder geval een absolute path. In docker-compose kun je ook relatieve paden gebruiken, maar die "beginnen" dan met ./.
Maar waarschijnlijk was de mapping dan alsnog verkeerd? Want je zet de file "in" /config.yml terwijl het afgaande op de error toch echt /config/config.yml moet zijn.
Asustor AS6704T (32GB, 4x16TB MG08), OpenWrt (3x GL.iNet Flint 2 MT6000), Lyrion Media Server, Odroid H2/N2+/C4/C2, DS918+ (4x8TB WD RED)
Ik heb het volgende gedaan:alex3305 schreef op donderdag 21 december 2023 @ 20:59:
[...]
Je hebt helemaal niets geïnstalleerd, want het werkt niet.
[...]
Waar heb je het over met geen fix? Docker kan blijkbaar geen forward chain aanmaken in iptables omdat Ubuntu nftables gebruikt. Dat ligt niet aan Docker, Pi-Hole of een 'standaard use-case', maar dat Ubuntu ervoor kiest eigen packages mee te leveren. Er staat namelijk overal in de Docker documentatie iptables. Maar goed, wat heb je al geprobeerd uit de eerdere GitHub link die ik vermeldde? Want volgens mij staan daar meerdere, duidelijke antwoorden in. Waaronder het terug wisselen naar iptables.
1
2
| update-alternatives --set iptables /usr/sbin/iptables-legacy update-alternatives --set ip6tables /usr/sbin/ip6tables-legacy |
Dat is inderdaad de oplossing.
Ik moest even wennen aan het idee dat ik hiermee (gevoelsmatig) 'een stapje terug' moest doen.
Maar goed - ik heb dit in het installatiescript gezet om de hele docker omgeving op te tuigen dus is nu deel van de procedure.
Dank voor de tip!
nftables zit al sinds 2014 in de Linux kernel. Moet je nagaan hoe traag de wereld veranderdszjoin schreef op donderdag 28 december 2023 @ 11:22:
[...]
Ik heb het volgende gedaan:
code:
1 2 update-alternatives --set iptables /usr/sbin/iptables-legacy update-alternatives --set ip6tables /usr/sbin/ip6tables-legacy
Dat is inderdaad de oplossing.
Ik moest even wennen aan het idee dat ik hiermee (gevoelsmatig) 'een stapje terug' moest doen.
Maar goed - ik heb dit in het installatiescript gezet om de hele docker omgeving op te tuigen dus is nu deel van de procedure.
Dank voor de tip!
nftables kent een veel hogere performance en schaalbaarheid dan iptables, dus best wel jammer dat de adoptie zo traag gaat binnen de Linux wereld. De ontwikkelaar is zowaar dezelfde (Netfilter), dus het is in die zin geen concurrentiestrijd.
Maar jij kunt nu in ieder geval verder!
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Maar de iptables toolset gebruikt als het goed is al jaren een implementatie die nftables aanstuurt. Als de kernel nog daadwerkelijk op basis van de antieke implementatie werkt is er AFAIK wel serieus iets mis.Mars Warrior schreef op donderdag 28 december 2023 @ 12:08:
[...]
nftables zit al sinds 2014 in de Linux kernel. Moet je nagaan hoe traag de wereld veranderd![]()
nftables kent een veel hogere performance en schaalbaarheid dan iptables, dus best wel jammer dat de adoptie zo traag gaat binnen de Linux wereld. De ontwikkelaar is zowaar dezelfde (Netfilter), dus het is in die zin geen concurrentiestrijd.
Maar jij kunt nu in ieder geval verder!
Niet de hele discussie teruggelezen, maar een switch naar iptables-legacy kan nooit de bedoeling zijn. Alleen al omdat het ding legacy heet en de variant gebaseerd op nftables dus klaarblijkelijk ook aanwezig is.
En meer ontopic. Docker heeft een dependency naar de iptables tools. Dus die zal lijkt mij de shell commands uitvoeren. Dus welke implantatie dat is is dan om het even. * RobertMe heeft de laatste installaties van Docker opgezet met iptables support uit en zelf de firewall regels schrijven, geeft veel meer vrijheid, en de mogelijkheid om het zelf in nftables / met nft tools op te zetten.
Het gaat om de installatie van GoTrain in Docker. En de installatie is goed gelukt. De container is gemaakt, en die draait inmiddels ook. De settings lijken te kloppen en ik zie in de opstart-log dat de REST API opgestart wordt.
Het probleem is echter dat ik op mijn URL geen poort 8080 open krijg. Het commando 'docker container ls' laat dit echter zien bij de ports, dus ik neem aan dat poort 8080 naar buiten moet open staan: '0.0.0.0:8080->8080/tcp'
Echter kan ik zowel intern als extern geen port 8080 benaderen. Zelfs intern via text-browser Lynx lijkt poort http://localhost:8080 niet benaderd te kunnen worden: Alert!: Unexpected network read error; connection aborted.
En poort 8080 extern via mijn URL werkt ook niet.
Een firewall staat niet aan op mijn server. Dus die kan geen roet in het eten gooien. Een simpele Apache webserver buiten Docker om werkt immers ook direct.
Moet ik dit in Docker zoeken? Of zit het in de werking van het script?
[ Voor 3% gewijzigd door AW_Bos op 29-12-2023 12:40 ]
☀️ Goedemorgen zonneschijn! ☀️
☀️Ja, je maakt me zo gelukkig, en door jou voel ik me fijn! ☀️
1. kijk in de logs van de container met 'docker logs ...'.
2a. heb je de poort 'exposed'? (zie ook de Dockerfile)
2b. hoe start je deze container? met welk commando?
3. hoe is je docker netwerk situatie? hostnetwork? bridged?
4. firewall of niet, docker gaat firewall/nat regels toevoegen. Bij vreemde netwerkproblemen kan het de moeite waard zijn om daar eens te kijken (vergeet vooral ook niet de NAT tabel). iptables -N -n -v [-t nat]
[ Voor 18% gewijzigd door CAPSLOCK2000 op 29-12-2023 13:51 ]
This post is warranted for the full amount you paid me for it.
Ik start de container als volgt op:
docker run -d -p 8080:8080 gotrain
In de dockerfile is 8080 netjes exposed.
Ik heb geen idee hoe mijn netwerksituatie is, maar het is gewoon een VPS.
De docker logs tonen verder logs van de applicatie, maar ik kan hier niets vinden wat duidt op een poort probleem.
In die iptables moet ik mij even verder verdiepen, maar misschien kan je hier wat mee?
[ Voor 12% gewijzigd door AW_Bos op 29-12-2023 19:56 ]
☀️ Goedemorgen zonneschijn! ☀️
☀️Ja, je maakt me zo gelukkig, en door jou voel ik me fijn! ☀️
Heb je hier iets aan misschien? https://stackoverflow.com...-application-from-browser
Iemand suggereert dut: When you tried connecting to port 80, did you have the port published? The output above doesn't show port 80.
Zou het kunnen dat de api op 8080 benaderd wordt en de webinterface via 80 (die je dan nog wel extra moet publiceren)?
Poort 8080 is de API interface waar je commando’s heen moet sturen. Het is geen web interface!AW_Bos schreef op vrijdag 29 december 2023 @ 12:38:
Ik ben nog maar net actief bezig met Docker, maar ik loop tegen iets aan. En ik kan even niet de vinger erop leggen of het om Docker gaat. Maar het komt erop neer dat de poort naar buiten niet open staat.
Het gaat om de installatie van GoTrain in Docker. En de installatie is goed gelukt. De container is gemaakt, en die draait inmiddels ook. De settings lijken te kloppen en ik zie in de opstart-log dat de REST API opgestart wordt.
Het probleem is echter dat ik op mijn URL geen poort 8080 open krijg. Het commando 'docker container ls' laat dit echter zien bij de ports, dus ik neem aan dat poort 8080 naar buiten moet open staan: '0.0.0.0:8080->8080/tcp'
Echter kan ik zowel intern als extern geen port 8080 benaderen. Zelfs intern via text-browser Lynx lijkt poort http://localhost:8080 niet benaderd te kunnen worden: Alert!: Unexpected network read error; connection aborted.
En poort 8080 extern via mijn URL werkt ook niet.
Een firewall staat niet aan op mijn server. Dus die kan geen roet in het eten gooien. Een simpele Apache webserver buiten Docker om werkt immers ook direct.
Moet ik dit in Docker zoeken? Of zit het in de werking van het script?
Dus ik snap niet wat je nu wilt eigenlijk.
Een commando als /v2/departures/station/UT geeft info van Utrecht in JSON formaat.
Als dat op localhost werkt, dan heb je mogelijk een firewall of proxy probleem.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
1
| curl http://localhost:8080/v2/status |
Als dat werkt, maar van buiten de VPS werkt het niet: kan het zijn dat je VPS een externe firewall heeft en dat daar de poort niet open staat? TransIP heeft deze functionaliteit bijvoorbeeld (heb je wel ooit aan moeten zetten, want standaard staat het niet aan).
I know! Ik ben bekend met de API. Het is wel een interface die JSON data geeft aan de hand van /v2/departures/station/UT.Mars Warrior schreef op vrijdag 29 december 2023 @ 21:08:
[...]
Poort 8080 is de API interface waar je commando’s heen moet sturen. Het is geen web interface!
Ik had eigenlijk verwacht dat ik een 404 zou zien via enkel de URL zonder de URL-query. Althans, bij een ouder programma van deze maker was dat wel zo. Maar in dit geval dus enkel een time-out.
[ Voor 9% gewijzigd door AW_Bos op 29-12-2023 23:10 ]
☀️ Goedemorgen zonneschijn! ☀️
☀️Ja, je maakt me zo gelukkig, en door jou voel ik me fijn! ☀️
Ik heb een server bij Contabo, en ik heb niet het idee dat er een firewall op draait.remyz schreef op vrijdag 29 december 2023 @ 21:16:
Je kan met cURL op je VPS checken of je iets terug krijgt van de API:
code:
1 curl http://localhost:8080/v2/status
Als dat werkt, maar van buiten de VPS werkt het niet: kan het zijn dat je VPS een externe firewall heeft en dat daar de poort niet open staat? TransIP heeft deze functionaliteit bijvoorbeeld (heb je wel ooit aan moeten zetten, want standaard staat het niet aan).
Maar zelf intern op de server krijg ik met een CURL-command:
curl: (56) Recv failure: Connection reset by peer
Dus ergens wil Docker niet lekker naar de buitenwereld reageren. En voor zover ik kan zien staat er geen firewall van Ubuntu aan. Maar iemand enig idee hoe ik dit in iptables kan checken? Via iptables -S zie ik een hele lijst met wat regels, dus waar moet ik dan op letten?
[ Voor 7% gewijzigd door AW_Bos op 29-12-2023 23:11 ]
☀️ Goedemorgen zonneschijn! ☀️
☀️Ja, je maakt me zo gelukkig, en door jou voel ik me fijn! ☀️