Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 00:45

Mars Warrior

Earth, the final frontier

Je health checks doen het goed volgens Portainer _/-\o_

Afbeeldingslocatie: https://tweakers.net/i/zwlA2qgsB7RMmLLPnlklPCzdvuU=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/Fl7XjqJJxDN0aYDTjZGif70f.png?f=user_large

Moet nog wat containers een andere naam geven zodat ik een docker swarm stack nadoe, maar het begint wat te worden met dit mini servertje van €80 (i5 2c/4t, 8GB RAM en 240GB SSD) :Y

De hele omgeving - configuratie scripts om bijv. alle mappen aan te maken voor Docker, maar ook container config bestanden - komt uiteindelijk op GitHub te staan. Maakt het makkelijk om eea opnieuw in te richten als dat nodig is... :)

Als het goed is komen er nog wat containers bij, al dan niet tijdelijk omdat ik een andere server nog moet ombouwen. Dat moet makkelijk kunnen aangezien er van de 7.7GB nog 6.9GB RAM vrij is:
  • wireguard UI
  • glances
  • nextcloud
  • syncthing
  • mailcow
  • aapanel/ispconfig
  • fail2ban (of native, weet ik nog niet)

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 22:20
@Mars Warrior Natuurlijk werken die
/flex :+

Je weet dat ik inmiddels een Samba image heb die wel bijgewerkt is he ;)
Als je denkt momenteel SMB clients te hebben die met oude protocollen verbinden kun je die vinden via commando
docker exec infra-samba smbstatus

Acties:
  • 0 Henk 'm!

  • Jazco2nd
  • Registratie: Augustus 2002
  • Laatst online: 29-05 14:58
Wat gaat er mogelijk verkeerd als je docker compose altijd met de non-root user gebruikt, maar nu een docker exec commando in een container uitvoert met sudo?

Ik wil een aantal commando's nachtelijk uitvoeren, maar doe dat graag via sudo crontab, want daarin staan al een aantal zaken. Anders moet ik ingewikkeld root & non-root cron op elkaar afstemmen, gokken hoe lang de taken duren..

Kan dat geen kwaad?
Mars Warrior schreef op woensdag 21 april 2021 @ 20:24:
Je health checks doen het goed volgens Portainer _/-\o_
De hele omgeving - configuratie scripts om bijv. alle mappen aan te maken voor Docker, maar ook container config bestanden - komt uiteindelijk op GitHub te staan. Maakt het makkelijk om eea opnieuw in te richten als dat nodig is... :)
RAM verbruik met 3x zoveel containers hier is 7.2GB 8)7 van de 32GB. 9.2 "cache" volgens Ubuntu (20.10).


https://github.com/zilexa/Homeserver
Ik heb hetzelfde gedaan. Alles op github en scripts geschreven om al het handmatige werk uit te voeren, eerst slechts als naslagwerk voor als ik alles opnieuw moet doen maar inmiddels door 1 persoon getest (en waar nodig heb ik ze gefixed) ;)
Uiteindelijk is het een complete noob guide geworden. Tis nog niet helemaal af en zal nog ff paar systeembestanden updaten met de laatste learnings, daarnaast stukje maintenance & backups is nog een bende. Per container config, ook nog ff fixen.

Het is een bizarre verzameling van informatie die ik afgelopen 2 jaar soms uit de verste hoeken van het internet (mailing lijsten) heb gehaald. Maar ook van GoT, Reddit, Github, fora, Discord.

[ Voor 68% gewijzigd door Jazco2nd op 23-04-2021 21:26 ]


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 00:45

Mars Warrior

Earth, the final frontier

Jazco2nd schreef op vrijdag 23 april 2021 @ 21:20:
[...]
RAM verbruik met 3x zoveel containers hier is 7.2GB 8)7 van de 32GB. 9.2 "cache" volgens Ubuntu (20.10).
Is natuurlijk erg afhankelijk van het soort container/applicatie. Als je GitLab erop goot ben je zo 4GB kwijt. Doe nog wat mail met clamav en je bent zoweer 1-2GB kwijt...
https://github.com/zilexa/Homeserver
Ik heb hetzelfde gedaan. Alles op github en scripts geschreven om al het handmatige werk uit te voeren, eerst slechts als naslagwerk voor als ik alles opnieuw moet doen maar inmiddels door 1 persoon getest (en waar nodig heb ik ze gefixed) ;)
Uiteindelijk is het een complete noob guide geworden. Tis nog niet helemaal af en zal nog ff paar systeembestanden updaten met de laatste learnings, daarnaast stukje maintenance & backups is nog een bende. Per container config, ook nog ff fixen.

Het is een bizarre verzameling van informatie die ik afgelopen 2 jaar soms uit de verste hoeken van het internet (mailing lijsten) heb gehaald. Maar ook van GoT, Reddit, Github, fora, Discord.
Die repository komt me helemaal niet bekend voor O-)
Nooit iets mee gedaan, nooit niks gelezen, nooit niks geprobeerd :X

Ik bedenk altijd alles zelf namelijk :F

Ik gooi nog wel wat tzt in het btrfs topic. Want bij mij ging docker helemaal over de zeik met btrfs op mijn ssd. Het containerd proces deed lekker 30%, alleen al met het schrijven van de logfiles 8)7

Dus btrfs er weer afgegooid en met ext4 doet docker 0-1%

Maar ik moet over een tijdje ook nog mijn file server opnieuw inrichten omdat ik daar ook een hele zut aan docker containers op wil draaien en alle VM's wil uitfaseren. Dat is dus ook een overgang van Windows met StableBit drivepool naar - denk ik - iets van btrfs/snapraid of wat daar op lijkt :D

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • dimmak
  • Registratie: December 2006
  • Laatst online: 28-05 07:23
Zijn er mensen die Dockstarter gebruiken? Ik wil applicaties installeren buiten Dockstarter om, maar weet niet of dat goed gaat of dat ik overrides moet gebruiken binnen Dockstarter.

Acties:
  • +1 Henk 'm!

  • ThinkPad
  • Registratie: Juni 2005
  • Laatst online: 21:32
@lolgast Over healthchecks gesproken, ik wil dat ook toevoegen aan één van m'n images. Dat is eentje die de portal van m'n zonnepanelen scraped. Soms geeft de API een error (niet bereikbaar). Lijkt mij wel handig om dat te reflecteren in de health status van de container. De container is vrij simpel en niet veel meer dan een Python-script.

Als ik via Portainer de logs bekijk dan staat daar de logging (en dus af en toe de foutmelding waar ik op kan greppen), maar hoe benader ik die log vanuit de container zelf :? Ik kan hem alleen terugvinden op de host via /var/snap/docker/common/var-lib-docker/containers/containerID/containerID-json.log

P.S. Voor HTTP checks vond ik deze nog: waarom je beter geen simpele curl gebruikt maar liever zelf iets schrijft wat ook checkt op de statuscode die de webserver teruggeeft: https://blog.sixeyed.com/...y-not-to-use-curl-or-iwr/

[ Voor 24% gewijzigd door ThinkPad op 27-04-2021 10:36 ]


Acties:
  • +1 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 22:20
@ThinkPad Stiekem is dat niet waar de healthcheck voor is natuurlijk ;) Want je container draait prima, alleen reageert de endpoint niet. Komt dat door de container, of door de endpoint?

Die logging zou in je container ook aanwezig moeten zijn. Hij wordt gegenereerd door het lopende proces van je image, dus daar waar die zijn logging wegschrijft zou je het terug moeten kunnen vinden.

Dat stukje HTTP monitoring ken ik ja. De image waarin ik een nodeJS applicatie heb draaien monitort ook precies via het voorbeeld dat daar staat, maar mijn Adguard-Unbound image monitort (onder andere) gewoon via CURL. Waarom?
- Het zit al in deze image
- Het is geen crossplatform image
- Het werkt

[ Voor 13% gewijzigd door lolgast op 27-04-2021 13:20 ]


Acties:
  • 0 Henk 'm!

  • Jazco2nd
  • Registratie: Augustus 2002
  • Laatst online: 29-05 14:58
Ik wil een aantal
code:
1
docker exec
commando's achter elkaar uitvoeren via een bash script op de host, maar elk start een php script.
Dat moet 1 voor 1 gebeuren anders wordt alleen het eerste script uitgevoerd, de andere commando's hebben geen effect.

Het exec commando is direct klaar zodra het script start en wacht daar dus niet op.

Alle oplossingen die ik online vind zijn bedoeld om te wachten totdat docker exec klaar is maar die is dus direct klaar.

Hoe kan ik ervoor zorgen dat het commando pas klaar is als het script klaar is?

[ Voor 12% gewijzigd door Jazco2nd op 27-04-2021 15:15 ]


Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 22:20
@Jazco2nd Stap 1 troublshooting bij mij zou zijn: wat gebeurd er met sleep 3 tussen de commando’s in?

Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 21:56
@Jazco2nd
Kun je alle scripts niet in 1x aan Docker exec mee geven. Via ; of &&.

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • brambello
  • Registratie: November 2017
  • Laatst online: 26-05 16:52
Ik heb nu eindelijk een werkende Docker container op mijn Synology draaien (Calibre-Web).

Om in te loggen moet ik een username en password (heb de standaardwaarden veranderd) invoeren. Mijn vraag is, zijn deze ' gevoelig' of is er alleen bij deze container te komen als je bent ingelogd op de Synology?

Kan van binnen mijn netwerk als ik het IP van de synology met de port erachter invoer wel direct in de container komen, dus heb het gevoel dat het ' publiek toegankelijk' is.

Acties:
  • +1 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 21:56
@brambello
Je kunt ook bij de container komen als je niet bent ingelogd op je Synology. De container is benaderbaar binnen je lokale netwerk

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • brambello
  • Registratie: November 2017
  • Laatst online: 26-05 16:52
technorabilia schreef op zaterdag 1 mei 2021 @ 20:57:
@brambello
Je kunt ook bij de container komen als je niet bent ingelogd op je Synology. De container is benaderbaar binnen je lokale netwerk
Oke, wil de container benaderbaar zijn buiten het normale netwerk moeten er weer andere zaken ingesteld/geinstalleerd worden neem ik aan? Kan interessant zijn maar brengt ook gevaren met zich mee.

Veiliger alternatief hiervoor is dus gewoon inloggen op de Synology vanuit externe locaties en van daaruit de container openen?

Dus nu moeten de username en password alleen veilig genoeg zijn voor in mijn thuisnetwerk?

[ Voor 9% gewijzigd door brambello op 01-05-2021 21:01 ]


Acties:
  • +1 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 21:56
Klopt ook de container van buitenaf te benaderen moet je e.e.a. instellen qua port forward en firewall.

Je tweede opmerking is niet mogelijk als ik je goed begrijp.

Op dit moment is de container inderdaad alleen vanuit je lokale netwerk te benaderen.

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • AW_Bos
  • Registratie: April 2002
  • Laatst online: 00:48

AW_Bos

Liefhebber van nostalgie... 🕰️

Ik ben van plan om ook Docker te gaan gebruiken op mijn bare server van 2GB RAM.

Echter vroeg ik mij af hoeveel geheugen Docker gebruikt exclusief containers. Iemand enig idee? Ik denk dat dit wel meevalt?

☀️ Goedemorgen zonneschijn! ☀️
☀️Ja, je maakt me zo gelukkig, en door jou voel ik me fijn! ☀️


Acties:
  • 0 Henk 'm!

  • r_buren
  • Registratie: April 2001
  • Laatst online: 28-05 10:26
Ik ben helemaal nieuw into Docker en wil NzbGet werkend hebben onder docker op DSM7 op Synology DS716+II.
Ik heb deze manual gebruikt (https://drfrankenstein.co...docker-on-a-synology-nas/) en heb alles zo geconfigureerd als hij zegt (maar ipv data heb ik downloads folder met onderliggende folders. Maar als ik naar chrome ga en daar http://10.*.**6789 intik krijg ik een foutmelding dat de site niet bereikbaar is. Ik heb de firewall van de nas al eens uitgehad om te kijken of dat het oploste maar nee helpt niet. Iemand enig idee?

Afbeeldingslocatie: https://tweakers.net/i/gEqKMbH_nUhCaUs-OkSfObyXoKA=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/HkO929uDajSiSUowF3b01EWT.png?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/j3exhiNi4H83GsoYTB4O6NJf_pE=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/THhQYCCGe5OG86V3WsnU3K5S.png?f=user_large

Heb ook in de firewall van de Synology die 127.17.0.0 toegevoegd want dat las ik ergens.

[ Voor 29% gewijzigd door r_buren op 06-08-2021 11:12 ]


Acties:
  • 0 Henk 'm!

  • Oon
  • Registratie: Juni 2019
  • Niet online

Oon

AW_Bos schreef op vrijdag 30 juli 2021 @ 09:43:
Ik ben van plan om ook Docker te gaan gebruiken op mijn bare server van 2GB RAM.

Echter vroeg ik mij af hoeveel geheugen Docker gebruikt exclusief containers. Iemand enig idee? Ik denk dat dit wel meevalt?
Zou geen probleem moeten zijn, docker is ook heel goed geschikt om in een cluster van kleine servers te draaien waar iedere server maar heel beperkte resources heeft,

De vraag is hoeveel nuttigs je kan draaien met 2GB RAM, maar docker zal daarin niet je bottleneck zijn

Acties:
  • 0 Henk 'm!

  • alesandro_46
  • Registratie: Januari 2012
  • Laatst online: 00:08
r_buren schreef op vrijdag 6 augustus 2021 @ 10:43:
Ik ben helemaal nieuw into Docker en wil NzbGet werkend hebben onder docker op DSM7 op Synology DS716+II.
Ik heb deze manual gebruikt (https://drfrankenstein.co...docker-on-a-synology-nas/) en heb alles zo geconfigureerd als hij zegt (maar ipv data heb ik downloads folder met onderliggende folders. Maar als ik naar chrome ga en daar http://10.*.**6789 intik krijg ik een foutmelding dat de site niet bereikbaar is. Ik heb de firewall van de nas al eens uitgehad om te kijken of dat het oploste maar nee helpt niet. Iemand enig idee?

[Afbeelding]

[Afbeelding]

Heb ook in de firewall van de Synology die 127.17.0.0 toegevoegd want dat las ik ergens.
Heb je het netwerk in bridge staan?
Network

We are not going to be specifying specific ports for NZBGet to use as we want to keep things simple, tick the ‘Use the same network as Docker Host’

Deze ruimte is bewust leeg gelaten


Acties:
  • 0 Henk 'm!

  • r_buren
  • Registratie: April 2001
  • Laatst online: 28-05 10:26
Ik heb gevolgd wat er in die handleiding staat. Ik heb geen idee of ik mijn netwerk in bridge heb staan.

Ik heb een Ziggo modem met daarachter een Asus router die ook DHCP is en ip addressen vanaf 10.0.*.*. De nas zit daarbuiten met een vast ip. En of dat bridged is weet ik niet. Heb weinig verstand van netwerken maar ben er gewoon klaar mee dat ik altijd mijn laptop aan moet hebben als ik download uit nieuwsgroepen. Of NzbGet ooit gaat werken op DSM7 weet ik niet maar ik las overal dat Docker ZOOO makkelijk zou zijn. Nou niet bij mij :(

[ Voor 36% gewijzigd door r_buren op 06-08-2021 13:46 ]


Acties:
  • 0 Henk 'm!

  • AW_Bos
  • Registratie: April 2002
  • Laatst online: 00:48

AW_Bos

Liefhebber van nostalgie... 🕰️

Oon schreef op vrijdag 6 augustus 2021 @ 10:46:
[...]

Zou geen probleem moeten zijn, docker is ook heel goed geschikt om in een cluster van kleine servers te draaien waar iedere server maar heel beperkte resources heeft,

De vraag is hoeveel nuttigs je kan draaien met 2GB RAM, maar docker zal daarin niet je bottleneck zijn
Gaat mij alleen maar om een simpel systeem wat OV-data via NDOV-loket ophaalt, wat volgens de maker +/- 700 MB RAM is, en een camo-proxy voor afbeeldingen.

☀️ Goedemorgen zonneschijn! ☀️
☀️Ja, je maakt me zo gelukkig, en door jou voel ik me fijn! ☀️


Acties:
  • 0 Henk 'm!

  • Oon
  • Registratie: Juni 2019
  • Niet online

Oon

AW_Bos schreef op vrijdag 6 augustus 2021 @ 14:18:
[...]

Gaat mij alleen maar om een simpel systeem wat OV-data via NDOV-loket ophaalt, wat volgens de maker +/- 700 MB RAM is, en een camo-proxy voor afbeeldingen.
Dat zou zonder problemen moeten kunnen op 2GB RAM ja, alleen wel rekening mee houden dat als je proxy grote afbeeldingen in geheugen wil laden je daar dus ook een limiet op hebt

Acties:
  • 0 Henk 'm!

  • Yucko
  • Registratie: Mei 2000
  • Laatst online: 19:23

Yucko

One clown to rule them all !

r_buren schreef op vrijdag 6 augustus 2021 @ 13:41:
Ik heb gevolgd wat er in die handleiding staat. Ik heb geen idee of ik mijn netwerk in bridge heb staan.

Ik heb een Ziggo modem met daarachter een Asus router die ook DHCP is en ip addressen vanaf 10.0.*.*. De nas zit daarbuiten met een vast ip. En of dat bridged is weet ik niet. Heb weinig verstand van netwerken maar ben er gewoon klaar mee dat ik altijd mijn laptop aan moet hebben als ik download uit nieuwsgroepen. Of NzbGet ooit gaat werken op DSM7 weet ik niet maar ik las overal dat Docker ZOOO makkelijk zou zijn. Nou niet bij mij :(
hij bedoelt de netwerk-instelling van je docker-container. Doorgaans kies je daar "bridge" of "host"

iPhone 15 Pro Max Titanium Black 256GB -  iPad Pro 2018 12.9" Space Gray 64GB -  AirPods Pro -  Watch 5 Space Gray LTE -  TV 4K 128GB -  TV 4 64GB -  Wireless CarPlay


Acties:
  • +1 Henk 'm!

  • AW_Bos
  • Registratie: April 2002
  • Laatst online: 00:48

AW_Bos

Liefhebber van nostalgie... 🕰️

Oon schreef op vrijdag 6 augustus 2021 @ 14:25:
[...]


Dat zou zonder problemen moeten kunnen op 2GB RAM ja, alleen wel rekening mee houden dat als je proxy grote afbeeldingen in geheugen wil laden je daar dus ook een limiet op hebt
Ik snap het, maar veel belasting verwacht ik ook weer niet, omdat veel afbeeldingen niet door camo gaan omdat ik ze host. Enkel wat oude afbeeldingen die ik vroeger embedde worden door camo gehaald :)

[ Voor 8% gewijzigd door AW_Bos op 06-08-2021 14:45 ]

☀️ Goedemorgen zonneschijn! ☀️
☀️Ja, je maakt me zo gelukkig, en door jou voel ik me fijn! ☀️


Acties:
  • 0 Henk 'm!

  • r_buren
  • Registratie: April 2001
  • Laatst online: 28-05 10:26
Yucko schreef op vrijdag 6 augustus 2021 @ 14:36:
[...]


hij bedoelt de netwerk-instelling van je docker-container. Doorgaans kies je daar "bridge" of "host"
Ik heb het al aan de praat. Alles ff opnieuw geinstalleerd. Nou ja, niet alles maar de container en image ff weggegooid en opnieuw gedownload.

Acties:
  • 0 Henk 'm!

  • r_buren
  • Registratie: April 2001
  • Laatst online: 28-05 10:26
Maar wat is nou het voordeel van Docker ? Naast dat ik het nu werkend heb onder DSM7, dacht ik ook dat ik iets ergens op de NAS kon opslaan, zeg maar als een export, dat als de NAS een keer crashed dat ik dan zo mijn docker apps weer kon importeren. Maar dat heb ik nog niet gevonden.

Laat maar ik was te snel met hier typen. Heb al de exporteer knop gevonden.

[ Voor 12% gewijzigd door r_buren op 06-08-2021 15:22 ]


Acties:
  • 0 Henk 'm!

  • Arunia
  • Registratie: Februari 2003
  • Laatst online: 23:12
Pff, gisteren docker gereset na een backup soort van gemaakt te hebben. Dat is gewoon prima gegaan zeg maar en weinig boeiends.

Echter, heb ik het ook omgezet naar WSL2 en als eerste portainer-ce geinstalleerd en dat gaat goed.

Nu komt het, mijn wordpress installatie krijg ik met de docker-compose file niet opgestart met docker-compose up. Dan komt de volgende melding:
(root) Additional property Volumes is not allowed

Het rotte is, het werkte hiervoor wel gewoon. Het lijkt er op dat de laatste Volumes (twee stuks) tegenwoordig dan niet meer mag of iets. Gaat om deze code:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
version: '3.3'

services:
  wordpress:
    image: wordpress:latest
    restart: always
    ports:
      - 4001:80
    environment:
      WORDPRESS_DB_HOST: db
      WORDPRESS_DB_USER: kookboek
      WORDPRESS_DB_PASSWORD: kookboek
      WORDPRESS_DB_NAME: kookboek
    volumes:
      - "C:/software/docker/wordpress/kookboek/html:/var/www/html"
  db:
    image: mysql:5.7
    restart: always
    environment:
      MYSQL_DATABASE: kookboek
      MYSQL_USER: kookboek
      MYSQL_PASSWORD: kookboek
      MYSQL_RANDOM_ROOT_PASSWORD: '1'
Volumes:
  db_kookboek: {}
  wordpress_kookboek: {}


Hiervoor gewoon werkend, maar nu ineens niet meer. Denk dat ik ergens iets over het hoofd zie. Of ik moet het een keer dan maar handmatig zien op te bouwen.

Iemand enig idee?

Acties:
  • +4 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 22:20
@Arunia Volumes bestaat ook niet, volumes wel :)

[ Voor 71% gewijzigd door lolgast op 28-10-2021 12:23 ]


Acties:
  • 0 Henk 'm!

  • Arunia
  • Registratie: Februari 2003
  • Laatst online: 23:12
lolgast schreef op donderdag 28 oktober 2021 @ 12:18:
@Arunia Volumes bestaat ook niet, volumes wel :)
You got to be kidding me! :+
Dat was hem, held!

Snap niet dat het dan hier voor wel gewerkt heeft, maar thanks!

Acties:
  • 0 Henk 'm!

  • D-Three
  • Registratie: Oktober 2001
  • Laatst online: 29-05 07:49
Hopelijk kan iemand hier mij helpen :) Ik ben nu al uren googlen en proberen verder maar ik begrijp het niet goed. In een VM op mijn proxmox-servertje heb ik Debian geïnstalleerd. Tijdens de installatie enkel SSH en de system tools geïnstalleerd, daarna nog sudo en verder niks. De volgende stap was het installeren van docker en portainer volgens de instructies op hun desbetreffende websites. Tot zover lijkt alles goed te werken.

Maar ik krijg op geen enkele manier de web interface van portainer voorgeschoteld. Op poort 9000 meldt Chrome dat de site niet bereikbaar is. Het IP-adres is pingbaar. En op de poorten 8000 en 9443 krijg ik de meldingen Not found en Client sent an HTTP request to an HTTPS server. te zien. Die meldingen krijg ik niet wanneer ik de container stop. Dus portainer werkt wel. Maar niks op poort 8000 :/

output van docker container ls:
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
5ee95d5af9c9 cr.portainer.io/portainer/portainer-ce:2.9.3 "/portainer" 13 hours ago Up About a minute 0.0.0.0:8000->8000/tcp, :::8000->8000/tcp, 0.0.0.0:9443->9443/tcp, :::9443->9443/tcp, 9000/tcp portainer


Reeds portainer, docker en zelfs debian opnieuw geïnstalleerd maar dit maakt geen verschil.
Wat doe ik verkeerd?

Acties:
  • +2 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 00:45

Mars Warrior

Earth, the final frontier

@D-Three , Portainer zit bij mij op,poort 9000. Is die wel goed gemapped? Ziet er nl anders uit bij jou als de andere poorten…

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +1 Henk 'm!

  • Freee!!
  • Registratie: December 2002
  • Laatst online: 23:19

Freee!!

Trotse papa van Toon en Len!

Mars Warrior schreef op zondag 5 december 2021 @ 15:02:
@D-Three , Portainer zit bij mij op,poort 9000. Is die wel goed gemapped? Ziet er nl anders uit bij jou als de andere poorten…
Bij mij ook op 9000.

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT


Acties:
  • +1 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 21:56
@D-Three
Tegenwoordig is dat standaard op poort 9443 i.p.v. 9000.

Je kunt even opnieuw installeren en 9443 vervangen door 9000. Dan weet je in ieder geval of het überhaupt werkt.

https://docs.portainer.io...stall/server/docker/linux

Edit:
Poort 8000 is voor de agent...

En natuurlijk aanroepen met https voor poort 9443 en http voor poort 9000...

[ Voor 20% gewijzigd door technorabilia op 05-12-2021 17:22 ]

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • D-Three
  • Registratie: Oktober 2001
  • Laatst online: 29-05 07:49
Wow... Ik was zo gefixeerd op die 9000... 8)7 8)7 Over tunnelvisie gesproken.
Het is inderdaad poort 9443 en https. Ik had het antwoord eigenlijk zelf gegeven. Bedankt iedereen! :)
D-Three schreef op zondag 5 december 2021 @ 14:02:
En op de poorten 8000 en 9443 krijg ik de meldingen Not found en Client sent an HTTP request to an HTTPS server.

[ Voor 3% gewijzigd door D-Three op 05-12-2021 19:45 ]


Acties:
  • +1 Henk 'm!

  • rens-br
  • Registratie: December 2009
  • Laatst online: 17:46

rens-br

Admin IN & Moderator Mobile
Hé een Docker topic. Dat is fijn! Ik ben mijn twee Raspberry Pi's nu om aan het zetten naar een ChromeBox met Debian erop en ben volledig op de Docker trein gesprongen. Na initieel wat uitzoekwerk ben ik echt heel erg tevreden en werkt het perfect.

Tot nu toe het enige wat ik nog niet aan de praat gekregen heb ik Caddy. Ik gebruik daarvoor: https://hub.docker.com/_/caddy met docker compose. Ik heb een Caddyfile toegevoegd aan '/opt/Caddy' en als ik een reload doe dan lijkt hij de file te gebruiken.

Als ik nu echter naar een van mijn links ga krijg ik een 502 error en ik weet nu niet zo goed wat er mis is. Gebruikt er iemand Caddy in docker?

Compose file: (in /opt/caddy)
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
version: "3.7"

services:
  caddy:
    image: caddy:latest
    restart: unless-stopped
    ports:
      - "83:80"
      - "446:443"
    volumes:
      - $PWD/Caddyfile:/etc/caddy/Caddyfile
      - $PWD/site:/srv
      - caddy_data:/data
      - caddy_config:/config

volumes:
  caddy_data:
    external: true
  caddy_config:


Caddyfile:
code:
1
2
3
domoticz.DOMEIN.nl {
    reverse_proxy 192.168.0.201:444
}

Acties:
  • +1 Henk 'm!

  • Arunia
  • Registratie: Februari 2003
  • Laatst online: 23:12
@rens-br Even met mijn beperkte kennis, maar die reverse proxy? Klopt die wel? Zie namelijk nergens een verwijzing daar naartoe. Je gateway volgens de 502 error is niet goed.
Lijkt me dat je een andere poort moet hebben bij je reverse proxy? Maar nogmaals, dat is mijn beperkte kennis.

Ik heb toen het topic opgestart, maar mijn leven en daar de verplichtingen zijn me gigantisch voorbij gesneld.

Acties:
  • 0 Henk 'm!

  • rens-br
  • Registratie: December 2009
  • Laatst online: 17:46

rens-br

Admin IN & Moderator Mobile
Arunia schreef op maandag 3 januari 2022 @ 14:21:
@rens-br Even met mijn beperkte kennis, maar die reverse proxy? Klopt die wel? Zie namelijk nergens een verwijzing daar naartoe. Je gateway volgens de 502 error is niet goed.
Lijkt me dat je een andere poort moet hebben bij je reverse proxy? Maar nogmaals, dat is mijn beperkte kennis.
In de Caddy documentatie staat het volgende voorbeeld, daar heb ik het van overgenomen:
code:
1
2
3
example2.com {
    reverse_proxy localhost:9000
}

Acties:
  • 0 Henk 'm!

  • Arunia
  • Registratie: Februari 2003
  • Laatst online: 23:12
@rens-br Wat ik tegen kom in de tutorial is dat je iedere keer je config moet uploaden.
Daarnaast ga ik er vanuit dat de 192.168.0.200:8443 het adres is van de Domoticz server.
Die wil je bereiken door domoticz.DOMEIN.nl te bezoeken.

Waar ik vaak tegenaan loop, is dat er toch ergens een typfout staat.
Heb je meer in de caddyfile staan qua server? Of is het alleen die domoticz op dit moment.
Bij het laatste zou ik de optie zonder { } gebruiken. Kijken of dat wel werkt. En desnoods opnieuw in tikken in een schone caddyfile om alles uit te sluiten.

De domoticz server is wel te bereiken middels het ip-adres zelf?
Als het werkt, dan lijkt me de verwijzing van de domein naam naar het ipadres niet goed.

Acties:
  • 0 Henk 'm!

  • rens-br
  • Registratie: December 2009
  • Laatst online: 17:46

rens-br

Admin IN & Moderator Mobile
Arunia schreef op maandag 3 januari 2022 @ 14:37:
@rens-br Wat ik tegen kom in de tutorial is dat je iedere keer je config moet uploaden.
Ja, na elke change van de file moet je een reload doen. Dat doe ik dan ook en krijg de melding dat de caddyfile gevonden is (zonder syntax fouten)
Daarnaast ga ik er vanuit dat de 192.168.0.200:8443 het adres is van de Domoticz server.
Die wil je bereiken door domoticz.DOMEIN.nl te bezoeken.
Correct. En deze setup werkt prima op mijn PI, waar een (oude) versie van Caddy is geïnstalleerd, waardoor ook de Caddyfile anders is.
Waar ik vaak tegenaan loop, is dat er toch ergens een typfout staat.
Heb je meer in de caddyfile staan qua server? Of is het alleen die domoticz op dit moment.
Bij het laatste zou ik de optie zonder { } gebruiken. Kijken of dat wel werkt. En desnoods opnieuw in tikken in een schone caddyfile om alles uit te sluiten.
Er staan er inderdaad wat meer in. Ik zal het eens met één gebruiken. Typfouten worden overigens afgevangen, voor zover ik weet. Je krijgt dan namelijk Syntax error on line 'x'. terug.
De domoticz server is wel te bereiken middels het ip-adres zelf?
Als het werkt, dan lijkt me de verwijzing van de domein naam naar het ipadres niet goed.
Die is inderdaad wel te bereiken. Misschien belangrijk om te melden. Domoticz en Docker/Caddy draait niet op hetzelfde apparaat.

Het is overigens niet zo dat ik in de Docker compose of docker nog iets moet instellen, waardoor hij bij Domoticz kan, ofwel?

[ Voor 8% gewijzigd door rens-br op 03-01-2022 14:42 ]


Acties:
  • +1 Henk 'm!

  • ravedek
  • Registratie: Juli 2011
  • Niet online
@rens-br
Caddy v2.1.1 heb ik hier draaien en als volgt geconfigureerd:

Caddyfile:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
# The Caddyfile is an easy way to configure your Caddy web server.
#
# Unless the file starts with a global options block, the first
# uncommented line is always the address of your site.
#
# To use your own domain name (with automatic HTTPS), first make
# sure your domain's A/AAAA DNS records are properly pointed to
# this machine's public IP, then replace the line below with your
# domain name.
:80

# Set this path to your site's directory.
root * /usr/share/caddy

# Enable the static file server.
file_server

# Another common task is to set up a reverse proxy:
# reverse_proxy localhost:8080

# Or serve a PHP site through php-fpm:
php_fastcgi localhost:9000

# Refer to the Caddy docs for more information:
# https://caddyserver.com/docs/caddyfile


Docker run command (helaas geen compose):

code:
1
2
3
4
5
6
7
8
9
10
11
12
docker run -d \
        --name caddy \
        --hostname=caddy \
        --net=host \
        -v $PWD/Caddyfile:/etc/caddy/Caddyfile \
        -v $PWD/site:/usr/share/caddy \
        -v $PWD/data:/data \
        -v $PWD/config:/config \
        -e TZ="Europe/Amsterdam" \
        --link phpfpm \
        --restart=unless-stopped \
        caddy


Dit heb ik een jaar geleden ingesteld en werkt nog steeds prima.
Met de port mappings heb ik destijds wat lopen rommelen maar zou ook moeten werken lijkt mij. Er draait verder nog een PHP fpm container met oa. ondersteuning voor pdo_mysql en mysqli.
Ik gebruik dus geen reverse proxy maar zag wel wat verschillen in de configuratie...

[ Voor 6% gewijzigd door ravedek op 03-01-2022 17:54 ]


Acties:
  • 0 Henk 'm!

  • rens-br
  • Registratie: December 2009
  • Laatst online: 17:46

rens-br

Admin IN & Moderator Mobile
ravedek schreef op maandag 3 januari 2022 @ 17:24:
@rens-br
Caddy v2.1.1 heb ik hier draaien en als volgt geconfigureerd:
Dankjewel! Dat gaan we van de week eens proberen!

Nog een paar vragen.
code:
1
2
# Set this path to your site's directory.
root * /usr/share/caddy
Wat heb jij in deze directory zitten?
Met de port mappings heb ik destijds wat lopen rommelen maar zou ook moeten werken lijkt mij. Er draait verder nog een PHP fpm container met oa. ondersteuning voor pdo_mysql en mysqli.
Ik gebruik dus geen reverse proxy maar zag wel wat verschillen in de configuratie...
Welke poorten heb je gemapped. Ik gebruik poort 446 en 83, omdat 443 en 80 al bezet zijn. Ik heb die poorten ook open gezet in mijn Unifi Controller, dus ik zou verwachten dat dat gewoon moet werken. Maar misschien moet je verplicht poort 80 en 443 gebruiken?

Acties:
  • +1 Henk 'm!

  • Forceworks
  • Registratie: Juni 2007
  • Laatst online: 03-06-2024
rens-br schreef op maandag 3 januari 2022 @ 14:40:
[...]


Ja, na elke change van de file moet je een reload doen. Dat doe ik dan ook en krijg de melding dat de caddyfile gevonden is (zonder syntax fouten)


[...]


Correct. En deze setup werkt prima op mijn PI, waar een (oude) versie van Caddy is geïnstalleerd, waardoor ook de Caddyfile anders is.


[...]


Er staan er inderdaad wat meer in. Ik zal het eens met één gebruiken. Typfouten worden overigens afgevangen, voor zover ik weet. Je krijgt dan namelijk Syntax error on line 'x'. terug.


[...]


Die is inderdaad wel te bereiken. Misschien belangrijk om te melden. Domoticz en Docker/Caddy draait niet op hetzelfde apparaat.

Het is overigens niet zo dat ik in de Docker compose of docker nog iets moet instellen, waardoor hij bij Domoticz kan, ofwel?
Misschien hier nog een nuttige tip van een Caddy gebruiker (in Docker).
Ik lees volgens mij nergens iets over je DNS-instellingen/forwarding.
Heb je wel ergens iets draaien (pi-hole bijvoorbeeld) waarin je het domein doorverwijst naar het ipadres van de machine waarop je je reverse proxy draait? (en is je eigen dns-forwarder ingesteld als centrale dns-server in huis (voor alle apparaten)?

[ Voor 3% gewijzigd door Forceworks op 04-01-2022 08:31 ]


Acties:
  • 0 Henk 'm!

  • rens-br
  • Registratie: December 2009
  • Laatst online: 17:46

rens-br

Admin IN & Moderator Mobile
Forceworks schreef op dinsdag 4 januari 2022 @ 08:29:
Misschien hier nog een nuttige tip van een Caddy gebruiker (in Docker).
Ik lees volgens mij nergens iets over je DNS-instellingen/forwarding.
Heb je wel ergens iets draaien (pi-hole bijvoorbeeld) waarin je het domein doorverwijst naar het ipadres van de machine waarop je je reverse proxy draait?
Ik heb een domeinnaam geregistreerd bij TransIP en verwijs daar door middel van een CNAME record, via DuckDNS naar mijn IP-adres. In mijn router heb ik poort 80 en 443 open gezet naar poort 83 en 446 van mijn Chromebox. En vervolgens zit de verwijzing van reverse proxy -> domeinnaam -> Domoticz in de Caddyfile.

Moet ik nu nog iets anders instellen? Want deze setup werkt wel uitstekend via de setup die ik op mijn Pi heb draaien.
Misschien hier nog een nuttige tip van een Caddy gebruiker (in Docker).
Wat heb jij voor settings gebruikt? Wat staat er in je Caddyfile en wat voor configuratie draai je?

[ Voor 9% gewijzigd door rens-br op 04-01-2022 08:35 ]


Acties:
  • +1 Henk 'm!

  • Forceworks
  • Registratie: Juni 2007
  • Laatst online: 03-06-2024
rens-br schreef op dinsdag 4 januari 2022 @ 08:34:
[...]


Moet ik nu nog iets anders instellen? Want deze setup werkt wel uitstekend via de setup die ik op mijn Pi heb draaien.
Ik heb het iets afwijkend, want ik gebruik ook TransIP, maar geen DuckDNS (want fixed ip thuis).
  • Dus je hebt een CNAME-record in je DNS voor je domein in je transIP dashboard.
  • Dat CNAME-record verwijst naar je DuckDNS url.
  • Het DuckDNS url verwijst naar je thuis IP (wat periodiek geupdate wordt).
  • In je modem zouden poort 80 en 443 open moeten staan voor de buitenwereld, komende vanaf je PI (met fixed IP)
  • Normaliter zou docker de firewall van je systeem aan moeten passen dat verkeer op de gedefinieerde poorten toegestaan wordt, gezien je bij domoticz kan, neem ik ook even aan dat dat werkt.
  • Je basis caddy inrichting is ok, maar wellicht dat er nog geklaagd wordt over certificaten, dit zou je wellicht terug kunnen zien in de logs.
Je zou alle bovenstaande stappen even kunnen nalopen of de hele keten correct is.
Bijvoorbeeld door gewoon eens alleen je duck-dns url in te typen ipv je eigen domein naam, kom je dan wel op de gewenste locatie uit?
[...]


Wat heb jij voor settings gebruikt? Wat staat er in je Caddyfile en wat voor configuratie draai je?
Mijn caddyfile is niet veel spannender, maar ik gebruik eigen certificaten ipv dat ik Caddy self-signed certificaten laat genereren. Wellicht dat hier nog iets spannends gebeurd omdat DuckDNS volgens mij ook LetsEncrypt certificaten uitgeeft. Hier heb ik geen directe ervaring mee.

code:
1
2
3
4
heimdall.DOMEIN.nl {
    reverse_proxy heimdall:10003
    tls /etc/ssl/fullchain.pem /etc/ssl/privkey.pem
}


Omdat al mijn containers in hetzelfde container-netwerk zitten (zelfde compose file) kan ik in caddy verwijzen naar de naam van de container ipv het ipadres van de machine waarop deze draait. Daardoor zou ik niet per sé alle containers hoeven te exposen buiten het docker-network.

EDIT:

Is het misschien het issue dat Caddy de duckdns url verwacht om te reverse proxy-en ipv je transip domeinnaam???

[ Voor 3% gewijzigd door Forceworks op 04-01-2022 08:55 ]


Acties:
  • 0 Henk 'm!

  • rens-br
  • Registratie: December 2009
  • Laatst online: 17:46

rens-br

Admin IN & Moderator Mobile
Forceworks schreef op dinsdag 4 januari 2022 @ 08:54:
[...]

Ik heb het iets afwijkend, want ik gebruik ook TransIP, maar geen DuckDNS (want fixed ip thuis).
  • Dus je hebt een CNAME-record in je DNS voor je domein in je transIP dashboard.
  • Dat CNAME-record verwijst naar je DuckDNS url.
  • Het DuckDNS url verwijst naar je thuis IP (wat periodiek geupdate wordt).
  • In je modem zouden poort 80 en 443 open moeten staan voor de buitenwereld, komende vanaf je PI (met fixed IP)
  • Normaliter zou docker de firewall van je systeem aan moeten passen dat verkeer op de gedefinieerde poorten toegestaan wordt, gezien je bij domoticz kan, neem ik ook even aan dat dat werkt.
  • Je basis caddy inrichting is ok, maar wellicht dat er nog geklaagd wordt over certificaten, dit zou je wellicht terug kunnen zien in de logs.
Je zou alle bovenstaande stappen even kunnen nalopen of de hele keten correct is.
Bijvoorbeeld door gewoon eens alleen je duck-dns url in te typen ipv je eigen domein naam, kom je dan wel op de gewenste locatie uit?
TransIP en DNS, DuckDNS e.d. werkt allemaal al. Want als ik mijn poorten open zet naar mijn oude PI met Caddy werkt het gelijk. Dus ik weet eigenlijk vrijwel zeker dat het probleem zit in mijn nieuwe Caddy setup.
Mijn caddyfile is niet veel spannender
Jouw Caddyfile ziet er inderdaad verdacht veel hetzelfde uit als die van mij.
Is het misschien het issue dat Caddy de duckdns url verwacht om te reverse proxy-en ipv je transip domeinnaam???[/b]
Dat zou mogelijk kunnen ja. Ik ga DuckDNS er dan eens tussenuit halen, om te kijken of dat verschil maakt.

Acties:
  • +1 Henk 'm!

  • ravedek
  • Registratie: Juli 2011
  • Niet online
rens-br schreef op dinsdag 4 januari 2022 @ 07:55:
[...]


Dankjewel! Dat gaan we van de week eens proberen!

Nog een paar vragen.


[...]


Wat heb jij in deze directory zitten?


[...]


Welke poorten heb je gemapped. Ik gebruik poort 446 en 83, omdat 443 en 80 al bezet zijn. Ik heb die poorten ook open gezet in mijn Unifi Controller, dus ik zou verwachten dat dat gewoon moet werken. Maar misschien moet je verplicht poort 80 en 443 gebruiken?
De /usr/share/caddy is de mapping naar mijn phpMyAdmin site (in een submap). Vervolgens te bereiken via http://<DOCKER HOST>/phpmyadmin.

Voorheen had ik poort 80 en 443 als mapping, dus helaas geen ervaring met een andere mapping (wel bij andere containers en dat werkt goed). Had je de logs van Caddy al bekeken?
code:
1
docker logs caddy


En het schijnt dat je met de command optie in je Docker compose ook de reverse-proxy kunt configureren, dus zonder gebruik van de Caddyfile, ook leuk 8)

Acties:
  • 0 Henk 'm!

  • rens-br
  • Registratie: December 2009
  • Laatst online: 17:46

rens-br

Admin IN & Moderator Mobile
We gaan het allemaal eens proberen en even in de logs kijken of ik iets kan vinden. Mocht dat toch allemaal niet lukken, ga ik eens naar Ngnix Proxy Manager kijken, misschien dat die beter / handiger werkt.

Acties:
  • +1 Henk 'm!

  • Forceworks
  • Registratie: Juni 2007
  • Laatst online: 03-06-2024
rens-br schreef op dinsdag 4 januari 2022 @ 07:55:
[...]


Welke poorten heb je gemapped. Ik gebruik poort 446 en 83, omdat 443 en 80 al bezet zijn. Ik heb die poorten ook open gezet in mijn Unifi Controller, dus ik zou verwachten dat dat gewoon moet werken. Maar misschien moet je verplicht poort 80 en 443 gebruiken?
Ik zie nu pas dat je 446 en 83 in je configuratie hebt gedefinieerd. Dit MOET 443 en 80 zijn, die moeten 1-op-1 mappen. Dat is de dedicated poort voor HTTPS en HTTP verkeer anders snapt een browser het niet. (tenzij expliciet meegegeven)

Je oude mapping moet je dus opheffen (die is waarschijnlijk voor je andere PI). En de verwijzing aanmaken voor je nieuwe PI met docker.

[ Voor 20% gewijzigd door Forceworks op 04-01-2022 16:43 ]


Acties:
  • +1 Henk 'm!

  • c-nan
  • Registratie: Juni 2008
  • Laatst online: 29-05 08:41
Ik heb niet alles gelezen en ik ken caddy verder ook niet, maar ik weet wel min of meer wat http response codes betekenen.

Een 502 is dat je caddy container geen verbinding kan opzetten met je target (192.168.0.200:8443). Dat kan komen door TLS/SSL maar ook grofweg routering.

Wat doet dit:
code:
1
docker exec -ti <caddy container> bash


En vervolgens:
code:
1
curl 192.168.0.200:8443 -H "Host: domoticz.DOMEIN.nl"


Eventueel in verbose mode ("-v").

[ Voor 4% gewijzigd door c-nan op 04-01-2022 18:48 ]


Acties:
  • +2 Henk 'm!

  • rens-br
  • Registratie: December 2009
  • Laatst online: 17:46

rens-br

Admin IN & Moderator Mobile
ravedek schreef op dinsdag 4 januari 2022 @ 13:55:
Voorheen had ik poort 80 en 443 als mapping, dus helaas geen ervaring met een andere mapping (wel bij andere containers en dat werkt goed). Had je de logs van Caddy al bekeken?
code:
1
docker logs caddy
code:
1
{"level":"error","ts":1641371435.5467937,"logger":"http.log.error","msg":"x509: cannot validate certificate for 192.168.0.201 because it doesn't contain any IP SANs","request":{"remote_addr":"159.100.87.98:46839","proto":"HTTP/1.1","method":"GET","host":"domoticz.DOMEIN.nl","uri":"/json","headers":{"Sec-Websocket-Key":["ToLzImflSN1NuldbcS4LwQ=="],"Sec-Websocket-Protocol":["domoticz"],"Upgrade":["websocket"],"Accept-Encoding":["gzip, deflate, br"],"Accept-Language":["nl-NL,nl;q=0.9,en-US;q=0.8,en;q=0.7"],"Pragma":["no-cache"],"Cookie":["DMZSID=db6b5005fb806dabe2d0b9ae6866e3c3_N2U0NjBiODYtOWU5Mi00MDZjLThlYzItYWExZjc5ZWFjNTY5.1643800053"],"Sec-Websocket-Extensions":["permessage-deflate; client_max_window_bits"],"Connection":["Upgrade"],"Cache-Control":["no-cache"],"User-Agent":["Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36"],"Origin":["https://domoticz.DOMEIN.nl"],"Sec-Websocket-Version":["13"]},"tls":{"resumed":false,"version":772,"cipher_suite":4867,"proto":"","proto_mutual":true,"server_name":"domoticz.DOMEIN.nl"}},"duration":0.070942657,"status":502,"err_id":"euu3b248z","err_trace":"reverseproxy.statusError (reverseproxy.go:886)"}
Forceworks schreef op dinsdag 4 januari 2022 @ 16:40:
Ik zie nu pas dat je 446 en 83 in je configuratie hebt gedefinieerd. Dit MOET 443 en 80 zijn, die moeten 1-op-1 mappen. Dat is de dedicated poort voor HTTPS en HTTP verkeer anders snapt een browser het niet. (tenzij expliciet meegegeven)
Dit heb ik net even aangepast en getest, maar dat werkt ook niet.

Ik heb de hoop ook opgegeven om Caddy werkend te krijgen en heb nu Ngnix Proxy Manager geïnstalleerd en had dat draaiend binnen 5 minuten.

Voordeel is ook meteen dat het door de userinterface een heel stuk gebruikersvriendelijker is.

Allen in ieder geval bedankt voor het meedenken!

[ Voor 53% gewijzigd door rens-br op 05-01-2022 10:55 ]


Acties:
  • +2 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 00:45

Mars Warrior

Earth, the final frontier

rens-br schreef op woensdag 5 januari 2022 @ 10:10:
[...]
Ik heb de hoop ook opgegeven om Caddy werkend te krijgen en heb nu Ngnix Proxy Manager geïnstalleerd en had dat draaiend binnen 5 minuten.

Voordeel is ook meteen dat het door de userinterface een heel stuk gebruikersvriendelijker is.

Allen in ieder geval bedankt voor het meedenken!
Fijn dat het nu bij jou werkt. NPM is factoren eenvoudiger dan Caddy en Traefik. In de tijd dat je de basis documentatie doorneemt van Caddy of Traefik heb je NPM allang draaien _/-\o_

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • rens-br
  • Registratie: December 2009
  • Laatst online: 17:46

rens-br

Admin IN & Moderator Mobile
Mars Warrior schreef op woensdag 5 januari 2022 @ 11:37:
[...]

Fijn dat het nu bij jou werkt. NPM is factoren eenvoudiger dan Caddy en Traefik. In de tijd dat je de basis documentatie doorneemt van Caddy of Traefik heb je NPM allang draaien _/-\o_
Helemaal mee eens. Ik had de switch veel eerder moeten doen.

Met NPM had er ook geen moeite mee dat ik andere poorten gebruik dan 443 en 80. Nog een bijkomend voordeel.

Acties:
  • 0 Henk 'm!

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 19-05 18:48
rens-br schreef op woensdag 5 januari 2022 @ 10:10:
[...]


Ik heb de hoop ook opgegeven om Caddy werkend te krijgen en heb nu Ngnix Proxy Manager geïnstalleerd en had dat draaiend binnen 5 minuten.

Voordeel is ook meteen dat het door de userinterface een heel stuk gebruikersvriendelijker is.

Allen in ieder geval bedankt voor het meedenken!
5 minuten is best vlot. Kostte bij mij nog wel enig uitzoekwerk hoe alles goed in te stellen, maar uiteindelijk werkt het middels aantal duckdns-subdomeinen. die dan naar verschillende poorten doorverwijzen op de RPi4.

Bijkomend voordeel is dat ik die sites nu ook kan benaderen vanaf kantoor want daar werkt ip-adres:poort niet. :-)

aka pluim003


Acties:
  • 0 Henk 'm!

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 19-05 18:48
Gisteren geplaatst in het Pihole-ervaringen-topic omdat ik hoopte dat iemand dit fenomeen daar herkende en ik dit ervaringen-topic nog niet kende, maar daar werd ik dan mooi naar toeverwezen.


Ik draai Pihole in een docker container op een Raspberry pi4. Dat draait als een zonnetje en zo draait er ook nog homeassistant. Net zat ik eens in de syslog te kijken en zag het volgende:

Jan 8 19:16:36 raspberrypi systemd[705]: run-docker-runtime\x2drunc-moby-30027dc1f14fbb2e6b972dce62f2d0613a8f8bf6af662d63185d8ac5b5faf499-runc.a3CNN7.mount: Succeeded.
Jan 8 19:16:36 raspberrypi systemd[1]: run-docker-runtime\x2drunc-moby-30027dc1f14fbb2e6b972dce62f2d0613a8f8bf6af662d63185d8ac5b5faf499-runc.a3CNN7.mount: Succeeded.

En die meldingen komen elke 30 seconden. Lijkt op iets met docker, maar waarom ik hier kom... het genoemde id achter moby is het id van de pihole-container. Waarom zou deze elke 30 seconden iets moeten gaan mounten?

aka pluim003


Acties:
  • +1 Henk 'm!

  • ravedek
  • Registratie: Juli 2011
  • Niet online
DikkieDick schreef op zondag 9 januari 2022 @ 08:54:
Gisteren geplaatst in het Pihole-ervaringen-topic omdat ik hoopte dat iemand dit fenomeen daar herkende en ik dit ervaringen-topic nog niet kende, maar daar werd ik dan mooi naar toeverwezen.


Ik draai Pihole in een docker container op een Raspberry pi4. Dat draait als een zonnetje en zo draait er ook nog homeassistant. Net zat ik eens in de syslog te kijken en zag het volgende:

Jan 8 19:16:36 raspberrypi systemd[705]: run-docker-runtime\x2drunc-moby-30027dc1f14fbb2e6b972dce62f2d0613a8f8bf6af662d63185d8ac5b5faf499-runc.a3CNN7.mount: Succeeded.
Jan 8 19:16:36 raspberrypi systemd[1]: run-docker-runtime\x2drunc-moby-30027dc1f14fbb2e6b972dce62f2d0613a8f8bf6af662d63185d8ac5b5faf499-runc.a3CNN7.mount: Succeeded.

En die meldingen komen elke 30 seconden. Lijkt op iets met docker, maar waarom ik hier kom... het genoemde id achter moby is het id van de pihole-container. Waarom zou deze elke 30 seconden iets moeten gaan mounten?
Volgens deze issue wordt dit veroorzaakt door de health check van Docker. Voor elke check worden de regels aangemaakt in de syslog. Er staan ook workarounds genoemd om het spammen te stoppen.
Blijkbaar speelt dit al een tijdje. Zal mijn eigen logs ook maar eens bekijken... :/

[ Voor 9% gewijzigd door ravedek op 09-01-2022 10:16 ]


Acties:
  • 0 Henk 'm!

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 19-05 18:48
ravedek schreef op zondag 9 januari 2022 @ 09:41:
[...]


Volgens deze issue wordt dit veroorzaakt door de health check van Docker. Voor elke check worden de regels aangemaakt in de syslog. Er staan ook workarounds genoemd om het spammen te stoppen.
Blijkbaar speelt dit al een tijdje. Zal mijn eigen logs ook maar eens bekijken... :/
Soms is de oplossing zo simpel. --no-healthcheck toegevoegd en het is voorbij. :-)
Thanx. Waarom de pihole-container de enige is die dit doet is mij een raadsel.

aka pluim003


Acties:
  • +1 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 00:45

Mars Warrior

Earth, the final frontier

DikkieDick schreef op zondag 9 januari 2022 @ 10:44:
[...]
Soms is de oplossing zo simpel. --no-healthcheck toegevoegd en het is voorbij. :-)
Thanx. Waarom de pihole-container de enige is die dit doet is mij een raadsel.
Health checks zijn ‘hip’ en zijn heel normaal als je bijv kubernetes (of k3s, k0s) draait: het hoort bij de failover functionaliteit.

Steeds meer containers hebben het nu ingebouwd. Voor thuis is het niet echt relevant en kost het enkel cpu en dus extra stroom: ik draai op een servertje zo’n 30 containers waarvan meer als de helft elke 5 sec een health check doen met als resultaat een constante load van 15-20% cpu.

Zet ik de health check uit of erg lang, dan zakt de cpu load naar 1-3% :D

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 19-05 18:48
Mars Warrior schreef op zondag 9 januari 2022 @ 11:32:
[...]

Health checks zijn ‘hip’ en zijn heel normaal als je bijv kubernetes (of k3s, k0s) draait: het hoort bij de failover functionaliteit.

Steeds meer containers hebben het nu ingebouwd. Voor thuis is het niet echt relevant en kost het enkel cpu en dus extra stroom: ik draai op een servertje zo’n 30 containers waarvan meer als de helft elke 5 sec een health check doen met als resultaat een constante load van 15-20% cpu.

Zet ik de health check uit of erg lang, dan zakt de cpu load naar 1-3% :D
Aha, tja, ik draai het op een Raspberry Pi4 en dan is het minder spannend. Maak regelmatig backups van de volumes met de 'belangrijke' data. Bedenk me wel dat het ook wel handig is de scripts om de containers aan te maken te backuppen. :-)
Heb de Pi sinds ruim een maandje en had ook nog niet de behoefte gehad in de syslog te kijken maar nadat ik er gisteren een SSD aan had gehangen was ik wel nieuwsgierig genoeg.

aka pluim003


Acties:
  • +1 Henk 'm!

  • rens-br
  • Registratie: December 2009
  • Laatst online: 17:46

rens-br

Admin IN & Moderator Mobile
DikkieDick schreef op zondag 9 januari 2022 @ 08:52:
[...]


5 minuten is best vlot. Kostte bij mij nog wel enig uitzoekwerk hoe alles goed in te stellen, maar uiteindelijk werkt het middels aantal duckdns-subdomeinen. die dan naar verschillende poorten doorverwijzen op de RPi4.
Ik had domein, DuckDNS, etc. al ingesteld van mijn oude setup, ik hoefde de boel dus alleen te installeren.

Acties:
  • 0 Henk 'm!

  • HF5236
  • Registratie: Augustus 2020
  • Laatst online: 20:02
Hallo Allen,

Ik heb al een tijdje een aantal docker containers draaien op mijn Synology NAS en maak hierbij ook gebruik van Portainer. Nu heb ik een bepaalde container die een image gebruikt waarbij de verwijzing naar een versienummer wordt gemaakt.

Nu zou ik graag een nieuwere versie gebruiken van de de software alleen ik kan maar niet vinden hoe ik de juiste versie kan koppelen aan de container. Kan iemand mij vertellen hoe ik dit wijzig

Om het concreet te maken, de imagetag is nu
koenkk/zigbee2mqtt:1.17.0 , dit wil ik wijzigen in koenkk/zigbee2mqtt:latest

Acties:
  • 0 Henk 'm!

  • akimosan
  • Registratie: Augustus 2003
  • Niet online
Ervanuit gaande dat je geen non-persistent configuratie hebt:

https://www.wundertech.ne...ontainer-using-portainer/

Acties:
  • +1 Henk 'm!

  • Oon
  • Registratie: Juni 2019
  • Niet online

Oon

rens-br schreef op woensdag 5 januari 2022 @ 10:10:
[...]


code:
1
{"level":"error","ts":1641371435.5467937,"logger":"http.log.error","msg":"x509: cannot validate certificate for 192.168.0.201 because it doesn't contain any IP SANs","request":{"remote_addr":"159.100.87.98:46839","proto":"HTTP/1.1","method":"GET","host":"domoticz.DOMEIN.nl","uri":"/json","headers":{"Sec-Websocket-Key":["ToLzImflSN1NuldbcS4LwQ=="],"Sec-Websocket-Protocol":["domoticz"],"Upgrade":["websocket"],"Accept-Encoding":["gzip, deflate, br"],"Accept-Language":["nl-NL,nl;q=0.9,en-US;q=0.8,en;q=0.7"],"Pragma":["no-cache"],"Cookie":["DMZSID=db6b5005fb806dabe2d0b9ae6866e3c3_N2U0NjBiODYtOWU5Mi00MDZjLThlYzItYWExZjc5ZWFjNTY5.1643800053"],"Sec-Websocket-Extensions":["permessage-deflate; client_max_window_bits"],"Connection":["Upgrade"],"Cache-Control":["no-cache"],"User-Agent":["Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.110 Safari/537.36"],"Origin":["https://domoticz.DOMEIN.nl"],"Sec-Websocket-Version":["13"]},"tls":{"resumed":false,"version":772,"cipher_suite":4867,"proto":"","proto_mutual":true,"server_name":"domoticz.DOMEIN.nl"}},"duration":0.070942657,"status":502,"err_id":"euu3b248z","err_trace":"reverseproxy.statusError (reverseproxy.go:886)"}



[...]


Dit heb ik net even aangepast en getest, maar dat werkt ook niet.

Ik heb de hoop ook opgegeven om Caddy werkend te krijgen en heb nu Ngnix Proxy Manager geïnstalleerd en had dat draaiend binnen 5 minuten.

Voordeel is ook meteen dat het door de userinterface een heel stuk gebruikersvriendelijker is.

Allen in ieder geval bedankt voor het meedenken!
Misschien net te laat, maar ik gebruik al een tijdje met veel succes https://github.com/lucaslorentz/caddy-docker-proxy om Caddy direct aan Docker te hangen. Je kan daarbij met labels je Caddyfile opbouwen, en makkelijk per service schakelen.

Nginx Proxy Manager moet ik ook nog eens uitproberen, misschien dat dat veel fijner is, maar iemand had mij Caddy aangeraden en toen ben ik eens gaan zoeken want ik kreeg het met een hardcoded Caddyfile ook niet aan de praat..

Acties:
  • 0 Henk 'm!

  • HF5236
  • Registratie: Augustus 2020
  • Laatst online: 20:02
Ik heb deze inderdaad gevolgd alleen omdat mn image verwijst naar versie 1.17.0 haalt ie deze versie weer op.

Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 22:20
@HF5236 Ik heb geen zin om de video te kijken om te achterhalen hoe je config eruit ziet, maar voor Docker geldt: Als je geen versienummer invult pakt hij automatisch :latest

Acties:
  • 0 Henk 'm!

  • HF5236
  • Registratie: Augustus 2020
  • Laatst online: 20:02
Ha lolgast,

Dat klopt, alleen bij mij ziet de verwijzing van de image er zo uit, ik kom er niet achter hoe ik dit wijzig


Afbeeldingslocatie: https://tweakers.net/i/SqfEWBRXWTAObcxrtXt79DwCNxE=/800x/filters:strip_exif()/f/image/gDHrPOJ44VcATnqVSZOSruzb.png?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • lolgast
  • Registratie: November 2006
  • Laatst online: 22:20
@HF5236 Door een nieuwe container te starten. Dat kan volgens mij vanuit Portainer door 'recreate' te kiezen en de image aan te passen (gok ik, laatste keer dat ik Portainer gebruikte was 2 jaar geleden) Of door simpelweg een compleet nieuwe container te maken waarbij je alles opnieuw instelt en dan meteen de juiste image te kiezen.
Dan zul je wel eerst deze moeten verwijderen, want met 2 containers naar dezelfde data en/of USB device kijken is volgens mij niet mogelijk.

offtopic:
Ik weet nu ook weer waarom ik Portainer maar ruk vind

[ Voor 6% gewijzigd door lolgast op 11-01-2022 10:57 ]


Acties:
  • +3 Henk 'm!

  • HF5236
  • Registratie: Augustus 2020
  • Laatst online: 20:02
Ik ben er uit,

in plaats van recreate kan je kiezen voor duplicate, dan pas je de verwijzing van de image aan en kies je deploy. Dan vervangt hij de oude versie voor de nieuwe :)

Acties:
  • +1 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 30-03 22:57
HF5236 schreef op dinsdag 11 januari 2022 @ 11:27:
Ik ben er uit,

in plaats van recreate kan je kiezen voor duplicate, dan pas je de verwijzing van de image aan en kies je deploy. Dan vervangt hij de oude versie voor de nieuwe :)
De beste methode (vind ik) blijft toch om docker-compose te gebruiken.. :)

Acties:
  • 0 Henk 'm!

  • Toppe
  • Registratie: Januari 2004
  • Laatst online: 19:07

Toppe

Oké ✅

Wellicht dat iemand hier mij op weg kan/wil helpen... Ik doe wat fout, maar wat?

Ik probeer HA te installeren volgens deze methode: https://www.home-assistan...tion/linux#docker-compose

Nu heb ik gelezen dat de compose optie veruit de 'makkelijkste' is. Maar ik loop vast op het stukje volumes.
Ik wil namelijk graag een 'eigen' volume aanmaken met docker volume create homeassistant_data om die volume te gebruiken in docker-compose:
code:
1
2
    volumes:
      - homeassistant_data:/config


Ik doe wat fout, maar wat? Moet ik met docker-compose helemaal geen eigen volumes aanmaken? Hoe zorg ik dan dat alles netjes in de zelfde locatie terecht komt?

Moet ik dan na het aanmaken van de volume het volledige pad opgeven? dus /var/lib/docker/volumes/homeassistant_data? werkt niet.

[ Voor 9% gewijzigd door Toppe op 20-01-2022 11:40 ]

Donstil: Je moet kopen wat je wilt hebben. Niet wat je nodig hebt!


Acties:
  • 0 Henk 'm!

  • Webgnome
  • Registratie: Maart 2001
  • Laatst online: 19:12
Ik zou zeggen lees je eerst even in hoe dat docker compose werkt. Een volume in een compose file is een mapping tussen een directory op je host en die in de docker container. Wat je dus zal moeten doen is die homeassistent_data moeten vervangen door bijvoorbeeld iets als /var/data/homeassistent/config:/config

Strava | AP | IP | AW


Acties:
  • 0 Henk 'm!

  • Hathi
  • Registratie: Mei 2012
  • Laatst online: 23:31
Je kan in docker compose ook gewoon named volumes gebruiken, maar die moet je wel eerst aangemaakt hebben, dat aanmaken gaat dus buiten docker compose om.
Dus eerst volume aanmaken met docker volume create homeassistant_data en daarna die homeassistant_data gebruiken in je docker compose file.

Acties:
  • 0 Henk 'm!

  • Webgnome
  • Registratie: Maart 2001
  • Laatst online: 19:12
de docker compose maakt die volumes toch automatisch aan bij de eerste keer launchen?

Strava | AP | IP | AW


Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 30-03 22:57
Webgnome schreef op donderdag 20 januari 2022 @ 12:46:
de docker compose maakt die volumes toch automatisch aan bij de eerste keer launchen?
Zolang je dat opgeeft in je compose file.

Acties:
  • 0 Henk 'm!

  • Toppe
  • Registratie: Januari 2004
  • Laatst online: 19:07

Toppe

Oké ✅

Hathi schreef op donderdag 20 januari 2022 @ 12:20:
Je kan in docker compose ook gewoon named volumes gebruiken, maar die moet je wel eerst aangemaakt hebben, dat aanmaken gaat dus buiten docker compose om.
Dus eerst volume aanmaken met docker volume create homeassistant_data en daarna die homeassistant_data gebruiken in je docker compose file.
Dat dacht ik dus ook. Als ik de docker-compose.yml aanpas en geef daar bij het volume homeassistant_data:/config mee dan krijg ik een fout melding:
ERROR: Named volume "homeassistant_data:/config:rw" is used in service "homeassistant" but no declaration was found in the volumes section.
Blijft de vraag, hoe zorg ik dat ik in een docker-compose een zelf gemaakt volume kan laten gebruiken, of dat hij zelf een volume aanmaakt onder de normale locatie namelijk /var/lib/docker/volumes/

Donstil: Je moet kopen wat je wilt hebben. Niet wat je nodig hebt!


Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 21:56
@Toppe
Je moet deze dan aangeven in de compose file.
https://docs.docker.com/s...olume-with-docker-compose

Als je in plaats hiervan zoiets als /pad/op/host gebruikt dan is dit niet nodig.

Dit zijn twee verschillende manieren van werken.

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • Toppe
  • Registratie: Januari 2004
  • Laatst online: 19:07

Toppe

Oké ✅

technorabilia schreef op donderdag 20 januari 2022 @ 13:09:
@Toppe
Je moet deze dan aangeven in de compose file.
https://docs.docker.com/s...olume-with-docker-compose

Als je in plaats hiervan zoiets als /pad/op/host gebruikt dan is dit niet nodig.

Dit zijn twee verschillende manieren van werken.
Check, dank je wel! Deze doet het wel in een zelf gemaakt volume:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
version: '3'
services:
  homeassistant:
    container_name: homeassistant
    image: "ghcr.io/home-assistant/home-assistant:stable"
    volumes:
      - homeassistant_data:/config
      - /etc/localtime:/etc/localtime:ro
    restart: unless-stopped
    privileged: true
    network_mode: host
volumes:
  homeassistant_data:
    external: true

Als ik regel 14 weg laat maakt hij automatisch een volume aan met de username er voor. In dit geval pi_homeassistant_data.

Nu even testen of de data behouden blijft na een update of wat :)

Donstil: Je moet kopen wat je wilt hebben. Niet wat je nodig hebt!


Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 21:56
Toppe schreef op donderdag 20 januari 2022 @ 13:14:
Als ik regel 14 weg laat maakt hij automatisch een volume aan met de username er voor. In dit geval pi_homeassistant_data.
Dat is niet de user maar de directory waarin je de docker-compose up -d doet.

Edit:
Sommigen geven de voorkeur aan de /pad/naar/ha/config optie omdat je deze dan makkelijk kunt benaderen, backuppen etc.

Beide hebben voor- en nadelen.

[ Voor 19% gewijzigd door technorabilia op 20-01-2022 13:22 ]

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • Toppe
  • Registratie: Januari 2004
  • Laatst online: 19:07

Toppe

Oké ✅

technorabilia schreef op donderdag 20 januari 2022 @ 13:20:
[...]


Dat is niet de user maar de directory waarin je de docker-compose up -d doet.
My bad. Zat in de home dir van user Pi. Dat verklaart dus wel het een en ander.

Normaal kopieer en plak ik maar wat, zolang het maar werkte. Nu ga ik m'n servetje een reset geven en wil dus alles wel netjes doen. Had verwacht dat Docker eenvoudiger zou werken maar dat kan ook aan mijn kennis liggen ;)
Edit:
Sommigen geven de voorkeur aan de /pad/naar/ha/config optie omdat je deze dan makkelijk kunt benaderen, backuppen etc.
Als je het path naar de volumes weet is de uiteindelijke werking toch het zelfde?

[ Voor 18% gewijzigd door Toppe op 20-01-2022 13:25 ]

Donstil: Je moet kopen wat je wilt hebben. Niet wat je nodig hebt!


Acties:
  • +1 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 21:56
Toppe schreef op donderdag 20 januari 2022 @ 13:24:
Als je het path naar de volumes weet is de uiteindelijke werking toch het zelfde?
Ja, misschien wel.
Zelf heb ik het liever in een zelfgekozen directory dan ergens in een docker directory.
Maar dat is persoonlijke voorkeur.

Volumes hebben ook een aantal voordelen:
https://docs.docker.com/storage/volumes/

👉🏻 Blog 👈🏻


Acties:
  • +1 Henk 'm!

  • RobertMe
  • Registratie: Maart 2009
  • Laatst online: 00:16
Toppe schreef op donderdag 20 januari 2022 @ 13:14:
Als ik regel 14 weg laat maakt hij automatisch een volume aan met de username er voor. In dit geval pi_homeassistant_data.
Ter aanvulling op de post van @technorabilia. "pi" is noch van de username noch de naam van de map. "pi" is de naam van het project en alles wat door deze docker-compose file wordt aangemaakt en geen expliciete naam heeft wordt geprefixed met de naam van het project (+ een underscore dan). Op het moment dat er geen projectnaam is opgegeven default deze echter wel naar de naam van de huidige map. Deze naam aanpassen kan IIRC door in dezelfde map een .env file te maken met een COMPOSE_PROJECT_NAME variable er in, dus COMPOSE_PROJECT_NAME=test en vervolgens wordt alles met test_ geprefixt. Houd hier dus ook rekening mee als je of de map hernoemd of de docker-compose file verplaatst. Bij een volgende up zal die dus alles nieuw (als in, dubbel) aanmaken tenzij je expliciet een project naam hebt opgegeven.

Acties:
  • 0 Henk 'm!

  • S1NN3D
  • Registratie: Oktober 2011
  • Niet online
Als ik op “Authelia” zoek, vind ik bijzonder weinig posts over deze container. Maar iemand dit draaiend gekregen op een Synology NAS?

Ben sinds een paar weken met Docker bezig en er al doende en met alle online info al een heel eind mee gekomen en een stuk of 20 container draaien. Maar Authelia krijg ik maar niet echt aan de praat. In de allerlaatste stap gaat het volgens mij mis en ik krijg het maar niet opgelost.

Wat ging goed
- Domein geregistreerd;
- DNS omgezet naar Cloudflare en daar SSL certificaten aangemaakt;
- CNAMES gemaakt voor subdomeinen;
- Nginx Proxy Manager draait;
- Gemaakte reverse proxies werken;
- Authelia draait, 2FA via Authy is ingesteld.

Laatste stap (denk ik)
Als laatste moeten de subdomeinen achter Authelia komen. Maar als ik die stukjes config in Nginx toevoeg bij de respectievelijke reverse proxy, is het direct stuk. Er zijn diverse tutorials online te vinden; de strekking en voorbeeld configs zijn nagenoeg allemaal gelijk. Maar welke ik ook als referentie gebruik, vlak voor de spreekwoordelijke finish gaat het toch mis. Iemand dit werkend gekregen?

Acties:
  • +1 Henk 'm!

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 19-05 18:48
technorabilia schreef op donderdag 20 januari 2022 @ 13:20:
[...]


Dat is niet de user maar de directory waarin je de docker-compose up -d doet.

Edit:
Sommigen geven de voorkeur aan de /pad/naar/ha/config optie omdat je deze dan makkelijk kunt benaderen, backuppen etc.

Beide hebben voor- en nadelen.
Bij mij geniet de voorkeur toch om die volumes op 1 plek te hebben en niet onder /home/pi/subdir
Qua backuppen zal het allemaal niet veel uitmaken. Ik heb een redelijk generiek backupscript om die volumes te backuppen.
Voor de liefhebber een voorbeeldje:

Bash:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
pi@raspberrypi:~/scripts $ cat backup_nginx.sh
#!/bin/bash

CONTAINER=nginx
RUNNING_CONTAINER=$(docker container ls -q --filter name=${CONTAINER}*)
CONTAINER_VOL1=/data
CONTAINER_VOL2=/etc/letsencrypt
CONTAINER_VOL3=
BACKUP_DIR=/mnt/pi-backup/${CONTAINER}
TODAY=$(date +"%Y%m%d_%H%M")

if [ ! -d "${BACKUP_DIR}" ] ; then
   mkdir ${BACKUP_DIR}
fi

# docker stop ${RUNNING_CONTAINER}

docker run --rm  --volumes-from ${CONTAINER} -v ${BACKUP_DIR}:/backup busybox tar cvpfz /backup/${CONTAINER}cfg_${TODAY}.tgz ${CONTAINER_VOL1} ${CONTAINER_VOL2} ${CONTAINER_VOL3}

# docker start ${RUNNING_CONTAINER}

# check en verwijder backupfiles ouder dan 7 dagen

find ${BACKUP_DIR}/${CONTAINER}cfg*  -mtime +7 -exec ls -ltr  {} \;
find ${BACKUP_DIR}/${CONTAINER}cfg*.tgz -mtime +7 -exec rm {} \;
find ${BACKUP_DIR}/${CONTAINER}cfg*  -mtime +7 -exec ls -ltr  {} \;


In dit specifieke geval is het IMHO niet nodig de container te stoppen en te starten. Soms gebruik ik ook pause en unpause maar dat gaat ook weer niet overal goed.

En /mnt/pi-backup is een directory op mijn NAS.

[ Voor 0% gewijzigd door DikkieDick op 04-02-2022 17:07 . Reden: klein foutje verbeterd. De rm ontbrak en bevatte ook weer een regel met ls ]

aka pluim003


Acties:
  • 0 Henk 'm!

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 19-05 18:48
Hmm... er is voor de Raspberry Pi een officiële 64bits versie en omdat ik zowel sd als ssd heb, waarvan ik de sd niet gebruik hier 64bits os op geflasht. Van de SSD /var/lib/docker/* gekopieerd naar de sd. En dan maar starten. Dat gaat op zich goed. Meeste containers draaien netjes. Alleen pihole-unbound mekkerde maar na een nieuwe pull ging dat goed.
Nou heb ik een eigen image influxdb-grafana-telegraf (github-fork van een repository welke al sinds 2018 niet meer werd bijgewerkt en waar ik wat nieuw leven in heb gebracht door de onderliggende versies te upgraden) en dat leek goed te gaan, echter is Grafana van de 3 de enige die niet wil starten en continu blijft mekkeren dat ie de config niet kan vinden die 'gewoon' op de default plek staat.
Ook nieuwe image maken met als bron een arm64/v8 Debian haalt ook niets uit. Blijft zelfde melding geven. Dus nog maar niet sd naar ssd gekopieerd, maar weer van ssd met 32bits os opgestart. Iets voor de Grafana-community vrees ik. Of heeft iemand nog een briljant idee. Enige wat ik hoef te doen om van de sd te starten is 'even' /var/lib/docker/volumes te verversen op de sd met de laatste status van de volumes op de ssd.

Update: soms is het zo simpel. Ik had als root een kopie gemaakt van /var/lib/docker/volumes op de ssd naar de /var/lib/docker op sd. Maakt ie overal owner root van, terwijl Grafana in zijn of haar volumes graag zelf owner is van bepaalde bestanden. Dat aangepast en nog een herstart gedaan en nu deed ie het.

[ Voor 11% gewijzigd door DikkieDick op 09-02-2022 08:24 ]

aka pluim003


Acties:
  • 0 Henk 'm!

  • Kimi-Alonso
  • Registratie: Juli 2006
  • Niet online
S1NN3D schreef op zondag 23 januari 2022 @ 16:01:
Als ik op “Authelia” zoek, vind ik bijzonder weinig posts over deze container. Maar iemand dit draaiend gekregen op een Synology NAS?

Ben sinds een paar weken met Docker bezig en er al doende en met alle online info al een heel eind mee gekomen en een stuk of 20 container draaien. Maar Authelia krijg ik maar niet echt aan de praat. In de allerlaatste stap gaat het volgens mij mis en ik krijg het maar niet opgelost.

Wat ging goed
- Domein geregistreerd;
- DNS omgezet naar Cloudflare en daar SSL certificaten aangemaakt;
- CNAMES gemaakt voor subdomeinen;
- Nginx Proxy Manager draait;
- Gemaakte reverse proxies werken;
- Authelia draait, 2FA via Authy is ingesteld.

Laatste stap (denk ik)
Als laatste moeten de subdomeinen achter Authelia komen. Maar als ik die stukjes config in Nginx toevoeg bij de respectievelijke reverse proxy, is het direct stuk. Er zijn diverse tutorials online te vinden; de strekking en voorbeeld configs zijn nagenoeg allemaal gelijk. Maar welke ik ook als referentie gebruik, vlak voor de spreekwoordelijke finish gaat het toch mis. Iemand dit werkend gekregen?
Ik heb het onlangs bij mijzelf werkend gekregen middels https://www.youtube.com/watch?v=4UKOh3ssQSU.

Weliswaar zonder 2F authy maar hopelijk helpt dit je opweg!

Acties:
  • 0 Henk 'm!

  • S1NN3D
  • Registratie: Oktober 2011
  • Niet online
Kimi-Alonso schreef op woensdag 9 februari 2022 @ 12:53:
[...]


Ik heb het onlangs bij mijzelf werkend gekregen middels https://www.youtube.com/watch?v=4UKOh3ssQSU.

Weliswaar zonder 2F authy maar hopelijk helpt dit je opweg!
Thanks voor de reactie. Ik had deze tutorial gezien. Als ik die volg, blijf ik ook hangen bij de allerlaatste stap. Op het moment dat ik de config voor een protected domain toevoeg in Nginx Proxy Manager, is het stuk en niet meer bereikbaar. Het probleem zal dus vast in die config zitten maar hoeveel variaties ik ook gevonden en geprobeerd heb; ik krijg het niet aan de praat.

Acties:
  • 0 Henk 'm!

  • Kimi-Alonso
  • Registratie: Juli 2006
  • Niet online
S1NN3D schreef op woensdag 9 februari 2022 @ 13:02:
[...]

Thanks voor de reactie. Ik had deze tutorial gezien. Als ik die volg, blijf ik ook hangen bij de allerlaatste stap. Op het moment dat ik de config voor een protected domain toevoeg in Nginx Proxy Manager, is het stuk en niet meer bereikbaar. Het probleem zal dus vast in die config zitten maar hoeveel variaties ik ook gevonden en geprobeerd heb; ik krijg het niet aan de praat.
Het zou moeten werken als je de tutorial exact volgt :)

Misschien kun je het eerst proberen met one-factor authenticatie om te zien of het dan wel werkt.

Heb je ook specifieke container_names aangemaakt waar je naar refereert in je nginx config?

Acties:
  • 0 Henk 'm!

  • S1NN3D
  • Registratie: Oktober 2011
  • Niet online
Kimi-Alonso schreef op woensdag 9 februari 2022 @ 13:21:
[...]


Het zou moeten werken als je de tutorial exact volgt :)
Meerdere keren van 0 begonnen maar toch zonder resultaat.
Misschien kun je het eerst proberen met one-factor authenticatie om te zien of het dan wel werkt.
Dat had ik nog niet geprobeerd. Nu wel maar ik blijf op het allerlaatste moment tegen een voor mij niet te achterhalen fout lopen. Alleen de advanced config in Nginx voor het te beschermen domein moet er nog bij en dan loopt het mis.
Heb je ook specifieke container_names aangemaakt waar je naar refereert in je nginx config?
Zeker, en op een custom docker netwerk.

Acties:
  • 0 Henk 'm!

  • Kimi-Alonso
  • Registratie: Juli 2006
  • Niet online
S1NN3D schreef op woensdag 9 februari 2022 @ 16:30:
[...]

Meerdere keren van 0 begonnen maar toch zonder resultaat.


[...]

Dat had ik nog niet geprobeerd. Nu wel maar ik blijf op het allerlaatste moment tegen een voor mij niet te achterhalen fout lopen. Alleen de advanced config in Nginx voor het te beschermen domein moet er nog bij en dan loopt het mis.


[...]

Zeker, en op een custom docker netwerk.
Kan je die config eens laten zien?

  • S1NN3D
  • Registratie: Oktober 2011
  • Niet online
Kimi-Alonso schreef op woensdag 9 februari 2022 @ 16:37:
[...]


Kan je die config eens laten zien?
Natuurlijk, zie onderstaand. Deze is op basis van de tutorial en sjabloon van DB Tech. Ik heb ook varianten hierop gevonden en getest.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
location /authelia {
internal;
set $upstream_authelia http://192.168.1.111:9091/api/verify; #change the IP and Port to match the IP and Port of your Authelia container
proxy_pass_request_body off;
proxy_pass $upstream_authelia;    
proxy_set_header Content-Length "";

# Timeout if the real server is dead
proxy_next_upstream error timeout invalid_header http_500 http_502 http_503;
client_body_buffer_size 128k;
proxy_set_header Host $host;
proxy_set_header X-Original-URL $scheme://$http_host$request_uri;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $remote_addr; 
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header X-Forwarded-Host $http_host;
proxy_set_header X-Forwarded-Uri $request_uri;
proxy_set_header X-Forwarded-Ssl on;
proxy_redirect  http://  $scheme://;
proxy_http_version 1.1;
proxy_set_header Connection "";
proxy_cache_bypass $cookie_session;
proxy_no_cache $cookie_session;
proxy_buffers 4 32k;

send_timeout 5m;
proxy_read_timeout 240;
proxy_send_timeout 240;
proxy_connect_timeout 240;
}

location / {
set $upstream_linuxserver-heimdall $forward_scheme://$server:$port;
proxy_pass $upstream_linuxserver-heimdall;

auth_request /authelia;
auth_request_set $target_url https://$http_host$request_uri;
auth_request_set $user $upstream_http_remote_user;
auth_request_set $email $upstream_http_remote_email;
auth_request_set $groups $upstream_http_remote_groups;
proxy_set_header Remote-User $user;
proxy_set_header Remote-Email $email;
proxy_set_header Remote-Groups $groups;

error_page 401 =302 https://authelia.MIJNDOMEIN.nl/?rd=$target_url; #change this to match your authentication domain/subdomain

client_body_buffer_size 128k;

proxy_next_upstream error timeout invalid_header http_500 http_502 http_503;

send_timeout 5m;
proxy_read_timeout 360;
proxy_send_timeout 360;
proxy_connect_timeout 360;

proxy_set_header Host $host;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection upgrade;
proxy_set_header Accept-Encoding gzip;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header X-Forwarded-Host $http_host;
proxy_set_header X-Forwarded-Uri $request_uri;
proxy_set_header X-Forwarded-Ssl on;
proxy_redirect  http://  $scheme://;
proxy_http_version 1.1;
proxy_set_header Connection "";
proxy_cache_bypass $cookie_session;
proxy_no_cache $cookie_session;
proxy_buffers 64 256k;

set_real_ip_from 192.168.1.0/24; #make sure this matches your network setup
real_ip_header CF-Connecting-IP;
real_ip_recursive on;

}

Ik draai al mijn Docker containers op een Synology NAS.

Als alternatief heb ik ook Virtual Machine Manager daarop geïnstalleerd en Docker, Authelia, etc. in een schone VM met Ubuntu Server getest. Tevens via een Raspberry Pi de boel aan de praat proberen te krijgen met Docker. Altijd is de laatste Nginx advanced config het struikelblok. Ik vermoed dat het ergens een netwerk-dingetje is maar krijg het niet achterhaald.

  • Kimi-Alonso
  • Registratie: Juli 2006
  • Niet online
S1NN3D schreef op donderdag 10 februari 2022 @ 07:31:
[...]

Natuurlijk, zie onderstaand. Deze is op basis van de tutorial en sjabloon van DB Tech. Ik heb ook varianten hierop gevonden en getest.

code:
1


Ik draai al mijn Docker containers op een Synology NAS.

Als alternatief heb ik ook Virtual Machine Manager daarop geïnstalleerd en Docker, Authelia, etc. in een schone VM met Ubuntu Server getest. Tevens via een Raspberry Pi de boel aan de praat proberen te krijgen met Docker. Altijd is de laatste Nginx advanced config het struikelblok. Ik vermoed dat het ergens een netwerk-dingetje is maar krijg het niet achterhaald.
Lastig... die config lijkt inderdaad goed.

Het eerste wat nu bij mij op komt zijn firewall settings? Verder misschien iets in de authelia config? Of wellicht iets in je cloudflare settings.

  • c-nan
  • Registratie: Juni 2008
  • Laatst online: 29-05 08:41
Ik ken Authelia niet en ook (nog) niet naar gekeken. Maar wat gaat er niet goed? Wat is de (fout)melding? Je geeft aan dat het niet werkt en direct stuk gaat, maar je hebt toch wel iets van logging of een foutmelding?

Acties:
  • 0 Henk 'm!

  • S1NN3D
  • Registratie: Oktober 2011
  • Niet online
Kimi-Alonso schreef op donderdag 10 februari 2022 @ 17:29:
[...]


Het eerste wat nu bij mij op komt zijn firewall settings? Verder misschien iets in de authelia config? Of wellicht iets in je cloudflare settings.
Qua firewall heb ik alleen poorten 80 en 443 doorgezet vanuit de router naar Nginx Proxy Manager. Waar zou je aan denken? Authelia config is redelijk groot maar het is bijna allemaal standaard. Qua Cloudflare werkt alles prima met SSL en dergelijke.
c-nan schreef op donderdag 10 februari 2022 @ 17:38:
Ik ken Authelia niet en ook (nog) niet naar gekeken. Maar wat gaat er niet goed? Wat is de (fout)melding? Je geeft aan dat het niet werkt en direct stuk gaat, maar je hebt toch wel iets van logging of een foutmelding?
Bijna alles werkt zoals het hoort. Met SSL-certificaten toegang tot service1.mijndomein.nl, etc. Authelia draait, ik heb een account met 2FA aangemaakt. Tot zo ver niets aan de hand.

Laatste stap is een advanced config in NPM om de desbetreffende service achter het 2FA-portaal te zetten. En dat geeft het probleem. In NPM wordt het bolletje direct rood met status offline. De reverse proxy die daarvoor gewoon werkte geeft dan een 520 error tussen de origin server en Cloudflare. Vanuit de logs wordt ik niets wijzer; die zien er volgens mij prima uit. Maar ergens ontstaat dus een netwerk-fout, vermoed ik

Acties:
  • 0 Henk 'm!

  • Foxdelta-mods
  • Registratie: Mei 2009
  • Laatst online: 23-04 19:44
S1NN3D schreef op vrijdag 11 februari 2022 @ 08:52:
[...]

Qua firewall heb ik alleen poorten 80 en 443 doorgezet vanuit de router naar Nginx Proxy Manager. Waar zou je aan denken? Authelia config is redelijk groot maar het is bijna allemaal standaard. Qua Cloudflare werkt alles prima met SSL en dergelijke.
Waarom niet alleen poort 443 en dan via DNS (Cloudflare) Scheelt weer een extra poort die open staat naar de buitenwereld.

Ik ben eigelijk wel benieuwd naar hoe jullie je containers benaderen. Heb ondertussen SWAG (NGINX) draaien + cloudflare en dit werkt perfect voor webserver + nextcloud echter alle andere zaken heb ik achter een VPN zitten (wireguard). Ik zie echter genoeg voorbeelden/mensen die zo'n beetje hun hele hebben en houden achter NGINX hebben zitten en daarmee dus iedere container aan het net hebben hangen + dan bijv authelia als inlog.

Acties:
  • 0 Henk 'm!

  • Mr.Viper
  • Registratie: Oktober 2005
  • Laatst online: 19:52

Mr.Viper

Tja... iets met Dodge Vipers

Foxdelta-mods schreef op vrijdag 11 februari 2022 @ 14:25:
[...]

Waarom niet alleen poort 443 en dan via DNS (Cloudflare) Scheelt weer een extra poort die open staat naar de buitenwereld.

Ik ben eigelijk wel benieuwd naar hoe jullie je containers benaderen. Heb ondertussen SWAG (NGINX) draaien + cloudflare en dit werkt perfect voor webserver + nextcloud echter alle andere zaken heb ik achter een VPN zitten (wireguard). Ik zie echter genoeg voorbeelden/mensen die zo'n beetje hun hele hebben en houden achter NGINX hebben zitten en daarmee dus iedere container aan het net + dan bijv authelia als inlog.
Inderdaad dat vraag ik mij ook steeds af, misschien is mijn usecase ook wel te simpel. Ik heb maar 2 poorten open staan voor HTTPS en VPN.

De containers die naar buiten gaan, gaan via een reverse proxy (Caddy) en dat zijn Nextcloud en Vaultwarden. Via mijn eigen domeinnaam en CloudFlare als DDNS. De rest als ik dat wil bedienen van buiten mijn WiFi-bereik heb ik daar een VPN (Wireguard) voor. En dan heb ik voor Nextcloud en Vaultwarden wel natuurlijk 2FA aan staan.

|| System Specs || 36° Oost-West 4875Wp ||


Acties:
  • 0 Henk 'm!

  • Foxdelta-mods
  • Registratie: Mei 2009
  • Laatst online: 23-04 19:44
Mr.Viper schreef op vrijdag 11 februari 2022 @ 14:52:
[...]


Inderdaad dat vraag ik mij ook steeds af, misschien is mijn usecase ook wel te simpel. Ik heb maar 2 poorten open staan voor HTTPS en VPN.

De containers die naar buiten gaan, gaan via een reverse proxy (Caddy) en dat zijn Nextcloud en Vaultwarden. Via mijn eigen domeinnaam en CloudFlare als DDNS. De rest als ik dat wil bedienen van buiten mijn WiFi-bereik heb ik daar een VPN (Wireguard) voor. En dan heb ik voor Nextcloud en Vaultwarden wel natuurlijk 2FA aan staan.
Ja dat argument had ik dus ook; "misschien is mijn usecase ook wel te simpel". Ik lees/zie mensen die dus zaken zoals sonarr/radarr/etc. etc. gewoon als container naar buiten brengen met als argument dat het verbinden via VPN te lastig is. Mijn atechnische vriendin kan prima het schuifje van wireguard bedienen om vervolgens via Organizr overal naartoe te navigeren. Ik zie hier niet de noodzaak om dergelijke containers naar buiten te brengen.

Mischien is het ook wel gewoon voor "de leuk".

Acties:
  • 0 Henk 'm!

  • S1NN3D
  • Registratie: Oktober 2011
  • Niet online
Mr.Viper schreef op vrijdag 11 februari 2022 @ 14:52:
[...]


Inderdaad dat vraag ik mij ook steeds af, misschien is mijn usecase ook wel te simpel. Ik heb maar 2 poorten open staan voor HTTPS en VPN.

De containers die naar buiten gaan, gaan via een reverse proxy (Caddy) en dat zijn Nextcloud en Vaultwarden. Via mijn eigen domeinnaam en CloudFlare als DDNS. De rest als ik dat wil bedienen van buiten mijn WiFi-bereik heb ik daar een VPN (Wireguard) voor. En dan heb ik voor Nextcloud en Vaultwarden wel natuurlijk 2FA aan staan.
Foxdelta-mods schreef op vrijdag 11 februari 2022 @ 14:25:
[...]


Waarom niet alleen poort 443 en dan via DNS (Cloudflare) Scheelt weer een extra poort die open staat naar de buitenwereld.
Alleen 443 zou inderdaad ook prima zijn; heb 80 net ff dicht gezet.
Ik ben eigelijk wel benieuwd naar hoe jullie je containers benaderen. Heb ondertussen SWAG (NGINX) draaien + cloudflare en dit werkt perfect voor webserver + nextcloud echter alle andere zaken heb ik achter een VPN zitten (wireguard). Ik zie echter genoeg voorbeelden/mensen die zo'n beetje hun hele hebben en houden achter NGINX hebben zitten en daarmee dus iedere container aan het net hebben hangen + dan bijv authelia als inlog.
Over het algemeen kan ik alles via VPN benaderen. Op dit moment heb ik alleen Vaultwarden en Nextcloud via een eigen domein, via Cloudflare publiek staan. Met 2FA natuurlijk.
Met SWAG wil ik ook nog wel eens een keer gaan experimenteren. Maar dan moet ik Nginx Proxy Manager er uit gooien of niet.
Foxdelta-mods schreef op vrijdag 11 februari 2022 @ 15:05:
[...]

Mischien is het ook wel gewoon voor "de leuk".
Daar heb je gelijk in. Het is meer omdat het kan. Althans, dat dacht ik aangezien Authelia maar niet wil lukken. Ben er nu al bijna een maand mee aan het modderen. Het is wel mooi geweest. Ik houd het toch maar bij VPN. :P

Acties:
  • 0 Henk 'm!

  • Foxdelta-mods
  • Registratie: Mei 2009
  • Laatst online: 23-04 19:44
Alleen 443 zou inderdaad ook prima zijn; heb 80 net ff dicht gezet.
Kijk dat is mooi!
Over het algemeen kan ik alles via VPN benaderen. Op dit moment heb ik alleen Vaultwarden en Nextcloud via een eigen domein, via Cloudflare publiek staan. Met 2FA natuurlijk.
Met SWAG wil ik ook nog wel eens een keer gaan experimenteren. Maar dan moet ik Nginx Proxy Manager er uit gooien of niet.
Dan moet je idd NGINX eruit gooien. Maar ik moeten zeggen dat het hele opzetten van SWAG echt een peuleschilletje was in vergelijking met NGINX. Enige voordeel van NGINX is de UI die bij SWAG dus niet aanwezig is. Hoe heb jij nu 2FA dan? Heb dus nu nextcloud werken en gewoon benaderbaar via cloudflare (domein) echter zonder 2FA. Volgende stap was voor mij dus Authelia aan de praat krijgen en dan overwegen of ik de wireguard nog wel nodig heb.

Acties:
  • 0 Henk 'm!

  • S1NN3D
  • Registratie: Oktober 2011
  • Niet online
Foxdelta-mods schreef op zaterdag 12 februari 2022 @ 13:30:
[...]


Kijk dat is mooi!


[...]


Dan moet je idd NGINX eruit gooien. Maar ik moeten zeggen dat het hele opzetten van SWAG echt een peuleschilletje was in vergelijking met NGINX. Enige voordeel van NGINX is de UI die bij SWAG dus niet aanwezig is. Hoe heb jij nu 2FA dan? Heb dus nu nextcloud werken en gewoon benaderbaar via cloudflare (domein) echter zonder 2FA. Volgende stap was voor mij dus Authelia aan de praat krijgen en dan overwegen of ik de wireguard nog wel nodig heb.
Nginx Proxy Manager vond ik toch behoorlijk makkelijk op te zetten met mijn Docker containers. Ik zou SWAG hooguit willen proberen om te testen om dat wel goed klikt met Authelia. Op een later moment. Voor nu heb ik er ff genoeg van, haha.

Vaultwarden heeft 2FA ingebouwd dus dat is slechts een kwestie van inschakelen. Met Nextcloud is het ook best eenvoudig. Installeer deze app in Nextcloud:
Afbeeldingslocatie: https://tweakers.net/i/DG2gcYX0jKrGyVm98uSDvGuJZ1g=/x800/filters:strip_icc():strip_exif()/f/image/J8KyUB1RWmR6PRKlZyRth89o.jpg?f=fotoalbum_large
Daarna onder instellingen, persoonlijk, beveiliging TOTP inschakelen.

Acties:
  • 0 Henk 'm!

  • pven
  • Registratie: Oktober 1999
  • Niet online
Ik snap het even niet meer ... 8)7

Blijkbaar heb ik geen docker draaien, maar als ik zoek vind ik een domoticz-container:
code:
1
2
3
4
5
6
# docker ps
CONTAINER ID   IMAGE     COMMAND   CREATED   STATUS    PORTS     NAMES
# docker ps -a
CONTAINER ID   IMAGE                          COMMAND   CREATED        STATUS                    PORTS     NAMES
e23ef78fd1de   lscr.io/linuxserver/domoticz   "/init"   12 hours ago   Exited (0) 12 hours ago             domoticz2
#


Aanvulling: nada ik docker heb herstart krijg ik dit, portainer laat het nog steeds goed zien.
code:
1
2
# docker ps
Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running?



Ik heb echter ook Portainer draaien, en die laat ongeveer 15 draaiende containers zien waar ik ook bij kan. Uiteraard heb ik docker al herstart en ook mijn server, maar het resultaat is hetzelfde. Hoe kan ik nou weer al die containers zichtbaar maken met 'docker ps'? Ik weet het niet meer. Het lijkt alsof ik 2x docker heb draaien: eentje goed waar ik alleen via portainer bij kan, en eentje die het niet (meer?) doet.

[ Voor 18% gewijzigd door pven op 13-02-2022 10:46 ]

We gaan eraan! || Marktplaats-meuk. Afdingen mag! ;-) || slotje.com for sale || Dank pven!


Acties:
  • 0 Henk 'm!

  • Foxdelta-mods
  • Registratie: Mei 2009
  • Laatst online: 23-04 19:44
S1NN3D schreef op zaterdag 12 februari 2022 @ 14:15:
[...]

Nginx Proxy Manager vond ik toch behoorlijk makkelijk op te zetten met mijn Docker containers. Ik zou SWAG hooguit willen proberen om te testen om dat wel goed klikt met Authelia. Op een later moment. Voor nu heb ik er ff genoeg van, haha.

Vaultwarden heeft 2FA ingebouwd dus dat is slechts een kwestie van inschakelen. Met Nextcloud is het ook best eenvoudig. Installeer deze app in Nextcloud:
[Afbeelding]
Daarna onder instellingen, persoonlijk, beveiliging TOTP inschakelen.
Dat zal ik als alternatief gebruiken mocht ik Authelia niet aan de gang krijgen. Nu eerst even een fout met Nextcloud oplossen. Krijg via mijn nextcloud windows client geen file groter dan +- 100mb gesynced. Via de webserver is het geen probleem. Ik vermoed een probleem met SWAG echter heb ik alle mogelijke dingen al geprobeerd m.b.t php.ini etc. etc. en op het internet is er bar weinig over te vinden.

Acties:
  • 0 Henk 'm!

  • Le Enfant!
  • Registratie: Juli 2012
  • Laatst online: 20-05 10:42
Foxdelta-mods schreef op zondag 13 februari 2022 @ 11:30:
[...]


Dat zal ik als alternatief gebruiken mocht ik Authelia niet aan de gang krijgen. Nu eerst even een fout met Nextcloud oplossen. Krijg via mijn nextcloud windows client geen file groter dan +- 100mb gesynced. Via de webserver is het geen probleem. Ik vermoed een probleem met SWAG echter heb ik alle mogelijke dingen al geprobeerd m.b.t php.ini etc. etc. en op het internet is er bar weinig over te vinden.
Al de client_max_body size aangepast in de proxy conf?
Pagina: 1 ... 5 ... 14 Laatste