Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

  • Arunia
  • Registratie: februari 2003
  • Laatst online: 01:55
@Bojan023 haha inderdaad.
Aan de andere kant is er toch een deel containers in de examens.
Ach, komt ook allemaal goed.
Hyper-v staat nog steeds hoog in die examens.

http://tinyurl.com/jz5ms3c gehaakte pokeballs


  • Freee!!
  • Registratie: december 2002
  • Laatst online: 01:39

Freee!!

Trotse papa van Toon en Len!

kraades schreef op dinsdag 21 juli 2020 @ 14:29:
Handig om docker run commando's om te zetten: https://www.composerize.com/.

Verder Container Training @ https://container.training/.

Edit:
Als je eenmaal een docker-compose.yml file hebt kun je vrij eenvoudig de container(s) aanmaken.

Voorbeeld:
root@DS716:/volume1/Share/Docker# docker-compose up -d nzbget
Creating nzbget ... done
root@DS716:/volume1/Share/Docker# docker-compose start nzbget
Starting nzbget ... done
root@DS716:/volume1/Share/Docker# docker-compose stop nzbget
Stopping nzbget ... done
root@DS716:/volume1/Share/Docker# docker-compose pull nzbget
Pulling nzbget ... done
root@DS716:/volume1/Share/Docker# docker-compose rm nzbget
Going to remove nzbget
Are you sure? [yN] y
Removing nzbget ... done
root@DS716:/volume1/Share/Docker#
Ik heb docker-compose nooit werkend gekregen, maar ik heb alle commando's veilig opgeslagen en met copy/paste in Putty heb ik de zaak ook zo weer draaiend als ik de zaak opnieuw in moet richten.

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]


  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@Freee!!
Klopt, deed ik ook hoor. Werkt ook.

Eigenlijk doe ik docker-compose geen recht aan omdat ik één docker-compose.yml file heb voor al mijn applicaties. Terwijl je eigenlijk de services waaruit een applicatie bestaat opneemt in een yml file (bijvoorbeeld web, worker, cache, database etc.) en in één keer in de lucht kunt brengen en bijvoorbeeld testen.

Zodoende kan ik in één keer / met één commando de containers aanmaken, starten, stoppen, updaten of verwijderen.

Buy Me a Coffee


  • The_FrankO
  • Registratie: november 2001
  • Niet online
Ik heb een server in de meterkast staan die onder Windows 10 draait. Hierop heb ik tools als sabnzbd en radarr draaien.
Nou leek mij het een mooie oplossing om dit met Docker te gaan draaien. Zeker ook omdat het dan makkelijker is om een paar dingen te proberen zonder dat het je systeem vervuild. Ik heb hiervoor Docker Desktop icm WSL 2 ingericht.

Echter als sabnzbd begint te downloaden gaat de CPU richting de 100%. Dit terwijl als ik sabnzbd natively draai in Windows de CPU totaal geen belasting laat zien.
De CPU load gaat naar vmmem is te zien in de task manager.

Ik heb het volgende Docker Compose file:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
---
version: "2.1"
services:
  sabnzbd:
    image: linuxserver/sabnzbd
    container_name: sabnzbd
    environment:
      - PUID=1000
      - PGID=1000
      - TZ=Europe/Amsterdam
    volumes:
      - C:/mydockers/sabnzbd/config:/config
      - C:/Downloads:/downloads
      - C:/Downloads/incomplete:/incomplete-downloads #optional
    ports:
      - 8080:8080
      - 9090:9090
    restart: unless-stopped

Is Docker op Windows 10 Pro zo slecht, lees onbruikbaar? Of doe ik iets verkeerd?

Versie 2.3.0.4 (46911)

iRacing Profiel | Mijn SimRig


  • Mars Warrior
  • Registratie: oktober 2003
  • Laatst online: 23:33

Mars Warrior

Earth, the final frontier

The_FrankO schreef op zaterdag 15 augustus 2020 @ 10:47:
Is Docker op Windows 10 Pro zo slecht, lees onbruikbaar? Of doe ik iets verkeerd?

Versie 2.3.0.4 (46911)
Je zult het nodige herkennen met 100% vmmem cpu gebruik in dit open issue: https://github.com/microsoft/WSL/issues/4166
Geen idee of settings in .wslconfig dit voor je kunnen oplossen...

[Voor 3% gewijzigd door Mars Warrior op 15-08-2020 11:23]

http://www.team-mediaportal.com/


  • Yarisken
  • Registratie: augustus 2010
  • Laatst online: 22:53
The_FrankO schreef op zaterdag 15 augustus 2020 @ 10:47:
Ik heb een server in de meterkast staan die onder Windows 10 draait. Hierop heb ik tools als sabnzbd en radarr draaien.
Nou leek mij het een mooie oplossing om dit met Docker te gaan draaien. Zeker ook omdat het dan makkelijker is om een paar dingen te proberen zonder dat het je systeem vervuild. Ik heb hiervoor Docker Desktop icm WSL 2 ingericht.

Echter als sabnzbd begint te downloaden gaat de CPU richting de 100%. Dit terwijl als ik sabnzbd natively draai in Windows de CPU totaal geen belasting laat zien.
De CPU load gaat naar vmmem is te zien in de task manager.

Ik heb het volgende Docker Compose file:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
---
version: "2.1"
services:
  sabnzbd:
    image: linuxserver/sabnzbd
    container_name: sabnzbd
    environment:
      - PUID=1000
      - PGID=1000
      - TZ=Europe/Amsterdam
    volumes:
      - C:/mydockers/sabnzbd/config:/config
      - C:/Downloads:/downloads
      - C:/Downloads/incomplete:/incomplete-downloads #optional
    ports:
      - 8080:8080
      - 9090:9090
    restart: unless-stopped

Is Docker op Windows 10 Pro zo slecht, lees onbruikbaar? Of doe ik iets verkeerd?

Versie 2.3.0.4 (46911)
Draai het onder linux, ofwel native ofwel via virtualbox ofzo. Ik zie vele beginnen met een arm based servertje of met windows.
Voor de beste ervaring neem een x86 met native linux en je gaat de best mogelijke ervaring hebben.

  • Freee!!
  • Registratie: december 2002
  • Laatst online: 01:39

Freee!!

Trotse papa van Toon en Len!

Yarisken schreef op zaterdag 15 augustus 2020 @ 14:14:
[...]
Draai het onder linux, ofwel native ofwel via virtualbox ofzo. Ik zie vele beginnen met een arm based servertje of met windows.
Voor de beste ervaring neem een x86 met native linux en je gaat de best mogelijke ervaring hebben.
Hangt er een beetje vanaf, wat die server allemaal moet doen. Maar Docker onder Windows is een ramp, misschien nog net leuk om het te leren als je verder echt geen geld uit wil geven, maar op een Pi gaat het al beter.

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]


  • Yarisken
  • Registratie: augustus 2010
  • Laatst online: 22:53
Freee!! schreef op zaterdag 15 augustus 2020 @ 14:48:
[...]

Hangt er een beetje vanaf, wat die server allemaal moet doen. Maar Docker onder Windows is een ramp, misschien nog net leuk om het te leren als je verder echt geen geld uit wil geven, maar op een Pi gaat het al beter.
Idd beter maar toch nog een pak miserie vantijd als je armhf dockers wilt draaien.
Had niks dan miserie op mijn odroid .... .
Nu draai ik een stuk of 15 dockers op een optiplex micro en alles draait gewoon perfect ..

  • Freee!!
  • Registratie: december 2002
  • Laatst online: 01:39

Freee!!

Trotse papa van Toon en Len!

Yarisken schreef op zaterdag 15 augustus 2020 @ 14:54:
[...]
Idd beter maar toch nog een pak miserie vantijd als je armhf dockers wilt draaien.
Had niks dan miserie op mijn odroid .... .
Nu draai ik een stuk of 15 dockers op een optiplex micro en alles draait gewoon perfect ..
Mijn RPi4B draait 10 containers (9 images, duckdns dubbel voor verschillende sites), mijn RPI3B+ iets minder. En ja, soms is het een probleem, dat er geen ARMHF versies van de images zijn, maar voor de belangrijkste zijn ze er wel en anders is er ook nog Docker Build.

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]


  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@The_FrankO
Hier hetzelfde gedrag op idem configuratie/versies met een Intel(R) Core(TM) i7-4700MQ CPU @ 2.40GHz.

SABnzbd (maar ook NZBGet) via Docker: CPU ~ 50% en vmmem ~ 25%.
SABnzbd native: CPU ~ 5%.

:'(

[Voor 3% gewijzigd door kraades op 15-08-2020 16:42]

Buy Me a Coffee


  • The_FrankO
  • Registratie: november 2001
  • Niet online
Mars Warrior schreef op zaterdag 15 augustus 2020 @ 11:21:
[...]

Je zult het nodige herkennen met 100% vmmem cpu gebruik in dit open issue: https://github.com/microsoft/WSL/issues/4166
Geen idee of settings in .wslconfig dit voor je kunnen oplossen...
Ik heb daarmee wel het geheugen gebruik kunnen verlagen d:)b maar CPU gebruik was mijn grootste zorg.
Yarisken schreef op zaterdag 15 augustus 2020 @ 14:14:
[...]


Draai het onder linux, ofwel native ofwel via virtualbox ofzo. Ik zie vele beginnen met een arm based servertje of met windows.
Voor de beste ervaring neem een x86 met native linux en je gaat de best mogelijke ervaring hebben.
Je zegt virtualbox, maar met WSL2 draait het toch eigenlijk als in een gevirtualiseerde Linux? Ik heb Ubuntu als kernel aangegevn.
Native Linux wil ik niet aan beginnen.
Freee!! schreef op zaterdag 15 augustus 2020 @ 14:48:
[...]

Hangt er een beetje vanaf, wat die server allemaal moet doen. Maar Docker onder Windows is een ramp, misschien nog net leuk om het te leren als je verder echt geen geld uit wil geven, maar op een Pi gaat het al beter.
Je bevestigd eigenlijk mijn vraag, Docker op Windows is niet bruikbaar voor een productie situatie. :| Erg jammer, over een paar maanden ga ik het nog eens proberen en hoop ik dat of Microsoft WSL2 heeft verbeterd of dat Docker iets heeft kunnen doen :)
kraades schreef op zaterdag 15 augustus 2020 @ 16:41:
@The_FrankO
Hier hetzelfde gedrag op idem configuratie/versies met een Intel(R) Core(TM) i7-4700MQ CPU @ 2.40GHz.

SABnzbd (maar ook NZBGet) via Docker: CPU ~ 50% en vmmem ~ 25%.
SABnzbd native: CPU ~ 5%.

:'(
Daarmee dus ook bevestigd dat het niet zo zeer aan de kracht van hardware ligt, ik draai wel met minderkrachtige hardware, Pentium Gold 5400.

Ik zie overigens hier: https://docs.docker.com/docker-for-windows/wsl/ het volgende wat ik niet begrijp wat ik ermee moet:
To get the best out of the file system performance when bind-mounting files:
Store source code and other data that is bind-mounted into Linux containers (i.e., with docker run -v <host-path>:<container-path>) in the Linux filesystem, rather than the Windows filesystem.
Linux containers only receive file change events (“inotify events”) if the original files are stored in the Linux filesystem.
Performance is much higher when files are bind-mounted from the Linux filesystem, rather than remoted from the Windows host. Therefore avoid docker run -v /mnt/c/users:/users (where /mnt/c is mounted from Windows).
Instead, from a Linux shell use a command like docker run -v ~/my-project:/sources <my-image> where ~ is expanded by the Linux shell to $HOME.

iRacing Profiel | Mijn SimRig


  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@The_FrankO
Ik denk omdat C:\ etc. remote zijn voor de Linux backend en daardoor een extra performance hit geven?
root@DESKTOP-D0BEH9O:~# mount | grep :
C:\ on /mnt/c type 9p (rw,noatime,dirsync,aname=drvfs;path=C:\;uid=1000;gid=1000;symlinkroot=/mnt/,mmap,access=client,msize=65536,trans=fd,rfd=8,wfd=8)
D:\ on /mnt/d type 9p (rw,noatime,dirsync,aname=drvfs;path=D:\;uid=1000;gid=1000;symlinkroot=/mnt/,mmap,access=client,msize=65536,trans=fd,rfd=8,wfd=8)
E:\ on /mnt/e type 9p (rw,noatime,dirsync,aname=drvfs;path=E:\;uid=1000;gid=1000;symlinkroot=/mnt/,mmap,access=client,msize=65536,trans=fd,rfd=8,wfd=8)
root@DESKTOP-D0BEH9O:~#

Buy Me a Coffee


  • RobertMe
  • Registratie: maart 2009
  • Laatst online: 23:14
The_FrankO schreef op zaterdag 15 augustus 2020 @ 17:39:
[...]

Je zegt virtualbox, maar met WSL2 draait het toch eigenlijk als in een gevirtualiseerde Linux? Ik heb Ubuntu als kernel aangegevn.
Native Linux wil ik niet aan beginnen.
WSL is bij mijn weten geen virtualisatie. WSL is meer te vergelijken met Wine op Linux. Het is een (her)implementatie van APIs die onder Linux beschikbaar zijn, alleen dan op zo'n manier "gemaakt" dat deze werken met Windows. Waardoor je Linux software op Windows kunt draaien. WSL is dus een vertaalslag van Linux naar Windows, en dat geeft (potentieel) performance issues etc (net zoals Wine soms dingen veel trager doet dan Windows native). Bij virtualisatie daarentegen draai je echt een volledig besturingssysteem binnen het host OS, waarbij dat tweede besturingssysteem met een eigen (geemuleerd) BIOS communiceert, geemuleerde hardware gebruikt, etc.

En Docker is in die zin ook geen software die je op andere platform kunt draaien. Wat Docker doet is niet "uniek", in de zin van dat het uiteindelijk verschillende APIs die in de Linux kernel zitten ingebakken gebruikt om een (of meerdere) processen geisoleerd van de rest van het systeem te draaien met een eigen aparte netwerkinterface etc. Daardoor dat Docker op een ander platform altijd issues geeft. Want de "core" technologie waar het op bouwt is geen onderdeel van Docker, maar van Linux, en dus niet beschikbaar op Windows, Mac etc.

  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@RobertMe
WSL 2 werkt anders (dan WSL 1). Zie hier voor een uiteenzetting.

Hier nog een stukje over de architectuur en layering (bootstrapping en data store).

Buy Me a Coffee


  • Asterion
  • Registratie: maart 2008
  • Laatst online: 19:53
Mede-tweakers,

Ik loop vast met het inlezen en begrijpen van macvlans.

Wat ik wil proberen is om containers te groeperen in netwerken. Dat zou je in principe kunnen doen met bridge netwerken maar dan krijg ik te maken met veel poort conflicten waarbij sommige containers enkel in netwerk 'host' kunnen draaien om te kunnen werken.
Het lijkt me daarom handiger om met macvlan's te werken zodat elke container een eigen ip krijgt?

Momenteel draai ik een 15-tal containers welke ik zou kunnen opsplitsen in verschillende netwerken (vlans).
Ik draai bvb de Unifi Controller Software dat niet in bridge kan werken maar wel als host.
Deze zou ik dan een apart ip-adres kunnen geven.

Ik loop helaas vast hoe ik deze macvlans moet aanmaken en instellen.

Qua hardware maak ik gebruik van Ubiquiti USG en USW en een gewone switch.
In de unifi controller heb ik reeds een aparte vlan aangemaakt voor docker.

Ik volg deze tutorial om een macvlan aan te maken.
Het ziet er dan dus als volgt uit:
docker network create -d macvlan \
--subnet=192.168.10.0/24 \
--gateway=192.168.10.1 \
-o parent=eth0 pub_net
Welke mij volgende foutmelding geeft:
Error response from daemon: invalid subinterface vlan name eth0, example formatting is eth0.10
Wanneer ik dan de eth0 verander naar eth0.10 komt volgende foutmelding naar boven:
Error response from daemon: -o parent interface does was not found on the host: eth0
Kan iemand mij op de juiste weg helpen?
Mijn kennis van netwerken reikt helaas niet ver genoeg om te weten wat ik mis doe.

  • Ferrox1
  • Registratie: augustus 2008
  • Laatst online: 27-02 08:49
Je moet even op je device opzoeken hoe je fysieke netwerk adapter heet in het betreffende vlan. In mijn geval zijn het bonds. En mischien moet je nog Vlan adapters aanmaken en het vlan netwerk tagged doorzetten naar je device?

Waar draai je docker op? Een pi, synology of iets anders? Voor synology lees deze posts van mij even.

[Voor 31% gewijzigd door Ferrox1 op 30-08-2020 20:05]


  • Freee!!
  • Registratie: december 2002
  • Laatst online: 01:39

Freee!!

Trotse papa van Toon en Len!

@Asterion, ik heb even nagekeken, maar volgens mij mist er nog iets, namelijk de naam. Volgens mij moet het als volgt:
code:
1
2
3
4
5
docker network create -d macvlan \
--subnet=192.168.10.0/24 \
--gateway=192.168.10.1 \
-o parent=eth0 pub_net \
mijnmavclan

Waarbij je "mijnmacvlan" kunt vervangen door een naam, die beter in je systeem past.

Als voorbeeld nog even mijn macvlan:
code:
1
2
3
4
5
6
7
docker network create -d macvlan \
    --subnet=192.168.2.0/24 \
    --gateway=192.168.2.254 \
    --ip-range 192.168.2.224/28 \
    --aux-address="raspberrypi4=192.168.2.231" \
    -o parent=eth0 \
    Whiskey

En de extra code om communicatie tussen host en containers mogelijk te maken:
code:
1
2
3
4
5
6
7
8
#!/bin/sh
### location : /etc/network/if-pre-up.d
### name     : Whiskey-shim
### NB       : Make executable (chmod +x /etc/network/if-pre-up.d/Whiskey-shim)
ip link add Whiskey-shim link eth0 type macvlan mode bridge
ip addr add 192.168.2.231/32 dev Whiskey-shim
ip link set Whiskey-shim up
ip route add 192.168.2.224/28 dev Whiskey-shim

Eenmalig handmatig uitvoeren (eventueel de losse ip commando's) om het direct te activeren.

[Voor 53% gewijzigd door Freee!! op 30-08-2020 21:31]

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]


  • Asterion
  • Registratie: maart 2008
  • Laatst online: 19:53
Ferrox1 schreef op zondag 30 augustus 2020 @ 20:00:
Je moet even op je device opzoeken hoe je fysieke netwerk adapter heet in het betreffende vlan. In mijn geval zijn het bonds. En mischien moet je nog Vlan adapters aanmaken en het vlan netwerk tagged doorzetten naar je device?

Waar draai je docker op? Een pi, synology of iets anders? Voor synology lees deze posts van mij even.
Inderdaad, het is dus niet eth0 maar eno1 dat ik moet gebruiken.
Bedankt voor de tip!
Docker draait bij mij op een x86 server met OpenMediaVault.
Freee!! schreef op zondag 30 augustus 2020 @ 21:28:
@Asterion, ik heb even nagekeken, maar volgens mij mist er nog iets, namelijk de naam. Volgens mij moet het als volgt:
code:
1
2
3
4
5
docker network create -d macvlan \
--subnet=192.168.10.0/24 \
--gateway=192.168.10.1 \
-o parent=eth0 pub_net \
mijnmavclan

Waarbij je "mijnmacvlan" kunt vervangen door een naam, die beter in je systeem past.

Als voorbeeld nog even mijn macvlan:
code:
1
2
3
4
5
6
7
docker network create -d macvlan \
    --subnet=192.168.2.0/24 \
    --gateway=192.168.2.254 \
    --ip-range 192.168.2.224/28 \
    --aux-address="raspberrypi4=192.168.2.231" \
    -o parent=eth0 \
    Whiskey

En de extra code om communicatie tussen host en containers mogelijk te maken:
code:
1
2
3
4
5
6
7
8
#!/bin/sh
### location : /etc/network/if-pre-up.d
### name     : Whiskey-shim
### NB       : Make executable (chmod +x /etc/network/if-pre-up.d/Whiskey-shim)
ip link add Whiskey-shim link eth0 type macvlan mode bridge
ip addr add 192.168.2.231/32 dev Whiskey-shim
ip link set Whiskey-shim up
ip route add 192.168.2.224/28 dev Whiskey-shim

Eenmalig handmatig uitvoeren (eventueel de losse ip commando's) om het direct te activeren.
Thx voor de uitleg!
Het is me gelukt om gescheiden ip-adressen toe te wijzen aan de containers.

Nu nog even zoeken hoe ik vanop 192.168.1.x naar 192.168.2.x kan verbinden.
Voorlopig draait het dus allemaal op hetzelfde lan netwerk..

  • Freee!!
  • Registratie: december 2002
  • Laatst online: 01:39

Freee!!

Trotse papa van Toon en Len!

Asterion schreef op maandag 31 augustus 2020 @ 15:16:
[...]
Nu nog even zoeken hoe ik vanop 192.168.1.x naar 192.168.2.x kan verbinden.
Dat is een zaak van de juiste routes instellen.
Voorlopig draait het dus allemaal op hetzelfde lan netwerk..
Doe ik ook, voordat ik meer dan 250 devices op mijn thuisnetwerk heb, ben ik intern allang over op IPv6.

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]


  • Asterion
  • Registratie: maart 2008
  • Laatst online: 19:53
Freee!! schreef op maandag 31 augustus 2020 @ 16:19:
[...]

Dat is een zaak van de juiste routes instellen.

[...]

Doe ik ook, voordat ik meer dan 250 devices op mijn thuisnetwerk heb, ben ik intern allang over op IPv6.
Mag ik trouwens even vragen waarom je gateway op .254 staat en niet op .1?
Dat is toch het adres van je router, niet?

Is het overigens mogelijk om containers een vast ip adres te geven?
Een vlugge zoektocht zegt dat het niet of moeilijk te doen is.
Het zou handig zijn om containers te kunnen onderverdelen volgens categorie.

  • Freee!!
  • Registratie: december 2002
  • Laatst online: 01:39

Freee!!

Trotse papa van Toon en Len!

Asterion schreef op maandag 31 augustus 2020 @ 20:07:
[...]
Mag ik trouwens even vragen waarom je gateway op .254 staat en niet op .1?
Dat is toch het adres van je router, niet?
Klopt, ik kreeg dat ding (Experiabox) zo ingesteld van Telfort. En de voorgaande Zyxell zat ook op .254.
Is het overigens mogelijk om containers een vast ip adres te geven?
Een vlugge zoektocht zegt dat het niet of moeilijk te doen is.
Het zou handig zijn om containers te kunnen onderverdelen volgens categorie.
Voor containers in een macvlan is dat vrij eenvoudig, voor andere probeer ik het niet eens, voorbeeldje:
code:
1
2
3
4
5
6
7
8
9
10
11
12
docker run -d \
  --name Unbound_4_1 \
  -e ServerIP=192.168.2.238 \
  -e TZ=Europe/Amsterdam \
  -e PATH=/opt/unbound/sbin:/opt/ldns/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin \
  -p 53:5053/tcp \
  -v /dockerparms/unbound1:/opt/unbound/etc/unbound/ \
  -v /etc/localtime:/etc/localtime:ro \
  --net=Whiskey \
  --ip=192.168.2.238 \
  --restart unless-stopped \
  klutchell/unbound:latest

Relevante regels hier zijn:
code:
1
2
  --net=Whiskey \
  --ip=192.168.2.238 \

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]


  • Asterion
  • Registratie: maart 2008
  • Laatst online: 19:53
Freee!! schreef op maandag 31 augustus 2020 @ 20:23:
[...]

Klopt, ik kreeg dat ding (Experiabox) zo ingesteld van Telfort. En de voorgaande Zyxell zat ook op .254.

[...]

Voor containers in een macvlan is dat vrij eenvoudig, voor andere probeer ik het niet eens, voorbeeldje:
code:
1
2
3
4
5
6
7
8
9
10
11
12
docker run -d \
  --name Unbound_4_1 \
  -e ServerIP=192.168.2.238 \
  -e TZ=Europe/Amsterdam \
  -e PATH=/opt/unbound/sbin:/opt/ldns/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin \
  -p 53:5053/tcp \
  -v /dockerparms/unbound1:/opt/unbound/etc/unbound/ \
  -v /etc/localtime:/etc/localtime:ro \
  --net=Whiskey \
  --ip=192.168.2.238 \
  --restart unless-stopped \
  klutchell/unbound:latest

Relevante regels hier zijn:
code:
1
2
  --net=Whiskey \
  --ip=192.168.2.238 \
Top, dank je!

Bij bestaande containers die ik beheer via portainer probeerde ik het IPv4 adres in te vullen maar ik kreeg een foutmelding.
Ik vermoed dat dit niet de bedoeling is dat ik daar een ip adres in geef?

  • Freee!!
  • Registratie: december 2002
  • Laatst online: 01:39

Freee!!

Trotse papa van Toon en Len!

Asterion schreef op maandag 31 augustus 2020 @ 20:29:
[...]
Top, dank je!

Bij bestaande containers die ik beheer via portainer probeerde ik het IPv4 adres in te vullen maar ik kreeg een foutmelding.
Ik vermoed dat dit niet de bedoeling is dat ik daar een ip adres in geef?
Ik heb het in het verleden ook wel bij Portainer ingevuld, maar Portainer doet af en toe vervelend bij macvlan. Daarnaast is het veilig stellen van GUI-instellingen een stukje lastiger dan een commando in een .txt opslaan.

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]


  • Asterion
  • Registratie: maart 2008
  • Laatst online: 19:53
Freee!! schreef op maandag 31 augustus 2020 @ 20:41:
[...]

Ik heb het in het verleden ook wel bij Portainer ingevuld, maar Portainer doet af en toe vervelend bij macvlan. Daarnaast is het veilig stellen van GUI-instellingen een stukje lastiger dan een commando in een .txt opslaan.
Inderdaad. Via de compose is het heel gemakkelijk!
Bedankt voor de uitleg, het is nu toch een heel pak duidelijker.

  • TechNoobs
  • Registratie: januari 2014
  • Laatst online: 27-02 00:25
Beste mede-tweakers,

ik loop vast met het verbinden van verschillende docker (bijv, heimdall, sonarr etc..) aan mijn een vpn docker (Joentje/nordvpn-proxy) waarbij ik gebruik wil maken van Portainer zonder gebruik te maken van compose.

VPN docker draait en ik krijg een Nordvpn ip te zien en middels portainer heb ik het ook voor elkaar gekregen om de Sonarr docker te linken.

Testje gedaan door de console in Portainer te gebruiken : curl ifconfig.io met als resultaat hetzelfde IP adres terug te krijgen als die van de docker VPN.

Tot zover gaat alles goed. Ook heb de poorten van de verschillende dockers (bijv.voor Sonarr poort 8989) meegenomen in de VPN docker en ze uit de Sonarr docker verwijderd.

Het enige heikel punt is nu om de WebUI van de docker te benaderen. Ik probeer het nu via de host IP :8989 met "this site can't be reached als resultaat.

Ik draai Proxmox en de dockers draaien op Ubuntu 18.04. Als ik een docker op dezelfde host draai zonder link naar de VPN docker, werkt het wel.

Ben geen held in Linux en pas sinds kort aan het experimenteren met Docker, heb me suf gelezen maar komn niets tegen hoe ik dit in Portainer kan oplossen. Als het echt niet anders kan, zal ik het via compose proberen maar gezien ik al zover ben met de connectie vermoed ik dat ik ergens gewoon wat over het hoofd heb gezien.

Hoop dat iemand hier wat ervaring mee heeft en kan helpen met een suggestie.

Alvast bedankt.

  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@TechNoobs
Ik heb daar nog een aparte nginx container voor draaien. Zie hier.

Buy Me a Coffee


  • Andre_J
  • Registratie: september 2005
  • Laatst online: 27-02 13:01
TechNoobs schreef op zaterdag 12 september 2020 @ 15:59:

Ik draai Proxmox en de dockers draaien op Ubuntu 18.04. Als ik een docker op dezelfde host draai zonder link naar de VPN docker, werkt het wel.
Draai je Ubuntu als vm op proxmox of als LXC?
Ik draai sinds kort ook Proxmox en ben helemaal fan van LXC geworden, kost veel minder resources..

  • TechNoobs
  • Registratie: januari 2014
  • Laatst online: 27-02 00:25
Yep nu op een vm. Ik ben nog niet zover maar hoeveel scheelt het aan resources ? Is het de moeite waard?

  • TechNoobs
  • Registratie: januari 2014
  • Laatst online: 27-02 00:25
@kraades dank, zal het even lezen en kijken of ik het allemaal begrijp :)

  • Andre_J
  • Registratie: september 2005
  • Laatst online: 27-02 13:01
TechNoobs schreef op zaterdag 12 september 2020 @ 17:52:
Yep nu op een vm. Ik ben nog niet zover maar hoeveel scheelt het aan resources ? Is het de moeite waard?
Ik ben zeker tevreden met LXC nu.
Zie ook hier.
https://gathering.tweakers.net/forum/view_message/63628330

  • Asterion
  • Registratie: maart 2008
  • Laatst online: 19:53
Ik ga hier ook even het probleem voorleggen in de hoop dat iemand me kan helpen.
Al geruime tijd probeer ik fireflyiii in een container te draaien maar elke keer opnieuw geeft hij in de logs de fout dat hij niet kan verbinden met de database.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
Now in entrypoint.sh for Firefly III,
Entrypoint script version is 1.0.6 (2020-06-07),
Running as www-data.,
Now parsing _FILE variables.,
done!,
Touch DB file (if SQLite)...,
Dump auto load...,
Cannot create cache directory /var/www/.composer/cache/repo/https---repo.packagist.org/, or directory is not writable. Proceeding without cache,
Cannot create cache directory /var/www/.composer/cache/files/, or directory is not writable. Proceeding without cache,
Generating optimized autoload files,
> Illuminate\Foundation\ComposerScripts::postAutoloadDump,
Generated optimized autoload files containing 4925 classes,
Discover packages...,
Discovered Package: adldap2/adldap2-laravel,
Discovered Package: davejamesmiller/laravel-breadcrumbs,
Discovered Package: fideloper/proxy,
Discovered Package: jc5/google2fa-laravel,
Discovered Package: laravel/passport,
Discovered Package: laravel/ui,
Discovered Package: laravelcollective/html,
Discovered Package: nesbot/carbon,
Discovered Package: rcrowe/twigbridge,
Package manifest generated successfully.,
Wait for the database.,
wait-for-it.sh: waiting 60 seconds for 192.168.1.226:3306,
wait-for-it.sh: timeout occurred after waiting 60 seconds for 192.168.1.226:3306,
DB is up. Time to execute artisan commands.,
Run various artisan commands...,
Running migration commands...,
Error when connecting to DB: SQLSTATE[HY000] [2002] No route to host,
[2020-09-15 19:46:12] local.ERROR: SQLSTATE[HY000] [2002] No route to host (SQL: select * from information_schema.tables where table_schema = fireflyiii and table_name = migrations and table_type = 'BASE TABLE') {"exception":"[object] (Illuminate\\Database\\QueryException(code: 2002): SQLSTATE[HY000] [2002] No route to host (SQL: select * from information_schema.tables where table_schema = fireflyiii and table_name = migrations and table_type = 'BASE TABLE') at /var/www/firefly-iii/vendor/laravel/framework/src/Illuminate/Database/Connection.php:671)


Elke keer opnieuw komt de fout Error when connecting to DB: SQLSTATE[HY000] [2002] No route to host terug.
PHPmyAdmin draait ook in een container en die kan wel verbinding maken met de database.

Alle login gegevens zijn juist ingevuld, daar ben ik vrij zeker van.
Het poortnummer is ook juist.
De containers krijgen elk hun eigen ip adres op het netwerk dmv macvlan.

Kan er iemand me op weg helpen?

  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@Asterion
Hier staat e.e.a. genoemd met een mogelijke workaround. Oorzaak en oplossing staat er helaas niet echt bij.

[Voor 3% gewijzigd door kraades op 16-09-2020 13:05]

Buy Me a Coffee


  • Freee!!
  • Registratie: december 2002
  • Laatst online: 01:39

Freee!!

Trotse papa van Toon en Len!

@Asterion Voor mij ziet het eruit als een routing probleem, post je commando's of compose eens.

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]


  • Asterion
  • Registratie: maart 2008
  • Laatst online: 19:53
kraades schreef op woensdag 16 september 2020 @ 13:04:
@Asterion
Hier staat e.e.a. genoemd met een mogelijke workaround. Oorzaak en oplossing staat er helaas niet echt bij.
Bedankt, ik kijk hier even naar.
Freee!! schreef op woensdag 16 september 2020 @ 13:24:
@Asterion Voor mij ziet het eruit als een routing probleem, post je commando's of compose eens.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
docker create
  --name=fireflyiii \
  --net=mcvlan \
  --ip=192.168.1.224 \
  -v firefly_iii_export:/var/www/firefly-iii/storage/export \
  -v firefly_iii_upload:/var/www/firefly-iii/storage/upload \
  -p 80:8080 \
  -e APP_KEY=32letterscijfercode \
  -e DB_HOST=192.168.1.226 \
  -e DB_PORT=3306 \
  -e DB_CONNECTION=mysql \
  -e DB_DATABASE=DB_NAAM \
  -e DB_USERNAME=DB_GEBRUIKER \
  -e DB_PASSWORD=DB_WACHTWOORD \
jc5x/firefly-iii:latest


code:
1
2
3
4
5
6
7
docker create \
  --name myadmin \
  -e PMA_HOST=192.168.1.226 \
  -p 8080:80 \
  --net=mcvlan \
  --ip=192.168.1.227 \
  phpmyadmin/phpmyadmin:latest

  • Freee!!
  • Registratie: december 2002
  • Laatst online: 01:39

Freee!!

Trotse papa van Toon en Len!

Kijk je database nog eens goed na.
[2020-09-15 19:46:12] local.ERROR: SQLSTATE[HY000] [2002] No route to host (SQL: select * from information_schema.tables where table_schema = fireflyiii and table_name = migrations and table_type = 'BASE TABLE') {"exception":"[object] (Illuminate\\Database\\QueryException(code: 2002): SQLSTATE[HY000] [2002] No route to host (SQL: select * from information_schema.tables where table_schema = fireflyiii and table_name = migrations and table_type = 'BASE TABLE') at /var/www/firefly-iii/vendor/laravel/framework/src/Illuminate/Database/Connection.php:671)
  1. table_schema = fireflyiii
  2. table_name = migrations
EDIT:
Ik zeg niet, dat de fout daar zit, maar dat is het enige, dat ik kan ontdekken na het bestuderen van de documentatie van Firefly III.

[Voor 9% gewijzigd door Freee!! op 16-09-2020 22:54]

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]


  • Asterion
  • Registratie: maart 2008
  • Laatst online: 19:53
Freee!! schreef op woensdag 16 september 2020 @ 22:53:
Kijk je database nog eens goed na.

[...]
  1. table_schema = fireflyiii
  2. table_name = migrations
EDIT:
Ik zeg niet, dat de fout daar zit, maar dat is het enige, dat ik kan ontdekken na het bestuderen van de documentatie van Firefly III.
Bedankt om mee te denken!
De oplossing is gevonden in het topic van Fireflyiii.
Het had te maken met het ip-adres dat niet kon gevonden worden en je beter de container-naam gebruikt om te verbinden.

Voor de geïnteresseerden: Linkje

  • Jazco2nd
  • Registratie: augustus 2002
  • Laatst online: 23:27
Ik heb meerdere containers die een database nodig hebben.
Ik zie online in vrijwel alle Compose voorbeelden dat er voor elke container die behoefte heeft aan een database, een aparte extra container bij zit ,bijv MariaDB.

Dat lijkt me ontzettend inefficiënt.

Ik zie echter nergens een voorbeeld hoe je met 1 (mariaDB) container, meerdere databases kan hebben, voor alle containers die dat nodig hebben. Is dit wel mogelijk?

Op dit moment gebruik ik FileRun (een lichtgewicht afgeleide van NextCloud) icm een MariaDB container. Maar ik zou diezelfde MariaDB container ook willen gebruiken voor andere containers die een mySQL database nodig hebben.
Is dit wel mogelijk?

code:
1
2
3
4
5
6
7
8
9
10
11
12
##____________________ MariaDB MySQL
  mariadb:
    image: mariadb:10.1
    container_name: mariadb
    restart: always
    environment:
      MYSQL_ROOT_PASSWORD: $PW_INT
      MYSQL_USER: $USER
      MYSQL_PASSWORD: $PW_INT
      MYSQL_DATABASE: filerundb
    volumes:
      - $USERHOME/docker/filerun/db:/var/lib/mysql

  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43

Buy Me a Coffee


  • Jazco2nd
  • Registratie: augustus 2002
  • Laatst online: 23:27
@kraades thanks. Inmiddels ben ik afgeleid door een ander interessant probleem bij het opzetten van OnlyOffice Document Server.

Ik heb FileRun draaien (een lichtgewicht versie van NextCloud) achter een subdomein (mbv Traefikv2, via een guide ik ik uit dit forum of een andere op GoT heb). Nu heb ik op dezelfde manier OnlyOffice Document Server zit achter https://office.obelix.cloud gezet. FileRun werkt, maar de bedoeling is dat ik docx bestanden via rechtermuisklik kan openen in OnlyOffice. Als ik dat doe, krijg ik uiteindelijk een foutmelding "the file cannot be accessed right now".
Ik heb wat extra Traefik labels toegevoegd om er zeker van te zijn dat " X-Forwarded-Proto: https" wordt gestuurd door Traefik (geen expert in wat dit is, maar kwam het tegen hier, de volledige oplossing in de 3e post werkt voor geen meter trouwens, dus ik pak alleen het stukje wat in deze post wordt genoemd).

De foutmelding is begrijpelijk, want het log van deze container laat voor elke poging die ik heb gedaan deze checkipfilter error zien:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
==> /var/log/onlyoffice/documentserver/docservice/out.log <==
[2020-10-08T22:12:17.349] [ERROR] nodeJS - dnsLookup error: hostname = files.obelix.cloud
Error: getaddrinfo EAI_AGAIN files.obelix.cloud
    at GetAddrInfoReqWrap.onlookup [as oncomplete] (dns.js:56:26)
[2020-10-08T22:12:17.350] [WARN] nodeJS - checkIpFilter error: docId = 12350da9d36507367981;url = https://files.obelix.cloud/wl/?id=7rfVWzZKKOA4F4z6b97TUyorWzCo36UF&action=onlyoffice&save=1
[2020-10-08T22:16:16.449] [ERROR] nodeJS - dnsLookup error: hostname = files.obelix.cloud
Error: getaddrinfo EAI_AGAIN files.obelix.cloud
    at GetAddrInfoReqWrap.onlookup [as oncomplete] (dns.js:56:26)
[2020-10-08T22:16:16.449] [WARN] nodeJS - checkIpFilter error: docId = 12350da9d36507367981;url = https://files.obelix.cloud/wl/?id=FWz0eEjhSMQtkM6tcNQSL2qgPsPXXBcn&action=onlyoffice&save=1
[2020-10-08T22:18:00.050] [ERROR] nodeJS - dnsLookup error: hostname = files.obelix.cloud
Error: getaddrinfo EAI_AGAIN files.obelix.cloud
    at GetAddrInfoReqWrap.onlookup [as oncomplete] (dns.js:56:26)
[2020-10-08T22:18:00.050] [WARN] nodeJS - checkIpFilter error: docId = 11724430668707367981;url = https://files.obelix.cloud/wl/?id=pWOwBlsIhabARE3Vp10pjP4sOMjRuIHW&action=onlyoffice&save=1


Na een beetje Googlen kwam ik erop om via Portainer een console in de OnlyOffice container te openen voor een kleine test:
wget files.obelix.cloud (waar FileRun achter draait). Gek genoeg duurt dit eeuwig, oftewel de Onlyoffice container kan niet het adres resolven van mijn FileRun container.
code:
1
Resolving files.obelix.cloud (files.obelix.cloud)...


Vreemd, want ik kan er wel gewoon prima bij. Kan iemand mij in de richting wijzen hoe je een container toegang geeft tot het https domein van een andere container dat via Traefik is georganiseerd?

Zo ziet mijn compose eruit voor alle gerelateerde containers. Het gaat dus eigenlijk alleen om OnlyOffice en FileRun.
https://github.com/zilexa...ose-filerun-docserver.yml

[Voor 9% gewijzigd door Jazco2nd op 09-10-2020 00:52]


  • sOid
  • Registratie: maart 2004
  • Niet online

sOid

Doet ook maar wat.

Ik heb een docker-compose bestand met 8 containers. Ik wil echter dat één container als laatst start, omdat die afhankelijk is van een andere container. Ik maak al wel gebruik van depends_on, maar dat is niet voldoende.

In het specifiek gaat het om de home assistant container die als laatst moet opstarten, nadat de deconz container echt klaar is. Als dat niet gebeurt, worden de entities van deconz niet ontdekt in home assistant. Pas na een handmatige reboot van de home assistant container worden ze zichtbaar.

Heeft iemand enig idee of dit mogelijk is?

Zo ziet m'n home assistant container eruit.

YAML:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
  homeassistant:
    image: homeassistant/home-assistant:stable
    container_name: homeassistant
    ports:
      - 8123:8123
    volumes:
      - ~/docker/hass:/config
      - /mnt/music:/media
      - /var/run/docker.sock:/var/run/docker.sock
    devices:
      - /dev/serial/by-id/usb-FTDI_FT232R_USB_UART_AC3U370Y-if00-port0:/dev/ttyUSB0
    environment:
      - PUID=${PUID}
      - PGID=${PGID}
      - TZ=${TZ_NL}
    depends_on:
      - swag
      - deconz
      - mariadb
      - node-red
      - influxdb
    restart: always


(@golles ik tag jou even omdat ik toevallig weet dat jouw setup op die van mij lijkt ;))

  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@sOid
Ik ben er niet bekend mee maar kun je niet in HA een delay installeren voor deconz?

Buy Me a Coffee


  • sOid
  • Registratie: maart 2004
  • Niet online

sOid

Doet ook maar wat.

kraades schreef op dinsdag 13 oktober 2020 @ 17:57:
@sOid
Ik ben er niet bekend mee maar kun je niet in HA een delay installeren voor deconz?
Je bedoelt een delay voordat HA de 'koppeling' met deconz probeert op te zetten? Volgens mij kan dat niet, maar wel een interessante suggestie. De moeite waard om uit te zoeken. Dank!

Vraag blijft wel staan; mocht iemand een oplossing met Docker weten dan hoor ik dat graag ;)

  • Andre_J
  • Registratie: september 2005
  • Laatst online: 27-02 13:01
sOid schreef op dinsdag 13 oktober 2020 @ 19:19:
[...]

Je bedoelt een delay voordat HA de 'koppeling' met deconz probeert op te zetten? Volgens mij kan dat niet, maar wel een interessante suggestie. De moeite waard om uit te zoeken. Dank!

Vraag blijft wel staan; mocht iemand een oplossing met Docker weten dan hoor ik dat graag ;)
Je zou makkelijk zelf een Dockerfile kunnen bouwen van ha en daar je delay vast in kunnen zetten of nog eleganter dmv een variabel flexibel maken.

  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@sOid
Beetje off topic maar zoiets? Ik ken HA verder niet dus misschien zit ik weet wel helemaal naast...
https://github.com/home-a...81#issuecomment-669012932

Buy Me a Coffee


  • sOid
  • Registratie: maart 2004
  • Niet online

sOid

Doet ook maar wat.

Andre_J schreef op dinsdag 13 oktober 2020 @ 20:21:
[...]


Je zou makkelijk zelf een Dockerfile kunnen bouwen van ha en daar je delay vast in kunnen zetten of nog eleganter dmv een variabel flexibel maken.
Hmm, daar heb ik nog nooit mee gewerkt. Vraag me af of het de moeite waard is om me daar in te verdiepen voor zoiets kleins. Of is dat niet bijzonder ingewikkeld? (Heb weinig programmeer-ervaring)
kraades schreef op dinsdag 13 oktober 2020 @ 20:51:
@sOid
Beetje off topic maar zoiets? Ik ken HA verder niet dus misschien zit ik weet wel helemaal naast...
https://github.com/home-a...81#issuecomment-669012932
Probleembeschrijving is daar net wat anders, maar ik denk wel dat dit kan werken ja! Ga ik de komende dagen uitproberen d:)b

  • golles
  • Registratie: maart 2007
  • Laatst online: 23:21
sOid schreef op dinsdag 13 oktober 2020 @ 17:28:
Ik heb een docker-compose bestand met 8 containers. Ik wil echter dat één container als laatst start, omdat die afhankelijk is van een andere container. Ik maak al wel gebruik van depends_on, maar dat is niet voldoende.

In het specifiek gaat het om de home assistant container die als laatst moet opstarten, nadat de deconz container echt klaar is. Als dat niet gebeurt, worden de entities van deconz niet ontdekt in home assistant. Pas na een handmatige reboot van de home assistant container worden ze zichtbaar.

Heeft iemand enig idee of dit mogelijk is?

Zo ziet m'n home assistant container eruit.

YAML:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
  homeassistant:
    image: homeassistant/home-assistant:stable
    container_name: homeassistant
    ports:
      - 8123:8123
    volumes:
      - ~/docker/hass:/config
      - /mnt/music:/media
      - /var/run/docker.sock:/var/run/docker.sock
    devices:
      - /dev/serial/by-id/usb-FTDI_FT232R_USB_UART_AC3U370Y-if00-port0:/dev/ttyUSB0
    environment:
      - PUID=${PUID}
      - PGID=${PGID}
      - TZ=${TZ_NL}
    depends_on:
      - swag
      - deconz
      - mariadb
      - node-red
      - influxdb
    restart: always


(@golles ik tag jou even omdat ik toevallig weet dat jouw setup op die van mij lijkt ;))
Ik gebruik zelf geen deconz dus ik kan je er denk ik niet mee helpen.
Ik zie dat HA wel pas start als bv mariadb gestart is, dus het depends_on lijkt wel te werken.

Ik denk dat het ook voor deconz werkt, alleen nadat deconz container gestart is, heeft het starten van de processen nog wat tijd nodig (net in HA). En pas dan zou jij HA willen starten. Daar wil je natuurlijk niet van afhankelijk zijn vanuit het docker perspectief.

De automation lijkt me inderdaad de juiste oplossing. Lijkt een beetje op de use-case waar geadviseerd wordt om homekit pas na een paar minuten te starten, zodat alle devices online zijn.

Nog een ander dingetje, is je home assistant container echt afhankelijk van swag en node-red? Bij mij is geen enkele container afhankelijk van swag. Ik denk dat voor het opstarten het beter is om zo weinig mogelijk dependencies te hebben en alleen degenen die echt nodig zijn in je docker-compose te hebben.

  • sOid
  • Registratie: maart 2004
  • Niet online

sOid

Doet ook maar wat.

golles schreef op woensdag 14 oktober 2020 @ 12:32:
[...]


Ik gebruik zelf geen deconz dus ik kan je er denk ik niet mee helpen.
Ik zie dat HA wel pas start als bv mariadb gestart is, dus het depends_on lijkt wel te werken.

Ik denk dat het ook voor deconz werkt, alleen nadat deconz container gestart is, heeft het starten van de processen nog wat tijd nodig (net in HA). En pas dan zou jij HA willen starten. Daar wil je natuurlijk niet van afhankelijk zijn vanuit het docker perspectief.

De automation lijkt me inderdaad de juiste oplossing. Lijkt een beetje op de use-case waar geadviseerd wordt om homekit pas na een paar minuten te starten, zodat alle devices online zijn.

Nog een ander dingetje, is je home assistant container echt afhankelijk van swag en node-red? Bij mij is geen enkele container afhankelijk van swag. Ik denk dat voor het opstarten het beter is om zo weinig mogelijk dependencies te hebben en alleen degenen die echt nodig zijn in je docker-compose te hebben.
Tnx voor je reactie. Ik ga vanavond of dit weekend naar die automation kijken :)

HA is niet perse afhankelijk van swag en node-RED, nee. Althans: hij start gewoon op zonder. Maar wat is het nadeel van deze dependencies opnemen? Ik heb er tot nu toe geen gemerkt. Gaat me vooral om de volgorde waarin dingen worden opgestart, en door het zo te definiëren is de HA container de laatste die wordt opgestart.

  • Bojan023
  • Registratie: november 2015
  • Niet online
sOid schreef op dinsdag 13 oktober 2020 @ 17:28:
Ik heb een docker-compose bestand met 8 containers. Ik wil echter dat één container als laatst start, omdat die afhankelijk is van een andere container. Ik maak al wel gebruik van depends_on, maar dat is niet voldoende.

In het specifiek gaat het om de home assistant container die als laatst moet opstarten, nadat de deconz container echt klaar is. Als dat niet gebeurt, worden de entities van deconz niet ontdekt in home assistant. Pas na een handmatige reboot van de home assistant container worden ze zichtbaar.

Heeft iemand enig idee of dit mogelijk is?
Deze pagina beschrijft waarom containers niet van nature niet wachten tot een dependency 'ready' is. Tevens wordt er gesteld dat connectiviteitsproblemen t.g.v. het nog niet 'ready' zijn van containers zou moeten opgelost in de applicatie (dat is dus de benadering/filosofie die Docker aanhoudt). Om deze reden is het ook niet eenduidig op te lossen, omdat er wordt gesuggereerd dat je in de broncode van HA moet gaan sleutelen. Nou begrijp ik dat dat niet de voorkeur heeft (mijn ook niet) en daarom zijn er wel enkel work arounds, waarvan ik zelf de volgende het duidelijkste (en makkelijkste) vind. Al zijn er mooiere/betere manieren (persoonlijk fan van wait-for-it.sh) zoals in de gelinkte pagina beschreven.

Stap 1 is een healthcheck voor de Deconz container definiëren. Mij lijkt het voldoende dat als de webserver van Deconz bereikbaar is, dat Deconz ook daadwerkelijk 'ready' is. Stap twee is de HA container te herstarten totdat de Deconz container 'ready' is. Hieronder een snippet van hoe dat er ongeveer uit zou moeten zien:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
  deconz:
    image: deconz
    container_name: deconz
    healthcheck:
      test: ["CMD", "curl", "-f", "http://localhost:80"]
      interval: 5s #wordt elke 5s gecheckt tot 1 minuut verstreken is
      timeout: 1m
    restart: always

  homeassistant:
    image: homeassistant
    container_name: homeassistant
    depends_on:
      - deconz
    restart: on-failure


Ben benieuwd of het voor je werkt. Succes!

i5 6600k @ 4.6GHz | Cryorig A40 Ultimate | ASUS VIII Ranger | Kingston HyperX 16GB 2667Mhz | ASUS 1080TI Strix | Corsair RM650x | 2x Samsung EVO 500GB | Corsair Carbide 400C


  • PeeVv
  • Registratie: oktober 2008
  • Laatst online: 00:55
Mijn docker containers worden automatisch geüpdatet, maar vandaag kwam ik erachter dat mijn Bazarr van Hotio een oude versie draaide omdat de tag die ik gebruikte niet meer in gebruik was. Hoe kom ik erachter wanneer dit gebeurt? Handmatig alle images nagaan om te kijken of ze nog wel actief onderhouden worden of dat de tag nog in gebruik is lijkt me vrij veel werk.

  • Freee!!
  • Registratie: december 2002
  • Laatst online: 01:39

Freee!!

Trotse papa van Toon en Len!

PeeVv schreef op donderdag 29 oktober 2020 @ 16:35:
Mijn docker containers worden automatisch geüpdatet, maar vandaag kwam ik erachter dat mijn Bazarr van Hotio een oude versie draaide omdat de tag die ik gebruikte niet meer in gebruik was. Hoe kom ik erachter wanneer dit gebeurt? Handmatig alle images nagaan om te kijken of ze nog wel actief onderhouden worden of dat de tag nog in gebruik is lijkt me vrij veel werk.
Daarvoor gebruik ik normaal gesproken de tag ":latest", die is daar voor. Als je Portainer gebruikt, kun je gemakkelijk genoeg re-deployen met een nieuwe/gewijzigde tag.

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]


  • PeeVv
  • Registratie: oktober 2008
  • Laatst online: 00:55
Freee!! schreef op donderdag 29 oktober 2020 @ 16:43:
[...]

Daarvoor gebruik ik normaal gesproken de tag ":latest", die is daar voor. Als je Portainer gebruikt, kun je gemakkelijk genoeg re-deployen met een nieuwe/gewijzigde tag.
In dit specifieke geval was het een versie van Bazarr met Subsync ingebouwd, tag was dan geloof ik latest-subsync. Die functie zit nu in Bazarr zelf waardoor de tag latest-subsync niet meer in gebruik was, maar daar kwam ik na een paar weken/maanden pas achter. In de tussentijd krijg ik dus geen updates. Op de Github van de image staat ook nergens een melding dat de tag niet meer in gebruik is, die is gewoon compleet verdwenen. Kan ik met portainer een melding krijgen als er x dagen/weken geen update is geweest?

  • Freee!!
  • Registratie: december 2002
  • Laatst online: 01:39

Freee!!

Trotse papa van Toon en Len!

PeeVv schreef op donderdag 29 oktober 2020 @ 16:48:
[...]
In dit specifieke geval was het een versie van Bazarr met Subsync ingebouwd, tag was dan geloof ik latest-subsync. Die functie zit nu in Bazarr zelf waardoor de tag latest-subsync niet meer in gebruik was, maar daar kwam ik na een paar weken/maanden pas achter. In de tussentijd krijg ik dus geen updates. Op de Github van de image staat ook nergens een melding dat de tag niet meer in gebruik is, die is gewoon compleet verdwenen.
Vervelend
Kan ik met portainer een melding krijgen als er x dagen/weken geen update is geweest?
Helaas niet, maar je kunt het wel gemakkelijk zelf zien.

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]


  • PeeVv
  • Registratie: oktober 2008
  • Laatst online: 00:55
Freee!! schreef op donderdag 29 oktober 2020 @ 16:51:
[...]

Vervelend

[...]

Helaas niet, maar je kunt het wel gemakkelijk zelf zien.
Thanks, dan ga ik Portainer even installeren!

  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@PeeVv
Je zou het kunnen scripten als je het écht wil weten. Bijvoorbeeld door gebruik te maken van de Docker API.
https://stackoverflow.com...eady-exists-on-docker-hub

Buy Me a Coffee


  • Freee!!
  • Registratie: december 2002
  • Laatst online: 01:39

Freee!!

Trotse papa van Toon en Len!

PeeVv schreef op donderdag 29 oktober 2020 @ 16:53:
[...]
Thanks, dan ga ik Portainer even installeren!
Wordt zo ongeveer automatisch voor me gedaan door OMV ;)

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]


  • TF0
  • Registratie: december 2009
  • Laatst online: 23:29
Ik heb al een paar weken succesvol meerdere containers via MacVLan op een Synology NAS draaien, maar ik kom niet uit het volgende:

Hoe kan ik de dockers een vast IP-adres geven? Ik heb al allerlei argumenten mee gegeven in de environment variables (bijvoorbeeld IP = 192.168.11.240) maar niets lijkt te werken. Ik moet nu alle containers in de juiste volgorde opstarten na een reboot, best irritant.

  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43

Buy Me a Coffee


  • TF0
  • Registratie: december 2009
  • Laatst online: 23:29
Bedankt voor de tip, maar hoe voer ik dat hier in?

Bovenstaande werkt niet, hij wijst nog steeds het eerst beschikbare ip-adres toe.

Jouw link is voor Docker compose, dan moet ik dus dit soort dingen uitvoeren?
Enable ssh in synology Create a directory in one of your volumes to use for storage/config in synology app Login via SSH for the following : Create a docker-compose.yml file in the directory you created (search for examples) Run docker-compose up -d to start containers in detached mode

Now your containers will be running and visible in the docker app and van see config set.
Ik wilde het eigenlijk simpel houden zonder SSH 'geknutsel' :'(.

  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@TF0
Ik weet eerlijk gezegd niet of dit via de Synology GUI kan worden ingesteld.

Wat je kunt doen is het eens proberen via SSH en daarna kijken hoe dit in de Synology GUI naar voren komt.

Ik heb hier een voorbeeldje en stappen welke je zou kunnen proberen.
L0g0ff in "[Pi-Hole] Ervaringen & discussie"

Voorbeeld van docker-conpose is wel dat je makkelijk de instellingen kunt bewaren en overdragen en de containers makkelijk kunt manipuleren aanmaken, starten, stoppen, verwijderen. Maar dat is mijn ervaring.

Hier kun je eventueel nog docker run commando's omzetten naar yaml formaat.
https://www.composerize.com/

Buy Me a Coffee


  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
Aardig klusje.

Apple Silicon M1 Chips and Docker
https://www.docker.com/bl...icon-m1-chips-and-docker/

Buy Me a Coffee


  • Jazco2nd
  • Registratie: augustus 2002
  • Laatst online: 23:27
Weet iemand hoe je een (linux) NICE level kan instellen voor docker containers?
Ik lees in de documentatie dat
code:
1
--cap-add=sys_nice
beschikbaar is, maar dit is om de container rechten te geven zijn prio naar realtime te verhogen. Dat wil ik niet.
Ik wil voor bepaalde containers gewoon een vast, lager NICE level instellen tov de rest van het hele systeem (host).

Bijvoorbeeld SyncThing stelt tijdens bare installatie sowieso een lager NICE level in. Handig. Voor Transmission in Docker wil ik ook graag een lager level.

  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@Jazco2nd
Als je optie --cap-add=sys_nice meegeeft dan kun je *in* de container met renice de prioriteit aanpassen.

Er zijn nog wel een aantal andere opties:
https://docs.docker.com/c...ers/resource_constraints/
Maar ik moet toegeven dat ik er het fijne niet van weet helaas.

Buy Me a Coffee


  • Jazco2nd
  • Registratie: augustus 2002
  • Laatst online: 23:27
kraades schreef op maandag 30 november 2020 @ 20:11:
@Jazco2nd
Als je optie --cap-add=sys_nice meegeeft dan kun je *in* de container met renice de prioriteit aanpassen.

Er zijn nog wel een aantal andere opties:
https://docs.docker.com/c...ers/resource_constraints/
Maar ik moet toegeven dat ik er het fijne niet van weet helaas.
Hmm jammer, als ik de container opnieuw aanmaak (image update) ben ik de setting dus weer kwijt. Ik hoopte op een manier om NICE voor de gehele container in te stellen. Maar dat gaat niet.
Cpu-share is een optie, maar gaat alleen over de cpu. Ik kijk het nog ff aan.

  • c-nan
  • Registratie: juni 2008
  • Laatst online: 03:40
Ik weet niet of dit thuis hoort in dit topic, zo niet, excuses..

Ik heb 2 servers, waar ik docker op wil gaan draaien, maar dan wel clustered. Als storage heb ik NFS ter beschikking.

OpenShift/Kubernetes is te uitgebreid, dat zal je met slechts 2 nodes niet willen draaien denk ik? Wat blijft er over? Het is belangrijk dat wanneer 1 node weg valt, de andere node de containers moet overnemen.

Wat is een geschikt product om een clustered docker omgeving op te zetten met slechts 2 nodes en het tevens door moet draaien wanneer er maar 1 node overblijft.

  • mennoo
  • Registratie: oktober 2001
  • Laatst online: 25-02 20:14
c-nan schreef op vrijdag 4 december 2020 @ 21:34:
Ik weet niet of dit thuis hoort in dit topic, zo niet, excuses..

Ik heb 2 servers, waar ik docker op wil gaan draaien, maar dan wel clustered. Als storage heb ik NFS ter beschikking.

OpenShift/Kubernetes is te uitgebreid, dat zal je met slechts 2 nodes niet willen draaien denk ik? Wat blijft er over? Het is belangrijk dat wanneer 1 node weg valt, de andere node de containers moet overnemen.

Wat is een geschikt product om een clustered docker omgeving op te zetten met slechts 2 nodes en het tevens door moet draaien wanneer er maar 1 node overblijft.
Kubernetes lijkt mij juist een prima oplossing. Kan al op 1 machine draaien..

  • podarcis
  • Registratie: oktober 2010
  • Laatst online: 26-02 14:54
Ik ben aan het experimenteren met een Pi clustertje, waarbij ik nu tegen een probleempje aanloop; alle docker-gerelateerde commando's blijven 'hangen'...

Het gaat om een clustertje van 4 rpi1-tjes in een docker swarm. 2 managers, 2 workers. Zolang ze niks te doen hadden (behalve de visualizer-container) liep het prima. Alle commandos (docker swarm ps, docker node ls, etc) liepen prima.

In mijn overmoed heb ik een pihole container met docker-compose toegevoegd aan de swarm. Dat leek op zich prima te gaan, alleen duurde het repliceren vrij lang (bleef op 0/1) staan. Maar dat leek me aan de brute kracht van de pi's te liggen en dat zou wel goed komen na een tijdje. Dus meteen ook maar een unifi-container opgestart. Leek ook prima te gaan, kreeg vrij snel weer een prompt terug. Dus daarna maar even wachten totdat alles netjes was opgestart... Het was ondertussen al laat dus daarna maar gaan slapen.

Volgende ochtend is de visualizer niet meer bereikbaar en werken alle docker-commando's niet meer. Ik kan ze opstarten maar er gebeurt niets. De commando's timen ook niet out of zo. De dockers services herstarten idem. Ook updaten met bijvoorbeeld apt get update blijft hangen bij de docker-ce-files... Met een ctrl-c ben ik weer terug bij de prompt.

De pi's herstarten helpt niet... Verder zijn de pi's uit het clustertje gewoon bereikbaar via ssh. Alleen alles rondom docker doet 'niks'. Alle Pi's zijn ook in relatieve rust; 0.03 0.02 0.02 of zo...

Hoe krijg ik docker weer in het gareel? Docker verwijderen via apt remove docker blijft weer hangen op het verwijderen van docker-ce*... (Ik kan natuurlijk alle sd-kaartjes opnieuw flashen, en van voren af aan beginnen maar ik wil er graag iets van leren.)

  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@podarcis
Geven de logs geen hint wat er aan de hand is?

Buy Me a Coffee


  • podarcis
  • Registratie: oktober 2010
  • Laatst online: 26-02 14:54
kraades schreef op vrijdag 18 december 2020 @ 09:34:
@podarcis
Geven de logs geen hint wat er aan de hand is?
8)7 Dat had ik ook kunnen bedenken, ja... Maar ik zie in syslog:

code:
1
"Your kernel does not support cgroup blkio weight"


Dus mogelijk iets met de kernel.... maar een "apt update && apt upgrade" blijft hangen bij het updaten van docker-ce* en die wil eerst geupdate worden (maar kan dus niet gestopt worden), voordat hij bij het gedeelte van de kernel-update komt... beetje kip-en-ei verhaal...

  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@podarcis
Misschien de auto start tijdelijk uitzetten en hierna reboot en updaten?

Geen andere meldingen in /var/log? Inclusief subdirectories...

Buy Me a Coffee


  • podarcis
  • Registratie: oktober 2010
  • Laatst online: 26-02 14:54
Misschien de auto start tijdelijk uitzetten en hierna reboot en updaten?
Hoe? sudo systemctl stop docker blijft bijvoorbeeld ook hangen...
Geen andere meldingen in /var/log? Inclusief subdirectories...
in messages:

code:
1
2
Dec 15 01:29:30 teamgreen kernen:[301802.400152] docker_gwbride: port2(veth951b1d5) entered blocking state
Dec 15 01:42:50 teamgrean kernel: [302602.324040] oom-koll:constraint=CONTRAINT_NONE, nodemask=(null),global_oom,task_memcg=/,task=docker.d,pid=716,uid=0


Word ik ook niet veel wijzer van...

  • c-nan
  • Registratie: juni 2008
  • Laatst online: 03:40
podarcis schreef op vrijdag 18 december 2020 @ 12:02:
[...]


Hoe? sudo systemctl stop docker blijft bijvoorbeeld ook hangen...


[...]


in messages:

code:
1
2
Dec 15 01:29:30 teamgreen kernen:[301802.400152] docker_gwbride: port2(veth951b1d5) entered blocking state
Dec 15 01:42:50 teamgrean kernel: [302602.324040] oom-koll:constraint=CONTRAINT_NONE, nodemask=(null),global_oom,task_memcg=/,task=docker.d,pid=716,uid=0


Word ik ook niet veel wijzer van...
systemctl disable <service> vervolgens rebooten. Check daarna of je Docker kunt verwijderen.

  • Jazco2nd
  • Registratie: augustus 2002
  • Laatst online: 23:27
Omdat ik mijn systeem schijf (SSD) moest vervangen, heb ik gelijk mijn server from scratch opnieuw geinstalleerd.

Nu ben ik ook helemaal over op BTRFS. Dat gebruikte ik reeds voor mijn gewone laptop. Ik gebruik geen RAID(1), vind het voorlopig prima om gewoon MergerFS icm SnapRAID te gebruiken (ipv realtime parity). Alle dataschijven, snapraid-gereserveerde schijven en mijn systeemschijf gebruiken nu het BTRFS filesystem.

Mijn $HOME/docker map bevat mijn mapjes met mounted volumes per container. Ik wil deze nog in een apart subvolume te gooien, zodat ik deze map kan excluden wanneer er snapshots van mijn systeem / en /home worden gemaakt en zodat ik deze map apart kan snapshotten.

Mijn vraag is nu:
Ik ontdek dat Docker in staat is een BTRFS storage driver te gebruiken. Het is mij niet duidelijk of dit wenselijk is voor een thuisserver situatie. Zeker als ik dit deel lees: https://docs.docker.com/s...fs-and-docker-performance
Wat mij wel aanspreekt in deze documentatie is om de map /var/lib/docker te vervangen voor een subvolume, weer alleen om deze te excluden bij het maken van systeem snapshots. Maar daarvoor hoef je niet de docker BTRFS driver te gebruiken.

Ik gebruik Docker voor:
FileRun (Nextcloud alternatief) + MariaDB en ElasticSearch, DNS server (Unbound), Firefox Sync, Traefik, OnlyOffice document server, Unifi Controller, Jellyfin en een aantal dingen zoals Sonarr.

[Voor 16% gewijzigd door Jazco2nd op 29-12-2020 16:13]


  • Creative
  • Registratie: september 2012
  • Laatst online: 27-02 01:57
Weet iemand een goede docker (applicatie) om je uptime van je wan/internet te monitoren?
Ik weet dat je aardig wat met grafana etc. kunt maar zo uitgebreid hoeft het niet.
Dien alleen te weten hoeveel uptime ik heb van mijn internet/WAN en dat ik een e-mail krijg als de verbinding eruit ligt.

  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
Ik gebruik een Synology met een wat oudere versie van docker. Om wat dingen uit te proberen wilde ik docker in docker installeren om zodoende de laatste versie van docker te gebruiken.

Nu lukt dat met een oudere versie van docker (docker:18.09.6) wel, maar met de laatste versie van docker niet.

Ik krijg dan de volgende melding:
code:
1
Cannot connect to the Docker daemon at tcp://docker:2375. Is the docker daemon running?

Weet iemand raad?

Edit:
Opgelost.
Ik moest de dockerd starten met de -H optie en hierna nog de DOCKER_HOST variable zetten.
Port 2375 is geen oplossing voor in productie maar prima voor mijn testdoeleinden.

docker run --rm --privileged -it docker
> apk add --no-cache iptables
> dockerd -H tcp://127.0.0.1
> export DOCKER_HOST=127.0.0.1:2375
> docker version

[Voor 98% gewijzigd door kraades op 30-12-2020 14:00]

Buy Me a Coffee


  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 22:03

ThinkPad

Moderator Duurzame Energie & Domotica
Creative schreef op dinsdag 29 december 2020 @ 18:24:
Weet iemand een goede docker (applicatie) om je uptime van je wan/internet te monitoren?
Ik weet dat je aardig wat met grafana etc. kunt maar zo uitgebreid hoeft het niet.
Dien alleen te weten hoeveel uptime ik heb van mijn internet/WAN en dat ik een e-mail krijg als de verbinding eruit ligt.
Als je echt latency grafiekjes e.d. wilt hebben is SmokePing erg handig (ik draai deze container). Maar als het je alleen gaat om een mailtje krijgen dan kun je naar https://uptimerobot.com/ kijken. Je moet alleen wel zorgen dat je modem/router van buitenaf te pingen is.



Iemand wel eens iets met multicast/mDNS gedaan i.c.m. Docker? Ik ben bezig met https://flows.nodered.org/node/node-red-contrib-fakeroku plugin voor Node-RED. Deze emuleert een Roku afstandsbediening die door de Logitech Harmony Hub gevonden kan worden. Hij maakt zich via mDNS bekend op het netwerk. Maar ik krijg het niet werkend. Nu lees ik dat het met netwerk 'bridge' sowieso niet gaat werken binnen Docker en dat je 'host' moet gebruiken. Maar ook dan werkt het niet.

Iemand tips?

Gas besparen door CV-tuning | Elektriciteit besparen
Geen vragen via privébericht die ook via het forum kunnen a.u.b.


  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@ThinkPad
Moet je docker container dan geen IP-adres hebben uit je netwerk. Misschien macvlan proberen i.p.v. host?

Buy Me a Coffee


  • Creative
  • Registratie: september 2012
  • Laatst online: 27-02 01:57
Iemand een oplossing om docker duplicati (backup oplossing) resultaten naar telegram te sturen? momenteel verstuur ik deze via email (smtp gmail) maar wil deze graag naar telegram hebben net als watchtower.

[Voor 5% gewijzigd door Creative op 30-12-2020 19:34]


  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@Creative
Ik weet niet precies wat je met docker duplicatie resultaten bedoeld, maar je kunt vrij makkelijk met de Telegram API communiceren.
https://wk0.medium.com/se...telegram-api-17de9102ab78.

[Voor 61% gewijzigd door kraades op 30-12-2020 19:12]

Buy Me a Coffee


  • Creative
  • Registratie: september 2012
  • Laatst online: 27-02 01:57
kraades schreef op woensdag 30 december 2020 @ 19:09:
@Creative
Ik weet niet precies wat je met docker duplicatie resultaten bedoeld, maar je kunt vrij makkelijk met de Telegram API communiceren.
https://wk0.medium.com/se...telegram-api-17de9102ab78.
Ik bedoel de backup rapporten uit Duplicati (backup oplossing)
Standaard kan ik in duplicatie niet kiezen voor telegram. (momenteel email d.m.v. smtp via gmail)
Voor bijv watchtower heb ik al een api koppeling met telegram bot.
Dit zou ik ook graag willen voor de backup rapporten van Duplicati.

  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@Creative
Ah, zo. Ik denk dat dit meer een Duplicati specifieke vraag is en niet zozeer docker gerelateerd?

Maar een snelle zoek komt uit op dit script:
https://github.com/duplic...tin/run-script-example.sh
Je kunt dus na de backup een script uitvoeren. Dit is daar een voorbeeld van. Als ik het goed begrijp heb je daar diverse Duplicati gegevens als environment variables beschikbaar. Dat is de plek om de Telegram API aan te roepen.

[Voor 3% gewijzigd door kraades op 30-12-2020 21:37]

Buy Me a Coffee


  • Creative
  • Registratie: september 2012
  • Laatst online: 27-02 01:57
kraades schreef op woensdag 30 december 2020 @ 21:35:
@Creative
Ah, zo. Ik denk dat dit meer een Duplicati specifieke vraag is en niet zozeer docker gerelateerd?

Maar een snelle zoek komt uit op dit script:
https://github.com/duplic...tin/run-script-example.sh
Je kunt dus na de backup een script uitvoeren. Dit is daar een voorbeeld van. Als ik het goed begrijp heb je daar diverse Duplicati gegevens als environment variables beschikbaar. Dat is de plek om de Telegram API aan te roepen.
Bedankt en ja hier was ik al mee bezig.
Ik heb het inmiddels voor elkaar dat ik een script in de container kan aftrappen voor of na de taak.
Nu nog kijken hoe ik dit voor elkaar krijg met telegram.

EDIT:
Opgelost (https://forum.duplicati.com/t/duplicati-and-telegram/6282/19)
Via apprise (docker container) en een sh script werkend gekregen.

[Voor 8% gewijzigd door Creative op 30-12-2020 23:52]


  • xsienix
  • Registratie: oktober 2013
  • Laatst online: 24-01 16:48
Hallo mensen,

SInds kort ben ik met Docker begonnen.
Ik zit nog wel wat te stoeien met de begrippen, maar dat komt goed heb ik het idee.

Nu heb ik een Apache server van Github afgehaald om te kijken wat het doet en wat ik ermee kan.
Normaal zou ik een var/www structuur zien, maar die zie ik niet meer, waarbij ik een vermoeden heb dat deze structuur zich ergens anders bevind.

Vraag:
Waar is de structuur opbouw gebleven zoals je die kent van een serverhoster.

Hartelijk dank alvast.

Its alive Jim, but not as we know it


  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@xsienix
Volgens mij niet echt docker gerelateerd en geen idee wat je van github hebt gehaald maar de default www root is /var/www/html.

En anders DocumentRoot nakijken in httpd.conf.

E.e.a. kan afwijken per installatie.

Buy Me a Coffee


  • xsienix
  • Registratie: oktober 2013
  • Laatst online: 24-01 16:48
Er draait een Apache server in een container.

Normaal bij een VM zie je netjes de mapstructuren staan.

Nu dus niet.

Its alive Jim, but not as we know it


  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@xsienix
docker exec -it <container> /bin/bash

Dan kun je e.e.a nakijken als dat niet op de github pagina staat genoemd.

Hierna kun je met de -v optie de www of htdocs directory mappen.

Zoals in:
https://hub.docker.com/_/httpd
Deze image kun je overigens ook gebruiken voor een Apache server.

Buy Me a Coffee


  • podarcis
  • Registratie: oktober 2010
  • Laatst online: 26-02 14:54
Ik heb in een container Dashticz V3 draaien (via https://domoticz.com/foru...a0b05df23542f9c38f23cae41) . Die kan ik zien via

code:
1
docker ps


geeft
CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES
61d72957c29e dtv3-8082 "docker-php-entrypoi.." 3 days ago Up 3 days 0.0.0.0:8082->80/tcp dtv3-8082

Maar nu wil ik hem in mijn swarm hebben. Met

code:
1
docker service ls


kan ik hem niet vinden.

Hoe 'promoveer' ik dit naar mijn docker swarm?

  • CAPSLOCK2000
  • Registratie: februari 2003
  • Laatst online: 17:58

CAPSLOCK2000

zie teletekst pagina 888

podarcis schreef op vrijdag 22 januari 2021 @ 09:08:
Ik heb in een container
<knip>

Maar nu wil ik hem in mijn swarm hebben. Met
Dat kan niet. Je moet de container stoppen en dan een service aanmaken met 'docker service create' in plaats van 'docker container run'.

De kunst is om de juiste argumenten mee te geven. Het lastige is dat jij een script van internet hebt gebruikt om alles voor je te doen. Daardoor weet je waarschijnlijk niet wat die argumenten zijn. Ik denk dat je het wel kan afleiden uit de configuratie van die container, anders zul je dat script moeten bekeijken.

This post is warranted for the full amount you paid me for it.


  • Jazco2nd
  • Registratie: augustus 2002
  • Laatst online: 23:27
Hier mensen die NextCloud via Docker draaien?
Ik kwam dit tegen, lijkt me een hele mooie minimalistische oplossing, zonder ngnix, met Redis en Traefikv2:
https://medium.com/faun/d...ql-and-redis-fd1ffc166173

Ik dacht (alleen gebaseerd op het lezen van headlines) dat Nextcloud-Alpine (php-FPM) sneller was, maar ik heb alles via Traefikv2 draaien dus wil helemaal geen Nginx erbij draaien als dat niet hoeft. Ik heb echter geen enkel voorbeeld gezien met Traefikv2 en php-FPM.. wel wat voorbeelden die zowel nginx als Traefik draaen..

ik weet eigenlijk niet of dit een betere vraag is voor het Nextcloud topic..

  • dss58
  • Registratie: april 2015
  • Laatst online: 27-02 10:31
docker introductie door Jay LaCroix , een waardevolle playlist YouTube: Docker Essentials (Part 1) - Introduction

  • ThinkPad
  • Registratie: juni 2005
  • Laatst online: 22:03

ThinkPad

Moderator Duurzame Energie & Domotica
Waarom worden al mijn containers netjes bijgewerkt door Watchtower, behalve Portainer? Ik beheer alles via Portainer, dus die laatste moet ik de CLI voor induiken om hem bij te werken (Portainer heeft vziw nog geen optie om zichzelf te kunnen updaten). Watchtower zou dat toch ook moeten kunnen? Ik heb geen exclusions gemaakt in Watchtower dus snap niet helemaal waarom deze niet wordt meegenomen.
portainer/portainer is deprecated lees ik. Zal overstappen naar portainer-ce ("Community Edition"). Dat verklaart het issue denk ik. Zit namelijk wel op 1.24.1 wat de laatste is van portainer.

[Voor 71% gewijzigd door ThinkPad op 29-01-2021 09:10]

Gas besparen door CV-tuning | Elektriciteit besparen
Geen vragen via privébericht die ook via het forum kunnen a.u.b.


  • Arunia
  • Registratie: februari 2003
  • Laatst online: 01:55
@Jazco2nd ik nog niet. Heb wel het idee om owncloud of nextcloud te gaan draaien tzt. Op dit moment alleen nog te veel te doen.
Maar je zou een docker zoek opdracht in dat topic kunnen geven. Als het veel op komt, dan kun je de vraag daar stellen.

http://tinyurl.com/jz5ms3c gehaakte pokeballs


  • Forceworks
  • Registratie: juni 2007
  • Laatst online: 29-01 10:08
ThinkPad schreef op vrijdag 29 januari 2021 @ 08:47:
Waarom worden al mijn containers netjes bijgewerkt door Watchtower, behalve Portainer? Ik beheer alles via Portainer, dus die laatste moet ik de CLI voor induiken om hem bij te werken (Portainer heeft vziw nog geen optie om zichzelf te kunnen updaten). Watchtower zou dat toch ook moeten kunnen? Ik heb geen exclusions gemaakt in Watchtower dus snap niet helemaal waarom deze niet wordt meegenomen.
Wat ik nog kan bedenken is dat portainer laatst hun >= 2.0 versies op een nieuwe repo heeft gebracht.

portainer/portainer:<tag> bevat alleen maar versies lager dan 2.0 (en er zijn dus geen updates meer te krijgen)
portainer/portainer-ce:<tag> is de nieuwe repo waar 2.0 en alle nieuwe versies op landen.


edit: ah, je had het al gevonden terwijl ik deze post tikte.
je kunt gewoon de image verwijzing vervangen in je run statement of compose-file en dan neemt hij je bestaande install/data gewoon over.

[Voor 11% gewijzigd door Forceworks op 29-01-2021 09:14]


  • SupremeRick
  • Registratie: mei 2010
  • Laatst online: 26-02 21:22

SupremeRick

Muse Fan

Jazco2nd schreef op zondag 24 januari 2021 @ 19:12:
Hier mensen die NextCloud via Docker draaien?
Ik kwam dit tegen, lijkt me een hele mooie minimalistische oplossing, zonder ngnix, met Redis en Traefikv2:
https://medium.com/faun/d...ql-and-redis-fd1ffc166173

Ik dacht (alleen gebaseerd op het lezen van headlines) dat Nextcloud-Alpine (php-FPM) sneller was, maar ik heb alles via Traefikv2 draaien dus wil helemaal geen Nginx erbij draaien als dat niet hoeft. Ik heb echter geen enkel voorbeeld gezien met Traefikv2 en php-FPM.. wel wat voorbeelden die zowel nginx als Traefik draaen..

ik weet eigenlijk niet of dit een betere vraag is voor het Nextcloud topic..
Jup, echter draait de nextcloud:latest gewoon apache, dus je zult Nginx nodig hebben voor php-fpm geloof ik.
De Alpine FPM versie klinkt wel tof, misschien dat ik mijn installatie maar eens om ga zetten.

[Voor 5% gewijzigd door SupremeRick op 29-01-2021 09:16]

PC: CPU: i9-10900KF @ 4.8GHZ | GFX: MSI Gaming X GTX1080Ti | RAM: GSKILL TridentZ 4x16GB @ 3600MHz | SSD: 2TB | HDD: 1TB | Mobo: Asus Strix Z470-e | Case: Corsair 500D SE | Cooler: Corsair H150i


  • lolgast
  • Registratie: november 2006
  • Laatst online: 00:32
Heej een Docker topic! Ik gebruik Docker inmiddels een jaar of 3(?), enkel thuis. Begonnen een container voor Home Assistant. Inmiddels stopt mijn huis met functioneren als mijn Docker host uitvalt. Ik ben zelfs zo ver gegaan dat mijn SMB shares via een container lopen en niet via de host zelf.

Watchtower ben ik mee gestopt, dat maakte vaker dingen kapot dan het oplost (zolang je geen 50 verschillende images moet updaten). Ik begin er niet meer. Met Docker Compose is het een fluitje van een cent om alle images te downloaden (docker-compose pull) en vervolgens de containers te updaten. Dit geeft veel meer controle. Ik doe elke 2 weken een rondje en lees de changelogs van de software/containers waarvan ik weet dat er grote kans is dat dingen stuk gaan.

Backuppen van de data doe ik via Duplicati. Ook een container, uiteraard :9 . Ik draai Docker in verschillende LXCs via Proxmox en upload gewoon de complete backup van de LXC. File-level restore kan daardoor alleen als ik de LXC restore maar het is in de afgelopen 3 jaar nog niet voorgekomen dat ik dat moest doen.

Mijn containers:
LXC 1LXC 2VM 1
AdGuard HomeAdGuard HomeESPHome
DSMRUnifi NVRMosquitto
PostgreSQL:12.5-alpine (DSMR DB)Node-RED
LycheeZigbee2MQTT
MariaDB (Lychee DB)
Duplicati
NGINX:alpine
NZBGet
Radarr
Sonarr
Samba share
Traefik
Unifi Controller:6.0

De 2e LXC is opgezet omdat Unifi NVR ontzettende k*t software is met nogal eens wat memory issues. Nu loopt niet alles vast als hij raar doet. En omdat ik nu toch 2 omgevingen heb, heb ik de DNS maar meteen een 2e instance gegeven. Als ik de ene dan onderhoud kan mijn vrouw verder internetten ;)

  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
@lolgast
Waar is Home Assistent? :P

Buy Me a Coffee


  • lolgast
  • Registratie: november 2006
  • Laatst online: 00:32
Dat is VM1 O-) Alle addons die je daar installeert zijn ook gewoon Docker containers.

Beetje valsspelen vwb het overzicht, maar in mijn verdediging draaide ik het vroeger allemaal als losse containers in eigen beheer. Sinds een paar maanden ben ik geswitcht van HA Core naar HA via een QCOW2 image die ze faciliteren. HA draait niet 'officieel gesupport' (voor wat dat überhaupt waard is bij dat project) in een LXC dus ben ik maar naar hun virtual appliance gegaan

[Voor 16% gewijzigd door lolgast op 29-01-2021 10:00]


  • Freee!!
  • Registratie: december 2002
  • Laatst online: 01:39

Freee!!

Trotse papa van Toon en Len!

En Pi-Hole :?
Je hebt AdGuard.

[Voor 7% gewijzigd door Freee!! op 29-01-2021 10:03]

The problem with common sense is that sense never ain't common - From the notebooks of Lazarus Long

GoT voor Behoud der Nederlandschen Taal [GvBdNT]


  • kraades
  • Registratie: november 2006
  • Laatst online: 22:43
lolgast schreef op vrijdag 29 januari 2021 @ 09:58:
Dat is VM1 O-) Alle addons die je daar installeert zijn ook gewoon Docker containers.
Weet ik. :9
Ik heb het op een Synology draaien. Alleen ik ben nog steeds niet over van Domoticz. Te weinig tijd!

Wat voor hardware gebruik je voor jouw opzet?

Buy Me a Coffee


  • alesandro_46
  • Registratie: januari 2012
  • Laatst online: 22:50
lolgast schreef op vrijdag 29 januari 2021 @ 09:41:
Heej een Docker topic! Ik gebruik Docker inmiddels een jaar of 3(?), enkel thuis. Begonnen een container voor Home Assistant. Inmiddels stopt mijn huis met functioneren als mijn Docker host uitvalt. Ik ben zelfs zo ver gegaan dat mijn SMB shares via een container lopen en niet via de host zelf.

Watchtower ben ik mee gestopt, dat maakte vaker dingen kapot dan het oplost (zolang je geen 50 verschillende images moet updaten). Ik begin er niet meer. Met Docker Compose is het een fluitje van een cent om alle images te downloaden (docker-compose pull) en vervolgens de containers te updaten. Dit geeft veel meer controle. Ik doe elke 2 weken een rondje en lees de changelogs van de software/containers waarvan ik weet dat er grote kans is dat dingen stuk gaan.

Backuppen van de data doe ik via Duplicati. Ook een container, uiteraard :9 . Ik draai Docker in verschillende LXCs via Proxmox en upload gewoon de complete backup van de LXC. File-level restore kan daardoor alleen als ik de LXC restore maar het is in de afgelopen 3 jaar nog niet voorgekomen dat ik dat moest doen.

Mijn containers:
LXC 1LXC 2VM 1
AdGuard HomeAdGuard HomeESPHome
DSMRUnifi NVRMosquitto
PostgreSQL:12.5-alpine (DSMR DB)Node-RED
LycheeZigbee2MQTT
MariaDB (Lychee DB)
Duplicati
NGINX:alpine
NZBGet
Radarr
Sonarr
Samba share
Traefik
Unifi Controller:6.0

De 2e LXC is opgezet omdat Unifi NVR ontzettende k*t software is met nogal eens wat memory issues. Nu loopt niet alles vast als hij raar doet. En omdat ik nu toch 2 omgevingen heb, heb ik de DNS maar meteen een 2e instance gegeven. Als ik de ene dan onderhoud kan mijn vrouw verder internetten ;)
Krijg je met docker-compose pull een overzicht van containers waar een update voor is? Hoe update je vervolgens de container? Via Portainer met een nieuwe deploy (+update van image)?
Of wordt alles dan ook direct geüpdatet?

Deze ruimte is bewust leeg gelaten


  • lolgast
  • Registratie: november 2006
  • Laatst online: 00:32
@alesandro_46 Als je docker-compose pull uitvoert download hij van alle images die in de docker-compose.yml vermeld worden de laatste versie. Als je die vervolgens wilt gebruiken geef je als commando docker-compose up -d en klaar is alesandro_46 :) Containers worden gestopt, verwijderd en vervolgens opnieuw aangemaakt met de laatste image. Het enige dat je zelf nog moet doen is de oude images verwijderen. Of niet, als je genoeg ruimte hebt :+

@kraades Ik draai op een HP ProDesk 400 G3 mini. Core i5-7500t, 16GB RAM, 256SSD voor Proxmox en een 2TB nvme waar de data op staat (voornamelijk films en foto's).


Apple iPhone 12 Microsoft Xbox Series X LG CX Google Pixel 5 Sony XH90 / XH92 Samsung Galaxy S21 5G Sony PlayStation 5 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True