Toon posts:

[HowTo][Synology] Installatie Docker

Pagina: 1
Acties:

Onderwerpen


  • d5stick
  • Registratie: Januari 2007
  • Niet online
Dit topic ben ik gestart voor de vele Synology's welke Docker niet kunnen installeren via de DSM 7 GUI.
In dit stappenplan zal ik ook PiHole invoegen om te testen of Docker functioneert. Je kan deze stap overslaan en je eigen containers configureren.

##Disclaimer:
Niet elke Synology NAS kan Docker draaien. De enige manier is proberen en kijken of je het werkend krijgt. Het blijft een trial and error. Ik ben ook niet aansprakelijk voor fouten of het niet volgen van de tutorial.

Wat heb je nodig om het uit te voeren:
- Een Synology NAS
- Putty / Windows, Terminal MacOS(of iets soortgelijks).
- WinSCP (Niet perse maar handig als je het bij de hand hebt)
- Enige kennis van Linux om te troubleshooten.
- Verifieer of je kernel 3.10 of later draait! (Zie stap 2)

Stap 1: Inschakelen van SSH
- Open de GUI van je Synology en ga naar Configuratiescherm -> Terminal en SNMP
- Vinkje zetten bij "SSH-Service inschakelen" en druk op "Toepassen". (Herstart de Synology als dit nodig is.)
- Na het volgen van deze manual is het aangeraden om SSH uit te schakelen.

Stap 2: Verbinden met SSH
- Open Putty en verbind naar je Synology met de login gegevens die je gebruikt in de GUI.
login as: Batman
Batman@Batmobile1's password:

Synology strongly advises you not to run commands as the root user, who has
the highest privileges on the system. Doing so may cause major damages
to the system. Please note that if you choose to proceed, all consequences are
at your own risk.

Could not chdir to home directory /var/services/homes/Batman: No such file or directory
Batman@Batmobile1:/$


Stap 2.a: Kernel verificatie
Verifieer met onderstaand commando of je kernel 3.10 of later draait om Docker werkend te krijgen.
Batman@Batmobile1:/$ uname -r
3.10.108


Stap 3: Starten met verhoogde toegangsrechten en verifieer de aanwezige CPU.
Onderstaande zal je commando's wijzen zichzelf.
Wanneer je het sudo commando gebruikt zal je nogmaals het wachtwoord in moeten vullen.
Dit is hetzelfde wachtwoord als je gebruikt voor je normale account.

De regel "Model Name" van de CPU output is belangrijk.
Batman@Batmobile1:/$ sudo -i
Password:
root@Batmobile1:~# cat /proc/cpuinfo
processor       : 0
model name      : ARMv7 Processor rev 4 (v7l)
Speed           : 1.4GHz
Features        : swp half thumb fastmult vfp edsp neon vfpv3 tls vfpv4 idiva idivt
CPU implementer : 0x41
CPU architecture: 7
CPU variant     : 0x2
CPU part        : 0xc0f
CPU revision    : 4 


Stap 4: Bepalen welke Docker versie je nodig hebt
Ga naar de Docker website LINK.
Je zal hier de volgende opties zien;
aarch64/
armel/
armhf/
ppc64le/
s390x/
x86_64/

Voor mijn situatie "ARMv7 Processor rev 4 (v7l)" heb ik de versie nodig vanuit "armhf".
De "armel" is voor de oudere 32bit ARM technologie. De "armhf" is voor de versie 7 ARM CPU.
De overige architecturen (Als ze in de synology zitten) kunnen via DSM Docker installeren.

Let op:
Het is verleidelijk om de laatste versie te pakken van de "armhf" docker installatie. Deze zal helaas niet draaien en de synology zal in latere stappen terug komen met de melding: "segmentation fault error".
Hou het bij versie 19.03.8. Deze is stabiel en zal zonder problemen draaien.


Stap 5: Download de Docker instance
In de volgende commando's gaan we naar de root folder waarin we wat mappen aanmaken.
Hierin gaan we de docker instance in downloaden en uitpakken.

root@Batmobile1:~# cd ~/
root@Batmobile1:~# mkdir docker_install
root@Batmobile1:~# cd docker_install
root@Batmobile1:~/docker_install# wget https://download.docker.com/linux/static/stable/armhf/docker-19.03.8.tgz
--2022-01-26 22:48:28--  https://download.docker.com/linux/static/stable/armhf/docker-19.03.8.tgz
Resolving download.docker.com... 18.66.2.61, 18.66.2.9, 18.66.2.64, ...
Connecting to download.docker.com|18.66.2.61|:443... connected.
HTTP request sent, awaiting response... 200 OK
Length: 58315969 (56M) [application/x-tar]
Saving to: 'docker-19.03.8.tgz'

docker-19.03.8.tgz  100%[===================>]  55.61M  26.8MB/s    in 2.1s

2022-01-26 22:48:31 (26.8 MB/s) - 'docker-19.03.8.tgz' saved [58315969/58315969]

root@Batmobile1:~/docker_install# tar xvf docker-19.03.8.tgz
docker/
docker/docker
docker/docker-proxy
docker/containerd
docker/ctr
docker/runc
docker/docker-init
docker/dockerd
docker/containerd-shim
root@Batmobile1:~/docker_install#


Stap 6: De installatie van Docker
Verificatie:
Gebruik het commando "pwd" en verifieer je of in de volgende locatie bent: "/root/docker_install".
Mocht je in "/root/docker_install/docker" zijn, gebruik dan het commando "cd /root/docker_install".

Kopieer de bestanden uit de map "docker" naar "/usr/bin".
cp docker/* /usr/bin/

Maak een map aan waar je je containers wil draaien. Ik heb dit op "Volume 1" staan maar pas dit aan naar waar je het wil.
mkdir /volume1/docker

Nu gaan we een configuratie file aanmaken voor docker zodat hij de eerder aangemaakt map ook gaat gebruiken. Dit kan je doen door de volgende commando's uit te voeren.
mkdir /etc/docker
cat > /etc/docker/daemon.json

Een tekst veld zal naar voor komen in je terminal. Kopieer het volgende (Pas het volume aan als je deze in de vorige stap gewijzigd hebt), plak het erin met "ctrl + v" en sluit het meteen af met "ctrl + d".
 {
  "storage-driver": "vfs",
   "iptables": false,
    "bridge": "none",
	"data-root": "/volume1/docker"
}

Start hierna docker door het commando "dockerd" te draaien.
root@Batmobile1:~/docker_install# dockerd

Het kan dat je de volgende error tijdens het opstarten tegen komt:
iptables failed: iptables -t nat -N DOCKER: iptables v1.8.3 (legacy): can't initialize iptables table `nat': iptables who? (do you need to insmod?) Perhaps iptables or your kernel needs to be upgraded.

De errors zijn op te lossen door het volgende commando uit te voeren:
root@Batmobile1:~/docker_install# modprobe iptable-nat
root@Batmobile1:~/docker_install# reboot

Nadat de NAS herstart is kun je opnieuw inloggen met SSH, zorg wel ervoor dat je terug root toegang krijgt.

Start nogmaals "dockerd" en als de instance blijft draaien zonder foutmeldingen open een aparte SSH sessie en log hier op in met hetzelfde account.
root@Batmobile1:~/# docker run hello-world

Als alles goed gaat en docker werkt zal je het volgende zien in je SSH:
 Hello from Docker!
This message shows that your installation appears to be working correctly.

To generate this message, Docker took the following steps:
 1. The Docker client contacted the Docker daemon.
 2. The Docker daemon pulled the "hello-world" image from the Docker Hub.
    (arm32v5)
 3. The Docker daemon created a new container from that image which runs the
    executable that produces the output you are currently reading.
 4. The Docker daemon streamed that output to the Docker client, which sent it
    to your terminal.

To try something more ambitious, you can run an Ubuntu container with:
 $ docker run -it ubuntu bash

Share images, automate workflows, and more with a free Docker ID:
 https://hub.docker.com/

For more examples and ideas, visit:
 https://docs.docker.com/get-started/

Sluit alle terminals en open een nieuwe terminal sessie met root toegang.

Stap 7: Docker laten starten als een service
Je hebt nu docker werkend maar zodra je je terminals afsluit zal ook docker stoppen. Dit is natuurlijk niet wenselijk dus gaan we een service aanmaken zodat Docker opstart met de NAS als een service.
 root@Batmobile1:~/# cd /etc/systemd/system
cat > /etc/systemd/system/docker.service

Kopieer de volgende tekst, plaats het met "ctrl + v" in je terminal en sla het op met "ctrl + d"
[Unit]
Description=Service Docker

[Service]
ExecStart=
ExecStart=/usr/bin/dockerd
Restart=always

[Install]
WantedBy=multi-user.target

De volgende commando's gaan ervoor zorgen dat de systemctl (De verzorger van de "services/daemons") de nieuwe file ziet die we net aangemaakt hebben. Hierna gaan we de docker service starten en de status controleren. Het is wel handig om te weten of hij ook start voor we hem instellen om te starten bij het aangaan van de Synology.

root@Batmobile1:~/# systemctl daemon-reload
root@Batmobile1:~/# systemctl start docker.service
root@Batmobile1:~/# systemctl status docker.service
● docker.service - Service Docker
   Loaded: loaded (/etc/systemd/system/docker.service; enabled; vendor preset: disabled)
   Active: active (running) since Fri 2022-01-14 17:56:49 CET; 1 weeks 5 days ago
 Main PID: 16438 (dockerd)
   CGroup: /system.slice/docker.service
           ├─16438 /usr/bin/dockerd
           ├─16447 containerd --config /var/run/docker/containerd/containerd....
           └─16545 containerd-shim -namespace moby -workdir /volume1/docker/c...

Jan 14 17:56:50 Batmobile1 dockerd[16438]: time="2022-01-14T17:56:50.9107305..."
Jan 14 17:56:51 Batmobile1 dockerd[16438]: time="2022-01-14T17:56:51.6896335..."
Jan 14 17:56:52 Batmobile1 dockerd[16438]: time="2022-01-14T17:56:52.3096108..."
Jan 14 17:56:52 Batmobile1 dockerd[16438]: time="2022-01-14T17:56:52.7994133..."
Jan 14 17:56:52 Batmobile1 dockerd[16438]: time="2022-01-14T17:56:52.9228347...5
Jan 14 17:56:53 Batmobile1 dockerd[16438]: time="2022-01-14T17:56:53.1553093..."
Jan 14 17:56:53 Batmobile1 dockerd[16438]: time="2022-01-14T17:56:53.1575248..."
Jan 14 17:56:53 Batmobile1 dockerd[16438]: time="2022-01-14T17:56:53.1723065...8
Jan 14 17:56:53 Batmobile1 dockerd[16438]: time="2022-01-14T17:56:53.1725428..."
Jan 14 17:56:53 Batmobile1 dockerd[16438]: time="2022-01-14T17:56:53.3064834..."
Hint: Some lines were ellipsized, use -l to show in full.
root@Batmobile1:~/# systemctl enable docker.service


Stap 8: OPTIONEEL: Installatie van PiHole
Zorg ervoor wanneer je het volgende in je terminal invoert dat de volgende waardes aangepast zijn:
WEBPASSWORD - Zorg hiervoor dat je een nieuw wachtwoord gebruikt deze is nodig om in PiHole in te loggen.
ServerIP = Vul hier het IP in van de NAS
Volumes = Vul hier de volume in waarin je docker hebt geprogrammeerd:
 root@Batmobile1:~/# docker run -d --name=pihole \
-e WEB_PORT=8080 \
-e WEBPASSWORD=RandomPassword \
-e ServerIP=192.168.1.1 \
-e DNSMASQ_LISTENING=local \
-v /volume1/docker/pihole/dnsmasq.d:/etc/dnsmasq.d \
-v /volume1/docker/pihole/pihole:/etc/pihole \
--net=host \
--restart always \
pihole/pihole:2022.02.1


Als je alles goed gedaan hebt kun je PiHole openen vanuit je NAS via poort 8080.
Je kan deze container gebruiken om al je eigen DNS verkeer heen te sturen.


HELP! Docker start niet meer na een update van DSM! |:(

Na een update van DSM kan het voorkomen dat docker niet meer opstart.
Als je de service status bekijkt, nadat je een start commando gestuurd hebt, is ook een fail start error.
De service kon niet gestart worden, welke verwijst naar de files in /usr/bin/ omdat deze er niet meer zijn.
Je kan docker opnieuw downloaden en naar de /usr/bin folder kopieren zoals omschreven in de start post.
Hierna kan ja de service weer starten. _/-\o_

HELP! PiHole start niet meer na een container update! :'(

Vandaag wilde ik docker updaten naar de laatste versie maar nadat ik de release notes las ik dat oudere systemen deze versie niet meer kunnen draaien zonder problemen. Eigenwijs zoals ik ben heb ik het toch gedaan en merkte dat de CPU load op 100% sprong en ik klaar was met docker,Pihole en de gehele NAS.
Na een harde herstart van de NAS en het disablen van de docker service heb ik op "/volume1/docker" de "pihole" map verwijdert inclusief de "containers" map. Hierna ben ik gaan zoeken welke versie er nog wel draaide op de NAS. Dit blijkt docker 2022.2.1 te zijn.

Voor zij die nog niet naar de laatste versie zijn gegaan kunnen het volgen de doen:

docker stop pihole  <--- Stopt de container
docker container prune <-- Verwijdert alle gestopte containers
 root@Batmobile1:~/# docker run -d --name=pihole \
-e WEB_PORT=8080 \
-e WEBPASSWORD=RandomPassword \
-e ServerIP=192.168.1.1 \
-e DNSMASQ_LISTENING=local \
-v /volume1/docker/pihole/dnsmasq.d:/etc/dnsmasq.d \
-v /volume1/docker/pihole/pihole:/etc/pihole \
--net=host \
--restart always \
pihole/pihole:2022.02.1

[Voor 16% gewijzigd door d5stick op 18-05-2022 16:44]


  • desmond
  • Registratie: Januari 2004
  • Niet online
Oh leuk. Even geprobeerd.
Er moet nog een commando bij:
mkdir /etc/docker

Voordat je deze uitvoert:
cat > /etc/docker/daemon.json



root@synology:~/docker_install# dockerd
[...]
INFO[2022-01-27T11:23:26.299159179+01:00] serving...                                    address="/var/run/docker/containerd/containerd.sock"
INFO[2022-01-27T11:23:26.299527642+01:00] containerd successfully booted in 0.127454s  
FATA[2022-01-27T11:23:26.404646962+01:00] Your Linux kernel version 3.2.40 is not supported for running docker. Please upgrade your kernel to 3.10.0 or newer. 


Hoe upgrade ik kernel versie? Ik draai Syno updates regelmatig.
Ik had zelfde CPU versie als jij:
root@synology:~# cat /proc/cpuinfo
Processor	: ARMv7 Processor rev 1 (v7l)

  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 20:31
De kernel versie kun je niet zelf wijzigen daar is een volledige update van DSM voor nodig en Synology wijzigt zelden de kernel versie voor eenmaal uitgebrachte hardware.
Docker vereist een minimale kernel versie van 3.10
uname - r
geeft de huidige kernel versie weer

[Voor 9% gewijzigd door Ben(V) op 27-01-2022 16:45]

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • d5stick
  • Registratie: Januari 2007
  • Niet online
desmond schreef op donderdag 27 januari 2022 @ 11:34:
Oh leuk. Even geprobeerd.
Er moet nog een commando bij:
mkdir /etc/docker
Voordat je deze uitvoert:
cat > /etc/docker/daemon.json

Hoe upgrade ik kernel versie? Ik draai Syno updates regelmatig.
Ik had zelfde CPU versie als jij:
root@synology:~# cat /proc/cpuinfo
Processor	: ARMv7 Processor rev 1 (v7l)
Thanks, command toegevoegd!

Welke versie DSM heb je draaien? Ik draai zelf wel versie 7.

  • Just Me Or Tha One
  • Registratie: Augustus 2002
  • Laatst online: 03-02 22:42
Interessante en imposante howto. Voor mijn DS416play gebruik ik het volgende docker package van de DS415+: https://www.synology.com/en-global/support/download/DS415+?version=6.2#packages

werkt prima en om de zoveel tijd update ik het docker package handmatig

  • d5stick
  • Registratie: Januari 2007
  • Niet online
Just Me Or Tha One schreef op donderdag 27 januari 2022 @ 21:59:
Interessante en imposante howto. Voor mijn DS416play gebruik ik het volgende docker package van de DS415+: https://www.synology.com/en-global/support/download/DS415+?version=6.2#packages

werkt prima en om de zoveel tijd update ik het docker package handmatig
Thanks :), Je DS416play heeft een Celeron processor welke 64bit ondersteuning heeft. Dat maakt het wel een stuk gemakkelijker om de Docker installatie van Synology te instlalleren. Wel loopt Synology met de versie van docker vaak wat achter. Als je echt een versie freak bent en de laatste versie wilt, kan je de installatie altijd nog vanaf de Docker website halen en hiermee updaten.

De vele synology NAS'en in de goedkopere rang hebben vaak een ARM processor en nog 32bit.
Deze kunnen helaas de docker packages niet zo maar installeren, vandaar de instructies.
Zelf gebruik ik het voor PiHole wat ideaal is als lichte container.

  • sOid
  • Registratie: Maart 2004
  • Niet online
Nette openingspost. Zit duidelijk veel werk in. Complimenten :)

Ik heb zelf een 418Play en daarbij is het wel wat eenvoudiger inderdaad. Ben enorm blij met Docker. Het is zo ongelooflijk veelzijdig. Toen ik die Syno kocht kende ik Docker niet eens, maar het is eigenlijk een van de meest gebruikte features voor mij.

Overigens gebruik ik docker-compose. Veel prettiger en praktischer dan de GUI. Voor mij in ieder geval.

  • sOid
  • Registratie: Maart 2004
  • Niet online
Heb trouwens nog wel een paar opmerkingen. Zorg er bijvoorbeeld voor dat je SSH naderhand weer uitschakelt of goed beveiligd. Zelf werk ik met SSH Keys maar dat kun je niet via de GUI configureren.

Ook moest ik een macvlan aanmaken voor de Pihole container, maar dat zal wellicht niet voor iedereen gelden.

Oh en misschien handig om Putty aan te vullen met Terminal (macOS) :)

[Voor 10% gewijzigd door sOid op 27-01-2022 22:24]


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 20:31
@d5stick prima post.
Zou ook even het uname -r commando toevoegen en zeggen dat het minimaal kernel versie 3.10 of hoger moet zijn.
Anders lopen ze daar verderop in het proces op vast en dat is dan een beetje jammer.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • d5stick
  • Registratie: Januari 2007
  • Niet online
@sOid en @Ben(V) Thanks voor de input, bij deze ook toegevoegd.

  • pagani
  • Registratie: Januari 2002
  • Niet online
Ik kan gelukkig ook gewoon Docker via de GUI installeren (918+) maar krijg met geen mogelijkheid Domoticz bereikbaar draaiend op Docker, dus blijf ik noodgedwongen nog met een oude Domoticz-versie werken...

  • d5stick
  • Registratie: Januari 2007
  • Niet online
pagani schreef op vrijdag 28 januari 2022 @ 10:27:
Ik kan gelukkig ook gewoon Docker via de GUI installeren (918+) maar krijg met geen mogelijkheid Domoticz bereikbaar draaiend op Docker, dus blijf ik noodgedwongen nog met een oude Domoticz-versie werken...
Heb je geverifieerd wat er fout gaat (Foutmeldingen etc)? Draait de laatste versie van Domoticz alleen op een bepaalde docker versie? Synology loopt wat achter met versies, dit kan wel eens het probleem zijn.

  • pagani
  • Registratie: Januari 2002
  • Niet online
d5stick schreef op vrijdag 28 januari 2022 @ 10:29:
[...]


Heb je geverifieerd wat er fout gaat (Foutmeldingen etc)? Draait de laatste versie van Domoticz alleen op een bepaalde docker versie? Synology loopt wat achter met versies, dit kan wel eens het probleem zijn.
Ik heb er nog eens naar gekeken en de fout bleek bij mij te zitten, had het netwerk ingesteld als bridge i.p.v. host. Nu werkt het :) Nu eens kijken of ik de database (van de oude domoticz) over kan zetten naar de versie in Docker.

Edit: Ook dat is gelukt met backup en restore.

[Voor 13% gewijzigd door pagani op 28-01-2022 11:11]


  • Noppesnada
  • Registratie: Juli 2011
  • Nu online
Allereerst dank voor je handleiding !

Wil docker draaien op mijn ds216 play maar loop vast bij het volgende:

mkdir /etc/docker
cat > /etc/docker/daemon.json

Een tekst veld zal naar voor komen in je terminal. Kopieer het volgende (Pas het volume aan als je deze in de vorige stap gewijzigd hebt), plak het erin met "ctrl + v" en sluit het meteen af met "ctrl + d".

Ik krijg geen tekstveld in Putty (mijn kennis van Linux is erg beperkt !)

Nog suggesties iemand ?

[Voor 3% gewijzigd door Noppesnada op 06-02-2022 18:57]


  • d5stick
  • Registratie: Januari 2007
  • Niet online
Noppesnada schreef op zondag 6 februari 2022 @ 18:50:
Allereerst dank voor je handleiding !

Wil docker draaien op mijn ds216 play maar loop vast bij het volgende:

mkdir /etc/docker
cat > /etc/docker/daemon.json

Een tekst veld zal naar voor komen in je terminal. Kopieer het volgende (Pas het volume aan als je deze in de vorige stap gewijzigd hebt), plak het erin met "ctrl + v" en sluit het meteen af met "ctrl + d".

Ik krijg geen tekstveld in Putty (mijn kennis van Linux is erg beperkt !)

Nog suggesties iemand ?
Je kan in dit geval ook WINSCP gebruiken, hiermee kan je naar de files browsen op de locatie.
Je kan op je eigen PC het bestandje via kladblok aanmaken en de tekst erin plakken waarnaar je het opslaat met de juiste extensie .json.

Deze kan je via WINSCP op de juiste plek zetten.

  • MikeyMan
  • Registratie: Februari 2003
  • Laatst online: 22:18

MikeyMan

Vidi, Vici, Veni

Installatie lukte ook bij mijn 1520+ gewoon via de gui. De stijlere leercurve ontstond daarna pas; de docker images aan de praat krijgen met de juiste rechten. Heb daar meer tijd aan moeten besteden dan ik prettig vond.

€50 welkomstbonus bij Raisin Spaarrekening? Stuur een DM.


  • Noppesnada
  • Registratie: Juli 2011
  • Nu online
d5stick schreef op maandag 7 februari 2022 @ 07:53:
[...]


Je kan in dit geval ook WINSCP gebruiken, hiermee kan je naar de files browsen op de locatie.
Je kan op je eigen PC het bestandje via kladblok aanmaken en de tekst erin plakken waarnaar je het opslaat met de juiste extensie .json.

Deze kan je via WINSCP op de juiste plek zetten.
Dom had ik niet aan gedacht.

Bedankt voor de tip !

  • d5stick
  • Registratie: Januari 2007
  • Niet online
Na een update van DSM 7.1 Beta werkte docker niet meer.
De service kon niet gestart worden, welke verwijst naar de files in /usr/bin/.
Ik heb docker opnieuw gedownload en naar de /usr/bin folder gekopieerd zoals omschreven in de start post.
Hierna kon ik de service weer starten. _/-\o_

  • sypie
  • Registratie: Oktober 2000
  • Niet online
Om hier maar met een (voor mij) grote vraag te komen:

Hoe krijg ik mijn Docker bereikbaar vanaf het grote boze internet?

Situatie:
Docker draaien met Portainer. Daarin een SnipeIT container draaien die locaal prima draait. Hiervoor heb ik deze handleiding gevolgd. Vanaf mijn lokale netwerk draait alles prima. Via de Synology link van QuickConnect werkt het prima van binnen mijn netwerk. Zodra ik via een andere of mobiele verbinding wil werkt het niet meer.

Mijn modem stuurt de betreffende poort door naar mijn Unifi Secure Gateway, waar een dezelfde portforwarding in staat maar dan naar de NAS. (ja, ik weet 't het is dubbel werk...)
https://tweakers.net/i/T7Zr7JirgGjag_Z24urpOOQWn8s=/800x/filters:strip_exif()/f/image/rK8VxPa7x8UhbogCMPZz2U9P.png?f=fotoalbum_large

Wat er gebeurt is dat er naar het de APP_URL gekeken wordt die in de container staat:
code:
1
2
3
4
5
6
7
8
9
10
   environment:
      - APP_URL=http://10.0.0.7:1339
      - NGINX_APP_URL=10.0.0.7:1339
      - MYSQL_PORT_3306_TCP_ADDR=mysql
      - MYSQL_PORT_3306_TCP_PORT=3306
      - MYSQL_DATABASE=snipe
      - MYSQL_USER=snipe
      - MYSQL_PASSWORD=snipe
      - PGID=1026
      - PUID=100


Volgens mij werkt hierdoor de externe link van Synology niet, omdat er een "harde" verwijzing naar dat IP-adres in zit terwijl dat geen mogelijkheid is wanneer je van buiten de boel wilt benaderen. Verander ik het naar http://localhost:1339 dan komt dat in de browser te staan, dan krijg je dus dode links.

  • D vd V
  • Registratie: Oktober 2011
  • Niet online

D vd V

Moderator Consumentenelektronica
sypie schreef op zaterdag 26 februari 2022 @ 14:57:
Om hier maar met een (voor mij) grote vraag te komen:

Hoe krijg ik mijn Docker bereikbaar vanaf het grote boze internet?

Situatie:
Docker draaien met Portainer. Daarin een SnipeIT container draaien die locaal prima draait. Hiervoor heb ik deze handleiding gevolgd. Vanaf mijn lokale netwerk draait alles prima. Via de Synology link van QuickConnect werkt het prima van binnen mijn netwerk. Zodra ik via een andere of mobiele verbinding wil werkt het niet meer.

Mijn modem stuurt de betreffende poort door naar mijn Unifi Secure Gateway, waar een dezelfde portforwarding in staat maar dan naar de NAS. (ja, ik weet 't het is dubbel werk...)
[Afbeelding]

Wat er gebeurt is dat er naar het de APP_URL gekeken wordt die in de container staat:
code:
1
2
3
4
5
6
7
8
9
10
   environment:
      - APP_URL=http://10.0.0.7:1339
      - NGINX_APP_URL=10.0.0.7:1339
      - MYSQL_PORT_3306_TCP_ADDR=mysql
      - MYSQL_PORT_3306_TCP_PORT=3306
      - MYSQL_DATABASE=snipe
      - MYSQL_USER=snipe
      - MYSQL_PASSWORD=snipe
      - PGID=1026
      - PUID=100


Volgens mij werkt hierdoor de externe link van Synology niet, omdat er een "harde" verwijzing naar dat IP-adres in zit terwijl dat geen mogelijkheid is wanneer je van buiten de boel wilt benaderen. Verander ik het naar http://localhost:1339 dan komt dat in de browser te staan, dan krijg je dus dode links.
Via een reverse proxy of vpn lijkt mij de makkelijkste oplossing.

  • sypie
  • Registratie: Oktober 2000
  • Niet online
Prrr. Dat worden even een aantal andere zoekopdrachten dan ik tot nu toe heb gedaan. Eens kijken of ik daar uit ga komen.

EDIT 20:48: Nope, gaat 'm niet worden ben ik bang. Ik probeer veel en vaak en nog vaak ook nog eens opnieuw. Deze wordt me te ingewikkeld. Ik moet zeggen dat ik nog niet heel veel met Docker of Portainer heb gedaan, het is ook niet voor niks dat ik de SnipeIT gedaan heb met de eerder genoemde handleiding. Ik dacht dat het een kleinigheidje zou zijn om een lokaal draaiend iets om te zetten naar een publiek bereikbaar gebeuren.

Misschien toch kijken of en hoe ik SnipeIT kan gebruiken en vinden als een webversie/installer, net zoals een WordPress etc.Uploaden, installer draaien, gegevens inkloppen en gebruiken maar.

[Voor 72% gewijzigd door sypie op 26-02-2022 20:50]


  • d5stick
  • Registratie: Januari 2007
  • Niet online
sypie schreef op zaterdag 26 februari 2022 @ 14:57:
Om hier maar met een (voor mij) grote vraag te komen:

Hoe krijg ik mijn Docker bereikbaar vanaf het grote boze internet?

Situatie:
Docker draaien met Portainer. Daarin een SnipeIT container draaien die locaal prima draait. Hiervoor heb ik deze handleiding gevolgd. Vanaf mijn lokale netwerk draait alles prima. Via de Synology link van QuickConnect werkt het prima van binnen mijn netwerk. Zodra ik via een andere of mobiele verbinding wil werkt het niet meer.

Mijn modem stuurt de betreffende poort door naar mijn Unifi Secure Gateway, waar een dezelfde portforwarding in staat maar dan naar de NAS. (ja, ik weet 't het is dubbel werk...)
[Afbeelding]

Wat er gebeurt is dat er naar het de APP_URL gekeken wordt die in de container staat:
code:
1
2
3
4
5
6
7
8
9
10
   environment:
      - APP_URL=http://10.0.0.7:1339
      - NGINX_APP_URL=10.0.0.7:1339
      - MYSQL_PORT_3306_TCP_ADDR=mysql
      - MYSQL_PORT_3306_TCP_PORT=3306
      - MYSQL_DATABASE=snipe
      - MYSQL_USER=snipe
      - MYSQL_PASSWORD=snipe
      - PGID=1026
      - PUID=100


Volgens mij werkt hierdoor de externe link van Synology niet, omdat er een "harde" verwijzing naar dat IP-adres in zit terwijl dat geen mogelijkheid is wanneer je van buiten de boel wilt benaderen. Verander ik het naar http://localhost:1339 dan komt dat in de browser te staan, dan krijg je dus dode links.
Je hebt al een dubbele NAT waar het al mis kan gaan. Kan je ook direct via IP naar je Synology gaan? 10.0.0.7:1339. Als dit niet gaat staat waarschijnlijk poort 1339 geblokkeerd op de firewall van je Synology.

  • sypie
  • Registratie: Oktober 2000
  • Niet online
@d5stick Op het interne netewerk kan ik prima naar dat IP en poort gaan. Daar werkt de hele site uitstekend.

Het gaat er mij om dat ik er ook extern kan komen. Daar kom ik in de knel met die “harde” APP_URL. Zodra ik op mijn telefoon naar "extern_IP-adres:1339" ga krijg ik een doorverwijzing naar het interne IP-adres en komt er (uiteraard) niks op mijn scherm te staan. Een apparaat op een extern IP-adres, dus van buiten mijn netwerk, kan niks met een lokaal IP-adres.

Er moet dus iets gebeuren met de APP_URL óf er moet een omweg zijn die dit mogelijk maakt.

Zaterdag was ik met een reverse proxy aan het stoeien, dat werd mij te gecompliceerd. Dit terwijl ik echt wel van het uitzoeken en proberen ben en niet zomaar opgeef.

Ik ga nog eens even kijken of ik de VPN aan de gang kan krijgen.

EDIT: Door het gebruik van een VPN die ik al voor mijn Ubiquiti had ingesteld werkt het prima van buiten op een intern adres. Dat is uiteraard ook de bedoeling.

Omdat het een applicatie voor mijn leerlingen betreft ga ik daar maar even een aparte VPN verbinding voor maken. Kijken of we zo iets kunnen opzetten om het een en ander te gaan managen.

Eigenlijk is het een minder geschikt pakket voor de "amateurs" zoals ik, die graag een installer zien zoals bijvoorbeeld die van WordPress of een willekeurig forum-pakketje. Install.php draaien, databasegegevens inkloppen, accountje aanmaken en gaan.

[Voor 96% gewijzigd door sypie op 28-02-2022 10:34]


  • D vd V
  • Registratie: Oktober 2011
  • Niet online

D vd V

Moderator Consumentenelektronica
sypie schreef op zaterdag 26 februari 2022 @ 15:53:
Prrr. Dat worden even een aantal andere zoekopdrachten dan ik tot nu toe heb gedaan. Eens kijken of ik daar uit ga komen.

EDIT 20:48: Nope, gaat 'm niet worden ben ik bang. Ik probeer veel en vaak en nog vaak ook nog eens opnieuw. Deze wordt me te ingewikkeld. Ik moet zeggen dat ik nog niet heel veel met Docker of Portainer heb gedaan, het is ook niet voor niks dat ik de SnipeIT gedaan heb met de eerder genoemde handleiding. Ik dacht dat het een kleinigheidje zou zijn om een lokaal draaiend iets om te zetten naar een publiek bereikbaar gebeuren.

Misschien toch kijken of en hoe ik SnipeIT kan gebruiken en vinden als een webversie/installer, net zoals een WordPress etc.Uploaden, installer draaien, gegevens inkloppen en gebruiken maar.
Het is toch best eenvoudig hoor.

Met het standaard certificaat van Synology kun je iets als snipe-it.sypie.synology.me opzetten. En dan in toegangsportaal de reverse proxy zetten. Zorgen dat poort 443 in je router doorgezet wordt naar je NAS en klaar.
Marius legt het hier eenvoudig uit: https://mariushosting.com...add-wildcard-certificate/
Ik ken Snipe-IT verder niet maar het staat zo wel open voor het boze internet. Zet er wel iets van een login op, indien mogelijk met 2FA.

  • sypie
  • Registratie: Oktober 2000
  • Niet online
Voor nu zo opgelost:
* Portforwarding er uitgehaald.
* VPN op de UBNT router aangezet.
* Snipe-IT benaderbaar vanaf het interne netwerk door middel van VPN.
* 2FA op Snipe-IT is ingesteld en verplicht gemaakt.

Hierdoor werkt de eerder gegeven link ook niet meer. Ik kan wel nog gaan kijken voor een nette locale URL in plaats van IP-adres:1339. Eerst even andere dingen doen.

EDIT:
@D vd V Ik kon het toch niet laten én ik moest een oplossing hebben want via het schoolnetwerk wilde de VPN geen verbinding maken. Dus toch nog eens naar die Mariushosting gekeken. Waar ik problemen mee had was dat de verwijzing naar mijn lokale IP-adres:poortnummer ging zodra ik Snipe-IT aansprak. Na een helder moment bedacht ik me dat ik de APP_URL aan kon passen naar het DDNS adres van Synology. Nadat ik dat had gedaan was het klaar... Nu hangt die wel via poort 80 aan het net omdat ik het niet zo snel voor elkaar kreeg om dit secure te maken. Portforwarding is in orde, de ENV is aangepast maar het wilde niet werken. Dan maar via http. Er zit een 2FA op dus die laag zit er in ieder geval nog tussen.

[Voor 48% gewijzigd door sypie op 03-03-2022 21:53. Reden: Toch nog opgelost.]


  • xarow
  • Registratie: Februari 2011
  • Laatst online: 27-01 15:03
Mooi topic. Ik heb ondertussen docker draaiende op mij ds218j en ik kan pihole ook openen. Nu probeer ik portainer te installeren en heb hiervoor het volgende commando gebruikt:

code:
1
docker run -d -p 8000:8000 -p 9000:9000 --name=portainer --restart=always -v /var/run/docker.sock:/var/run/docker.sock -v /volume1/docker/portainer:/data portainer/portainer-ce


En dat lijkt goed te gaan, maar ik kan hem niet bereiken op <ip_adres>:9000.

Dit is de ionformatie die ik krijg van de draaiende containers:
code:
1
2
3
4
docker container ls -a
CONTAINER ID        IMAGE                    COMMAND             CREATED             STATUS                   PORTS               NAMES
6a3b629c52b5        portainer/portainer-ce   "/portainer"        30 seconds ago      Up 14 seconds                                portainer
9622b7d9a3d6        pihole/pihole            "/s6-init"          9 minutes ago       Up 9 minutes (healthy)                       pihole


Iemand een idee wat het kan zijn en hoe ik dit kan oplossen? Ik heb al meerdere malen een herinstallatie en reboots geprobeerd van zowel docker als portainer.

  • d5stick
  • Registratie: Januari 2007
  • Niet online
xarow schreef op donderdag 24 maart 2022 @ 12:13:
Mooi topic. Ik heb ondertussen docker draaiende op mij ds218j en ik kan pihole ook openen. Nu probeer ik ...
.. als portainer.
- Reageert de pagina niet op http en/of https?
- Staat de firewall optie in je Synology aan die het misschien tegen houd?
- Je kan eens een telnet/port check doen op de synology d.m.v. SSH om te zien of die wel iets actief heeft op de ingestelde poort.

  • xarow
  • Registratie: Februari 2011
  • Laatst online: 27-01 15:03
- Http en https reageren beide niet.
- firewall heb ik uitgeschakeld en maakte geen verschil
- middels netstat gekeken en er lijkt inderdaad niets actief op die poort

  • d5stick
  • Registratie: Januari 2007
  • Niet online
Update toegevoegd in de start post i.v.m. updaten van PiHole :9

  • Bas-Bass
  • Registratie: Oktober 2020
  • Laatst online: 12-01 22:10
Ik was super blij dat er eindelijk een stappenplan was om docker te draaien op de Synology.

Installatie ging prima loop nu alleen vast bij stap 7: Docker laten starten als service.

code:
1
2
3
root@Batmobile1:~/# systemctl daemon-reload
root@Batmobile1:~/# systemctl start docker.service
root@Batmobile1:~/# systemctl status docker.service


Response
code:
1
-ash: systemctl: command not found


Overigens ook de eerste keer voor mij dit en met google kom ik niet verder....

  • d5stick
  • Registratie: Januari 2007
  • Niet online
Bas-Bass schreef op donderdag 7 juli 2022 @ 16:12:
Ik was super blij dat er eindelijk een stappenplan was om docker te draaien op de Synology.

Installatie ging prima loop nu alleen vast bij stap 7: Docker laten starten als service.

code:
1
2
3
root@Batmobile1:~/# systemctl daemon-reload
root@Batmobile1:~/# systemctl start docker.service
root@Batmobile1:~/# systemctl status docker.service


Response
code:
1
-ash: systemctl: command not found


Overigens ook de eerste keer voor mij dit en met google kom ik niet verder....
Heb je stap 2.a nagekeken en bij welke systemctl krijg je de melding, of bij alle 3?

systemctl is een onderdeel van systemd, heb je deze folder wel kunnen vinden voor je de docker opstart configuratie file aangemaakt hebt?

[Voor 9% gewijzigd door d5stick op 07-07-2022 19:13]


  • Bas-Bass
  • Registratie: Oktober 2020
  • Laatst online: 12-01 22:10
Bij alle 3....

De grap is dat Docker wel draait (docker run hello-world, werkte wel)

  • d5stick
  • Registratie: Januari 2007
  • Niet online
Bas-Bass schreef op donderdag 7 juli 2022 @ 19:14:
Bij alle 3....

De grap is dat Docker wel draait (docker run hello-world, werkte wel)
Dan is het alleen nog uitvinden hoe je je service kan aanmaken.
Wat is je output van 2.a en welke DSM versie draai je?

  • Bas-Bass
  • Registratie: Oktober 2020
  • Laatst online: 12-01 22:10
Dank voor de hulp, na updaten naar dsm7 werkte het wel....
Helaas te weinig werkgeheugen vrij om naast docker uberhaupt iets anders te draaien
Het was leuk om eens te proberen

  • bjkmemo8
  • Registratie: December 2009
  • Laatst online: 01-02 15:11
Is update naar DSM7 wel aanbevolen?

  • d5stick
  • Registratie: Januari 2007
  • Niet online
bjkmemo8 schreef op woensdag 13 juli 2022 @ 22:43:
Is update naar DSM7 wel aanbevolen?
Ik heb de handleiding gemaakt nadat ik naar DSM7 ben gegaan. Het is niet door mij getest op 6.

  • daniel3
  • Registratie: Juli 2010
  • Niet online
Ik probeer je handleiding te volgen om Docker te installeren op mijn DS216Play, echter loop ik vast bij stap 6. Zodra ik "docker run hello-world" probeer krijg ik de volgende melding:

docker: Error response from daemon: OCI runtime create failed: container_linux.go:349: starting container process caused "process_linux.go:319: getting the final child's pid from pipe caused \"EOF\"": unknown.

Weet je toevallig waar dit aan kan liggen?

  • d5stick
  • Registratie: Januari 2007
  • Niet online
daniel3 schreef op maandag 22 augustus 2022 @ 23:47:
Ik probeer je handleiding te volgen om Docker te installeren op mijn DS216Play, echter loop ik vast bij stap 6. Zodra ik "docker run hello-world" probeer krijg ik de volgende melding:

docker: Error response from daemon: OCI runtime create failed: container_linux.go:349: starting container process caused "process_linux.go:319: getting the final child's pid from pipe caused \"EOF\"": unknown.

Weet je toevallig waar dit aan kan liggen?
Als ik wat zoek werk doe zie ik vooral OS issues.
Een paar mogelijke oplossingen zijn beschikbaar in deze link: Github

Als je een oplossing hebt hoor ik dit graag, dan update ik de OP. :)

  • daniel3
  • Registratie: Juli 2010
  • Niet online
d5stick schreef op dinsdag 23 augustus 2022 @ 22:09:
[...]
Als ik wat zoek werk doe zie ik vooral OS issues.
Een paar mogelijke oplossingen zijn beschikbaar in deze link: Github
Helaas bood deze optie en andere opties ook geen soelaas. Ik denk dat het toch maar een nieuwe NAS wordt die native Docker ondersteunt. Thanks voor het meedenken.

  • Kriss0r
  • Registratie: Juni 2001
  • Laatst online: 18:43
Bas-Bass schreef op donderdag 7 juli 2022 @ 16:12:
Ik was super blij dat er eindelijk een stappenplan was om docker te draaien op de Synology.

Installatie ging prima loop nu alleen vast bij stap 7: Docker laten starten als service.

code:
1
2
3
root@Batmobile1:~/# systemctl daemon-reload
root@Batmobile1:~/# systemctl start docker.service
root@Batmobile1:~/# systemctl status docker.service


Response
code:
1
-ash: systemctl: command not found


Overigens ook de eerste keer voor mij dit en met google kom ik niet verder....
Ben hier nu ook mee bezig, draai DSM 6.zoveel op een ds218j. Heb een alteratieve installatieomschrijving gevonden op:
https://wiki.servarr.com/docker-arm-synology

Dit stukje is voor automatisch starten van deamon:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
echo "Creating docker startup script"
cat <<'EOT' > /usr/local/etc/rc.d/docker.sh
#!/bin/sh
# Start docker daemon
NAME=dockerd
PIDFILE=/var/run/$NAME.pid
DAEMON_ARGS="--config-file=/usr/local/etc/docker/deamon.json --pidfile=$PIDFILE"

case "$1" in
    start)
        echo "Starting docker daemon"
        /usr/local/bin/dockerd $DAEMON_ARGS &
        ;;
    stop)
        echo "Stopping docker daemon"
        kill $(cat $PIDFILE)
        ;;
    *)
        echo "Usage: "$1" {start|stop}"
        exit 1
esac
exit 0
EOT

chmod 755 /usr/local/etc/rc.d/docker.sh

echo "Creating docker group"
synogroup --add docker root


echo "Starting docker"
/usr/local/etc/rc.d/docker.sh start

echo "Done.  Please add your user to the docker group in the Synology GUI and reboot your NAS."

[Voor 4% gewijzigd door Kriss0r op 02-10-2022 17:17]


  • Kriss0r
  • Registratie: Juni 2001
  • Laatst online: 18:43
Kriss0r schreef op zondag 2 oktober 2022 @ 17:14:
[...]


Ben hier nu ook mee bezig, draai DSM 6.zoveel op een ds218j. Heb een alteratieve installatieomschrijving gevonden op:
https://wiki.servarr.com/docker-arm-synology

Dit stukje is voor automatisch starten van deamon:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
echo "Creating docker startup script"
cat <<'EOT' > /usr/local/etc/rc.d/docker.sh
#!/bin/sh
# Start docker daemon
NAME=dockerd
PIDFILE=/var/run/$NAME.pid
DAEMON_ARGS="--config-file=/usr/local/etc/docker/deamon.json --pidfile=$PIDFILE"

case "$1" in
    start)
        echo "Starting docker daemon"
        /usr/local/bin/dockerd $DAEMON_ARGS &
        ;;
    stop)
        echo "Stopping docker daemon"
        kill $(cat $PIDFILE)
        ;;
    *)
        echo "Usage: "$1" {start|stop}"
        exit 1
esac
exit 0
EOT

chmod 755 /usr/local/etc/rc.d/docker.sh

echo "Creating docker group"
synogroup --add docker root


echo "Starting docker"
/usr/local/etc/rc.d/docker.sh start

echo "Done.  Please add your user to the docker group in the Synology GUI and reboot your NAS."
Na een weekje experimenteren een aanvulling: docker deamon draait prima met bovenstaande op 6.2.4, omdat ik containers wel gestart kreeg maar geen toegang had (en dat niet wist te troubleshooten) heb ik geupdate naar 7.1. Hierin hetzelfde probleem. Uiteindelijk blijkt dus dat je bij docker run commando's ook --network="host" moet meegeven, anders zal je container in bridge netwerk draaien, en is 'ie van buitenaf niet te benaderen.

Home assistant nu werkend op mijn ds218j :)

  • swvanderlaan
  • Registratie: November 2022
  • Laatst online: 27-11-2022
Mooie tutorial. Dank daarvoor.

Ik heb een Synology DS216+ play.


Ik kreeg alleen deze melding:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
INFO[2022-11-27T13:40:08.642386937+01:00] Starting up
WARN[2022-11-27T13:40:08.643767410+01:00] could not change group /var/run/docker.sock to docker: group docker not found
INFO[2022-11-27T13:40:08.691249613+01:00] libcontainerd: started new containerd process  pid=20641
INFO[2022-11-27T13:40:08.691577006+01:00] parsed scheme: "unix"                         module=grpc
INFO[2022-11-27T13:40:08.691673571+01:00] scheme "unix" not registered, fallback to default scheme  module=grpc
INFO[2022-11-27T13:40:08.691805535+01:00] ccResolverWrapper: sending update to cc: {[{unix:///var/run/docker/containerd/containerd.sock 0  <nil>}] <nil>}  module=grpc
INFO[2022-11-27T13:40:08.691881567+01:00] ClientConn switching balancer to "pick_first"  module=grpc
INFO[2022-11-27T13:40:09.220671636+01:00] starting containerd                           revision=7ad184331fa3e55e52b890ea95e65ba581ae3429 version=v1.2.13
INFO[2022-11-27T13:40:09.236181532+01:00] loading plugin "io.containerd.content.v1.content"...  type=io.containerd.content.v1
INFO[2022-11-27T13:40:09.236630623+01:00] loading plugin "io.containerd.snapshotter.v1.btrfs"...  type=io.containerd.snapshotter.v1
WARN[2022-11-27T13:40:09.237201712+01:00] failed to load plugin io.containerd.snapshotter.v1.btrfs  error="path /volume1/docker/containerd/daemon/io.containerd.snapshotter.v1.btrfs must be a btrfs filesystem to be used with the btrfs snapshotter"
INFO[2022-11-27T13:40:09.237422007+01:00] loading plugin "io.containerd.snapshotter.v1.aufs"...  type=io.containerd.snapshotter.v1
WARN[2022-11-27T13:40:09.290772295+01:00] failed to load plugin io.containerd.snapshotter.v1.aufs  error="modprobe aufs failed: "": exit status 1"
INFO[2022-11-27T13:40:09.291258152+01:00] loading plugin "io.containerd.snapshotter.v1.native"...  type=io.containerd.snapshotter.v1
INFO[2022-11-27T13:40:09.291658011+01:00] loading plugin "io.containerd.snapshotter.v1.overlayfs"...  type=io.containerd.snapshotter.v1
INFO[2022-11-27T13:40:09.292308298+01:00] loading plugin "io.containerd.snapshotter.v1.zfs"...  type=io.containerd.snapshotter.v1
INFO[2022-11-27T13:40:09.295778630+01:00] skip loading plugin "io.containerd.snapshotter.v1.zfs"...  type=io.containerd.snapshotter.v1
INFO[2022-11-27T13:40:09.296117990+01:00] loading plugin "io.containerd.metadata.v1.bolt"...  type=io.containerd.metadata.v1
WARN[2022-11-27T13:40:09.296369652+01:00] could not use snapshotter zfs in metadata plugin  error="path /volume1/docker/containerd/daemon/io.containerd.snapshotter.v1.zfs must be a zfs filesystem to be used with the zfs snapshotter: skip plugin"
WARN[2022-11-27T13:40:09.296583448+01:00] could not use snapshotter btrfs in metadata plugin  error="path /volume1/docker/containerd/daemon/io.containerd.snapshotter.v1.btrfs must be a btrfs filesystem to be used with the btrfs snapshotter"
WARN[2022-11-27T13:40:09.296739011+01:00] could not use snapshotter aufs in metadata plugin  error="modprobe aufs failed: "": exit status 1"
INFO[2022-11-27T13:40:09.297237235+01:00] loading plugin "io.containerd.differ.v1.walking"...  type=io.containerd.differ.v1
INFO[2022-11-27T13:40:09.297457830+01:00] loading plugin "io.containerd.gc.v1.scheduler"...  type=io.containerd.gc.v1
INFO[2022-11-27T13:40:09.297726492+01:00] loading plugin "io.containerd.service.v1.containers-service"...  type=io.containerd.service.v1
INFO[2022-11-27T13:40:09.298082052+01:00] loading plugin "io.containerd.service.v1.content-service"...  type=io.containerd.service.v1
INFO[2022-11-27T13:40:09.298238882+01:00] loading plugin "io.containerd.service.v1.diff-service"...  type=io.containerd.service.v1
INFO[2022-11-27T13:40:09.298385312+01:00] loading plugin "io.containerd.service.v1.images-service"...  type=io.containerd.service.v1
INFO[2022-11-27T13:40:09.298554642+01:00] loading plugin "io.containerd.service.v1.leases-service"...  type=io.containerd.service.v1
INFO[2022-11-27T13:40:09.298705839+01:00] loading plugin "io.containerd.service.v1.namespaces-service"...  type=io.containerd.service.v1
INFO[2022-11-27T13:40:09.298868270+01:00] loading plugin "io.containerd.service.v1.snapshots-service"...  type=io.containerd.service.v1
INFO[2022-11-27T13:40:09.299036666+01:00] loading plugin "io.containerd.runtime.v1.linux"...  type=io.containerd.runtime.v1
INFO[2022-11-27T13:40:09.299442725+01:00] loading plugin "io.containerd.runtime.v2.task"...  type=io.containerd.runtime.v2
INFO[2022-11-27T13:40:09.299799751+01:00] loading plugin "io.containerd.monitor.v1.cgroups"...  type=io.containerd.monitor.v1
INFO[2022-11-27T13:40:09.317664234+01:00] loading plugin "io.containerd.service.v1.tasks-service"...  type=io.containerd.service.v1
INFO[2022-11-27T13:40:09.318049827+01:00] loading plugin "io.containerd.internal.v1.restart"...  type=io.containerd.internal.v1
INFO[2022-11-27T13:40:09.318411520+01:00] loading plugin "io.containerd.grpc.v1.containers"...  type=io.containerd.grpc.v1
INFO[2022-11-27T13:40:09.318618449+01:00] loading plugin "io.containerd.grpc.v1.content"...  type=io.containerd.grpc.v1
INFO[2022-11-27T13:40:09.318812545+01:00] loading plugin "io.containerd.grpc.v1.diff"...  type=io.containerd.grpc.v1
INFO[2022-11-27T13:40:09.318999042+01:00] loading plugin "io.containerd.grpc.v1.events"...  type=io.containerd.grpc.v1
INFO[2022-11-27T13:40:09.319181271+01:00] loading plugin "io.containerd.grpc.v1.healthcheck"...  type=io.containerd.grpc.v1
INFO[2022-11-27T13:40:09.319366768+01:00] loading plugin "io.containerd.grpc.v1.images"...  type=io.containerd.grpc.v1
INFO[2022-11-27T13:40:09.319552964+01:00] loading plugin "io.containerd.grpc.v1.leases"...  type=io.containerd.grpc.v1
INFO[2022-11-27T13:40:09.319735194+01:00] loading plugin "io.containerd.grpc.v1.namespaces"...  type=io.containerd.grpc.v1
INFO[2022-11-27T13:40:09.319918424+01:00] loading plugin "io.containerd.internal.v1.opt"...  type=io.containerd.internal.v1
INFO[2022-11-27T13:40:09.320368348+01:00] loading plugin "io.containerd.grpc.v1.snapshots"...  type=io.containerd.grpc.v1
INFO[2022-11-27T13:40:09.320613877+01:00] loading plugin "io.containerd.grpc.v1.tasks"...  type=io.containerd.grpc.v1
INFO[2022-11-27T13:40:09.320778607+01:00] loading plugin "io.containerd.grpc.v1.version"...  type=io.containerd.grpc.v1
INFO[2022-11-27T13:40:09.320973570+01:00] loading plugin "io.containerd.grpc.v1.introspection"...  type=io.containerd.grpc.v1
INFO[2022-11-27T13:40:09.322049348+01:00] serving...                                    address="/var/run/docker/containerd/containerd-debug.sock"
INFO[2022-11-27T13:40:09.322426341+01:00] serving...                                    address="/var/run/docker/containerd/containerd.sock"
INFO[2022-11-27T13:40:09.322654237+01:00] containerd successfully booted in 0.104288s
INFO[2022-11-27T13:40:09.494273273+01:00] parsed scheme: "unix"                         module=grpc
INFO[2022-11-27T13:40:09.494461402+01:00] scheme "unix" not registered, fallback to default scheme  module=grpc
INFO[2022-11-27T13:40:09.494595966+01:00] ccResolverWrapper: sending update to cc: {[{unix:///var/run/docker/containerd/containerd.sock 0  <nil>}] <nil>}  module=grpc
INFO[2022-11-27T13:40:09.494672965+01:00] ClientConn switching balancer to "pick_first"  module=grpc
INFO[2022-11-27T13:40:09.507314550+01:00] parsed scheme: "unix"                         module=grpc
INFO[2022-11-27T13:40:09.507444048+01:00] scheme "unix" not registered, fallback to default scheme  module=grpc
INFO[2022-11-27T13:40:09.507550479+01:00] ccResolverWrapper: sending update to cc: {[{unix:///var/run/docker/containerd/containerd.sock 0  <nil>}] <nil>}  module=grpc
INFO[2022-11-27T13:40:09.507628278+01:00] ClientConn switching balancer to "pick_first"  module=grpc
INFO[2022-11-27T13:40:09.643730210+01:00] stopping healthcheck following graceful shutdown  module=libcontainerd
INFO[2022-11-27T13:40:09.645037618+01:00] stopping event stream following graceful shutdown  error="context canceled" module=libcontainerd namespace=plugins.moby
panic: cannot statfs cgroup root

goroutine 1 [running]:
github.com/docker/docker/vendor/github.com/opencontainers/runc/libcontainer/cgroups.IsCgroup2UnifiedMode.func1()
    /go/src/github.com/docker/docker/vendor/github.com/opencontainers/runc/libcontainer/cgroups/utils.go:45 +0x88
sync.(*Once).Do(0x3585ed0, 0x2383b54)
    /usr/local/go/src/sync/once.go:44 +0xc0
github.com/docker/docker/vendor/github.com/opencontainers/runc/libcontainer/cgroups.IsCgroup2UnifiedMode(0x1c0d8)
    /go/src/github.com/docker/docker/vendor/github.com/opencontainers/runc/libcontainer/cgroups/utils.go:42 +0x2c
github.com/docker/docker/vendor/github.com/opencontainers/runc/libcontainer/cgroups.GetCgroupMounts(0x66cd2d00, 0x0, 0x0, 0x0, 0x0, 0x0)
    /go/src/github.com/docker/docker/vendor/github.com/opencontainers/runc/libcontainer/cgroups/utils.go:236 +0x3c
github.com/docker/docker/pkg/sysinfo.findCgroupMountpoints(0x22ec1f0, 0x3a3d050, 0x63835a5e)
    /go/src/github.com/docker/docker/pkg/sysinfo/sysinfo_linux.go:16 +0x20
github.com/docker/docker/pkg/sysinfo.New(0x38ece00, 0x389cb00)
    /go/src/github.com/docker/docker/pkg/sysinfo/sysinfo_linux.go:38 +0x30
github.com/docker/docker/daemon.NewDaemon(0x23cd140, 0x39e4d00, 0x389cb00, 0x3a3cbd0, 0x0, 0x0, 0x0)
    /go/src/github.com/docker/docker/daemon/daemon.go:1019 +0x1f14
main.(*DaemonCli).start(0x3d893e0, 0x38a9080, 0x0, 0x0)
    /go/src/github.com/docker/docker/cmd/dockerd/daemon.go:199 +0x6dc
main.runDaemon(...)
    /go/src/github.com/docker/docker/cmd/dockerd/docker_unix.go:13
main.newDaemonCommand.func1(0x3aca000, 0x3585a54, 0x0, 0x0, 0x0, 0x0)
    /go/src/github.com/docker/docker/cmd/dockerd/docker.go:34 +0x74
github.com/docker/docker/vendor/github.com/spf13/cobra.(*Command).execute(0x3aca000, 0x3810100, 0x0, 0x0, 0x3aca000, 0x3810100)
    /go/src/github.com/docker/docker/vendor/github.com/spf13/cobra/command.go:762 +0x364
github.com/docker/docker/vendor/github.com/spf13/cobra.(*Command).ExecuteC(0x3aca000, 0x0, 0x0, 0x7)
    /go/src/github.com/docker/docker/vendor/github.com/spf13/cobra/command.go:852 +0x24c
github.com/docker/docker/vendor/github.com/spf13/cobra.(*Command).Execute(...)
    /go/src/github.com/docker/docker/vendor/github.com/spf13/cobra/command.go:800
main.main()
    /go/src/github.com/docker/docker/cmd/dockerd/docker.go:97 +0x1bc


En ik heb even niet zo'n goed idee wat ik nu kan doen.

Andere vraag is: krijg ik uiteindelijk dus een GUI op mijn DSM?


Dank!

  • d5stick
  • Registratie: Januari 2007
  • Niet online
swvanderlaan schreef op zondag 27 november 2022 @ 14:14:
Mooie tutorial. Dank daarvoor.

Ik heb een Synology DS216+ play.


Ik kreeg alleen deze melding:

En ik heb even niet zo'n goed idee wat ik nu kan doen.

Andere vraag is: krijg ik uiteindelijk dus een GUI op mijn DSM?


Dank!
Heb je docker gestart als met root privileges of met SUDO?
De plugin errors is een configuratie file aanpassen (Even googlen op de plugin error).
De Panic kan ik niet plaatsen, hierdoor loopt hij wel vast.
Welke DSM versie heb je?

Verifieer ook dat je de juiste versie van docker installeert, zoals in de start post.
Ook je IPtables controleren.


Om je 2e vraag te beantwoorden, neen. Dit komt niet in DSM te voorschijn.
Wat je wel kan doen als docker eenmaal draait is een management docker installeren.
Dan krijg je een webportaal waarin je al je containers ziet en je kan er vrij veel mee.
Portainer is hier een voorbeeld van.

[Voor 6% gewijzigd door d5stick op 28-11-2022 21:39]


  • sjampeter
  • Registratie: November 2021
  • Laatst online: 13:44
@d5stick ook ik ben aan het proberen om Docker draaiende te krijgen op een Nas 216 Play.
tot stap 6 gaat alles prima, echter krijg ik de bij het commando "dockerd" al enkele errors.
via 2e Putty scherm het commando "docker run hello-world", geeft als reactie het volgende :
docker: Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running?.

volgens diverse sites en how to's zou ik een docker group moeten aanmaken, zie link, echter bij het eerste commando (sudo groupadd docker) krijg ik als resultaat "sudo: groupadd: command not found"
https://docs.docker.com/e...docker-as-a-non-root-user

iemand een gouden tip?

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
root@NAS:~# dockerd
INFO[2022-12-20T18:36:33.129046198+01:00] Starting up                           
WARN[2022-12-20T18:36:33.131257865+01:00] could not change group /var/run/docker.sock to docker: group docker not found
INFO[2022-12-20T18:36:33.135500265+01:00] libcontainerd: started new containerd process  pid=18864
INFO[2022-12-20T18:36:33.135809065+01:00] parsed scheme: "unix"                         module=grpc
INFO[2022-12-20T18:36:33.135909565+01:00] scheme "unix" not registered, fallback to default scheme  module=grpc
INFO[2022-12-20T18:36:33.136041465+01:00] ccResolverWrapper: sending update to cc: {[{unix:///var/run/docker/containerd/containerd.sock 0  <nil>}] <nil>}  module=grpc
INFO[2022-12-20T18:36:33.136155065+01:00] ClientConn switching balancer to "pick_first"  module=grpc
INFO[2022-12-20T18:36:33.193293365+01:00] starting containerd                           revision=7ad184331fa3e55e52b890ea95e65ba581ae3429 version=v1.2.13
INFO[2022-12-20T18:36:33.195101265+01:00] loading plugin "io.containerd.content.v1.content"...  type=io.containerd.content.v1
INFO[2022-12-20T18:36:33.195277465+01:00] loading plugin "io.containerd.snapshotter.v1.btrfs"...  type=io.containerd.snapshotter.v1
WARN[2022-12-20T18:36:33.195731765+01:00] failed to load plugin io.containerd.snapshotter.v1.btrfs  error="path /volume1/docker/containerd/daemon/io.containerd.snapshotter.v1.btrfs must be a btrfs filesystem to be used with the btrfs snapshotter"
INFO[2022-12-20T18:36:33.195816365+01:00] loading plugin "io.containerd.snapshotter.v1.aufs"...  type=io.containerd.snapshotter.v1
WARN[2022-12-20T18:36:33.199275931+01:00] failed to load plugin io.containerd.snapshotter.v1.aufs  error="modprobe aufs failed: "": exit status 1"
INFO[2022-12-20T18:36:33.199425031+01:00] loading plugin "io.containerd.snapshotter.v1.native"...  type=io.containerd.snapshotter.v1
INFO[2022-12-20T18:36:33.199634498+01:00] loading plugin "io.containerd.snapshotter.v1.overlayfs"...  type=io.containerd.snapshotter.v1
INFO[2022-12-20T18:36:33.199981431+01:00] loading plugin "io.containerd.snapshotter.v1.zfs"...  type=io.containerd.snapshotter.v1
INFO[2022-12-20T18:36:33.200827598+01:00] skip loading plugin "io.containerd.snapshotter.v1.zfs"...  type=io.containerd.snapshotter.v1
INFO[2022-12-20T18:36:33.200921865+01:00] loading plugin "io.containerd.metadata.v1.bolt"...  type=io.containerd.metadata.v1
WARN[2022-12-20T18:36:33.201041031+01:00] could not use snapshotter btrfs in metadata plugin  error="path /volume1/docker/containerd/daemon/io.containerd.snapshotter.v1.btrfs must be a btrfs filesystem to be used with the btrfs snapshotter"
WARN[2022-12-20T18:36:33.201109398+01:00] could not use snapshotter aufs in metadata plugin  error="modprobe aufs failed: "": exit status 1"
WARN[2022-12-20T18:36:33.201175198+01:00] could not use snapshotter zfs in metadata plugin  error="path /volume1/docker/containerd/daemon/io.containerd.snapshotter.v1.zfs must be a zfs filesystem to be used with the zfs snapshotter: skip plugin"
INFO[2022-12-20T18:36:33.201554265+01:00] loading plugin "io.containerd.differ.v1.walking"...  type=io.containerd.differ.v1
INFO[2022-12-20T18:36:33.201667365+01:00] loading plugin "io.containerd.gc.v1.scheduler"...  type=io.containerd.gc.v1
INFO[2022-12-20T18:36:33.201973698+01:00] loading plugin "io.containerd.service.v1.containers-service"...  type=io.containerd.service.v1
INFO[2022-12-20T18:36:33.202085031+01:00] loading plugin "io.containerd.service.v1.content-service"...  type=io.containerd.service.v1
INFO[2022-12-20T18:36:33.202237998+01:00] loading plugin "io.containerd.service.v1.diff-service"...  type=io.containerd.service.v1
INFO[2022-12-20T18:36:33.202339631+01:00] loading plugin "io.containerd.service.v1.images-service"...  type=io.containerd.service.v1
INFO[2022-12-20T18:36:33.202433031+01:00] loading plugin "io.containerd.service.v1.leases-service"...  type=io.containerd.service.v1
INFO[2022-12-20T18:36:33.202539998+01:00] loading plugin "io.containerd.service.v1.namespaces-service"...  type=io.containerd.service.v1
INFO[2022-12-20T18:36:33.202630031+01:00] loading plugin "io.containerd.service.v1.snapshots-service"...  type=io.containerd.service.v1
INFO[2022-12-20T18:36:33.202718998+01:00] loading plugin "io.containerd.runtime.v1.linux"...  type=io.containerd.runtime.v1
INFO[2022-12-20T18:36:33.203053031+01:00] loading plugin "io.containerd.runtime.v2.task"...  type=io.containerd.runtime.v2
INFO[2022-12-20T18:36:33.203276398+01:00] loading plugin "io.containerd.monitor.v1.cgroups"...  type=io.containerd.monitor.v1
INFO[2022-12-20T18:36:33.205116931+01:00] loading plugin "io.containerd.service.v1.tasks-service"...  type=io.containerd.service.v1
INFO[2022-12-20T18:36:33.205416498+01:00] loading plugin "io.containerd.internal.v1.restart"...  type=io.containerd.internal.v1
INFO[2022-12-20T18:36:33.205621431+01:00] loading plugin "io.containerd.grpc.v1.containers"...  type=io.containerd.grpc.v1
INFO[2022-12-20T18:36:33.205742198+01:00] loading plugin "io.containerd.grpc.v1.content"...  type=io.containerd.grpc.v1
INFO[2022-12-20T18:36:33.205847098+01:00] loading plugin "io.containerd.grpc.v1.diff"...  type=io.containerd.grpc.v1
INFO[2022-12-20T18:36:33.205957031+01:00] loading plugin "io.containerd.grpc.v1.events"...  type=io.containerd.grpc.v1
INFO[2022-12-20T18:36:33.206043965+01:00] loading plugin "io.containerd.grpc.v1.healthcheck"...  type=io.containerd.grpc.v1
INFO[2022-12-20T18:36:33.206132731+01:00] loading plugin "io.containerd.grpc.v1.images"...  type=io.containerd.grpc.v1
INFO[2022-12-20T18:36:33.206234965+01:00] loading plugin "io.containerd.grpc.v1.leases"...  type=io.containerd.grpc.v1
INFO[2022-12-20T18:36:33.206334598+01:00] loading plugin "io.containerd.grpc.v1.namespaces"...  type=io.containerd.grpc.v1
INFO[2022-12-20T18:36:33.206423531+01:00] loading plugin "io.containerd.internal.v1.opt"...  type=io.containerd.internal.v1
INFO[2022-12-20T18:36:33.206586565+01:00] loading plugin "io.containerd.grpc.v1.snapshots"...  type=io.containerd.grpc.v1
INFO[2022-12-20T18:36:33.206691698+01:00] loading plugin "io.containerd.grpc.v1.tasks"...  type=io.containerd.grpc.v1
INFO[2022-12-20T18:36:33.206779798+01:00] loading plugin "io.containerd.grpc.v1.version"...  type=io.containerd.grpc.v1
INFO[2022-12-20T18:36:33.206866231+01:00] loading plugin "io.containerd.grpc.v1.introspection"...  type=io.containerd.grpc.v1
INFO[2022-12-20T18:36:33.207518998+01:00] serving...                                    address="/var/run/docker/containerd/containerd-debug.sock"
INFO[2022-12-20T18:36:33.207725065+01:00] serving...                                    address="/var/run/docker/containerd/containerd.sock"
INFO[2022-12-20T18:36:33.207816198+01:00] containerd successfully booted in 0.016195s
INFO[2022-12-20T18:36:33.234626431+01:00] parsed scheme: "unix"                         module=grpc
INFO[2022-12-20T18:36:33.235006665+01:00] scheme "unix" not registered, fallback to default scheme  module=grpc
INFO[2022-12-20T18:36:33.235274265+01:00] ccResolverWrapper: sending update to cc: {[{unix:///var/run/docker/containerd/containerd.sock 0  <nil>}] <nil>}  module=grpc
INFO[2022-12-20T18:36:33.235477365+01:00] ClientConn switching balancer to "pick_first"  module=grpc
INFO[2022-12-20T18:36:33.241282965+01:00] parsed scheme: "unix"                         module=grpc
INFO[2022-12-20T18:36:33.241420098+01:00] scheme "unix" not registered, fallback to default scheme  module=grpc
INFO[2022-12-20T18:36:33.241508865+01:00] ccResolverWrapper: sending update to cc: {[{unix:///var/run/docker/containerd/containerd.sock 0  <nil>}] <nil>}  module=grpc
INFO[2022-12-20T18:36:33.241572132+01:00] ClientConn switching balancer to "pick_first"  module=grpc
INFO[2022-12-20T18:36:33.276926198+01:00] stopping healthcheck following graceful shutdown  module=libcontainerd
INFO[2022-12-20T18:36:33.277124798+01:00] stopping event stream following graceful shutdown  error="context canceled" module=libcontainerd namespace=plugins.moby
panic: cannot statfs cgroup root

goroutine 1 [running]:
github.com/docker/docker/vendor/github.com/opencontainers/runc/libcontainer/cgroups.IsCgroup2UnifiedMode.func1()
        /go/src/github.com/docker/docker/vendor/github.com/opencontainers/runc/libcontainer/cgroups/utils.go:45 +0x88
sync.(*Once).Do(0x3585ed0, 0x2383b54)
        /usr/local/go/src/sync/once.go:44 +0xc0
github.com/docker/docker/vendor/github.com/opencontainers/runc/libcontainer/cgroups.IsCgroup2UnifiedMode(0x1c0d8)
        /go/src/github.com/docker/docker/vendor/github.com/opencontainers/runc/libcontainer/cgroups/utils.go:42 +0x2c
github.com/docker/docker/vendor/github.com/opencontainers/runc/libcontainer/cgroups.GetCgroupMounts(0x66d71e00, 0x0, 0x0, 0x0, 0x0, 0x0)
        /go/src/github.com/docker/docker/vendor/github.com/opencontainers/runc/libcontainer/cgroups/utils.go:236 +0x3c
github.com/docker/docker/pkg/sysinfo.findCgroupMountpoints(0x22ec1f0, 0x3e4eed0, 0x63a1c704)
        /go/src/github.com/docker/docker/pkg/sysinfo/sysinfo_linux.go:16 +0x20
github.com/docker/docker/pkg/sysinfo.New(0x3d08f00, 0x3cb0dc0)
        /go/src/github.com/docker/docker/pkg/sysinfo/sysinfo_linux.go:38 +0x30
github.com/docker/docker/daemon.NewDaemon(0x23cd140, 0x41c8c60, 0x3cb0dc0, 0x3d42fc0, 0x0, 0x0, 0x0)
        /go/src/github.com/docker/docker/daemon/daemon.go:1019 +0x1f14
main.(*DaemonCli).start(0x3c29bc0, 0x3d43da0, 0x0, 0x0)
        /go/src/github.com/docker/docker/cmd/dockerd/daemon.go:199 +0x6dc
main.runDaemon(...)
        /go/src/github.com/docker/docker/cmd/dockerd/docker_unix.go:13
main.newDaemonCommand.func1(0x3d008c0, 0x3585a54, 0x0, 0x0, 0x0, 0x0)
        /go/src/github.com/docker/docker/cmd/dockerd/docker.go:34 +0x74
github.com/docker/docker/vendor/github.com/spf13/cobra.(*Command).execute(0x3d008c0, 0x3c940e0, 0x0, 0x0, 0x3d008c0, 0x3c940e0)
        /go/src/github.com/docker/docker/vendor/github.com/spf13/cobra/command.go:762 +0x364
github.com/docker/docker/vendor/github.com/spf13/cobra.(*Command).ExecuteC(0x3d008c0, 0x0, 0x0, 0x7)
        /go/src/github.com/docker/docker/vendor/github.com/spf13/cobra/command.go:852 +0x24c
github.com/docker/docker/vendor/github.com/spf13/cobra.(*Command).Execute(...)
        /go/src/github.com/docker/docker/vendor/github.com/spf13/cobra/command.go:800
main.main()
        /go/src/github.com/docker/docker/cmd/dockerd/docker.go:97 +0x1bc


https://tweakers.net/i/IEAypPSYqDZPuRhcMBp12aI0wmo=/800x/filters:strip_exif()/f/image/qrntJNWdquPlWwBDDOKZRI1o.png?f=fotoalbum_large

  • d5stick
  • Registratie: Januari 2007
  • Niet online
sjampeter schreef op dinsdag 20 december 2022 @ 18:46:
@d5stick ook ik ben aan het proberen om Docker draaiende te krijgen op een Nas 216 Play.
tot stap 6 gaat alles prima, echter krijg ik de bij het commando "dockerd" al enkele errors.
via 2e Putty scherm het command.............
Welke DSM versie draai je?
Zie je binnen je DSM bij gebruikers en groepen al Docker staan? Je zou die hier ook kunnen aanmaken aangezien Synology de lokale users voor gebruikt. Hierna zouden die ook in je docker beschikbaar moeten worden.

  • sjampeter
  • Registratie: November 2021
  • Laatst online: 13:44
momenteel DSM versie 6.2.

het command "sudo groupadd docker" werkt helaas niet. is toch gewoon in te voeren met Putty, of denk ik hier helemaal verkeerd. (komt vaker voor namelijk haha)

EDIT ; zie dat ik zou kunnen upgraden naar DSM 7. had ik niet in de gaten. via de how to netjes gecontroleerd of de boel compatible zou zijn, wat wel zo zou zijn.
ga eerst eens updaten. let you know

[Voor 35% gewijzigd door sjampeter op 23-12-2022 15:57]


  • sjampeter
  • Registratie: November 2021
  • Laatst online: 13:44
er is progressie, echter nog niet helemaal draaiend.
krijg de volgende fout :
code:
1
2
3
4
5
6
7
8
9
10
root@NAS:~# docker run hello-world
Unable to find image 'hello-world:latest' locally
latest: Pulling from library/hello-world
9b157615502d: Pull complete
Digest: sha256:c77be1d3a47d0caf71a82dd893ee61ce01f32fc758031a6ec4cf1389248bb833
Status: Downloaded newer image for hello-world:latest
docker: Error response from daemon: OCI runtime create failed: container_linux.go:349: starting container process caused "process_linux.go:319: getting the final child's pid from pipe caused \"EOF\"": unknown.
root@NAS:~# docker run hello-world
docker: Error response from daemon: OCI runtime create failed: container_linux.go:349: starting container process caused "process_linux.go:319: getting the final child's pid from pipe caused \"EOF\"": unknown.
ERRO[0000] error waiting for container: context canceled


lijkt iets met maximum users te zijn, echter reikt mijn kennis niet ver genoeg.

[Voor 4% gewijzigd door sjampeter op 23-12-2022 18:34]

Pagina: 1


Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee