Vraag


  • WoBBeL
  • Registratie: Juni 2004
  • Laatst online: 17-12 12:27
Ik draai al langere tijd Immich en die werkt echt perfect 8) ik draaide immich echter op een server die niet de hele dag aan staat vanwege energiebesparing.

Nu wil ik de webinterface/redis/PostgreSQL verhuizen naar een Pi en alle 'heavy' dingen op de server draaien (transcoding, thumbnail generation et cetera).

Ik heb nu Immich op de Pi draaien (docker) en op de server ook (docker, niet in eenzelfde cluster of iets. Gewoon standalone), echter weigert hij daar door te starten.

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
Node.js v22.18.0
Initializing Immich v2.3.1
Detected CPU Cores: 12
Missing history for endpoint: Retrieve auth status
(node:7) ExperimentalWarning: WASI is an experimental feature and might change at any time
(Use `node --trace-warnings ...` to show where the warning was created)
/usr/src/app/server/node_modules/.pnpm/postgres@3.4.7/node_modules/postgres/cjs/src/connection.js:794
    const error = Errors.postgres(parseError(x))
                         ^

PostgresError: password authentication failed for user "immich"
    at ErrorResponse (/usr/src/app/server/node_modules/.pnpm/postgres@3.4.7/node_modules/postgres/cjs/src/connection.js:794:26)
    at handle (/usr/src/app/server/node_modules/.pnpm/postgres@3.4.7/node_modules/postgres/cjs/src/connection.js:480:6)
    at Socket.data (/usr/src/app/server/node_modules/.pnpm/postgres@3.4.7/node_modules/postgres/cjs/src/connection.js:315:9)
    at Socket.emit (node:events:518:28)
    at addChunk (node:internal/streams/readable:561:12)
    at readableAddChunkPushByteMode (node:internal/streams/readable:512:3)
    at Readable.push (node:internal/streams/readable:392:5)
    at TCP.onStreamRead (node:internal/stream_base_commons:189:23) {
  severity_local: 'FATAL',
  severity: 'FATAL',
  code: '28P01',
  file: 'auth.c',
  line: '321',
  routine: 'auth_failed'
}


Op mijn server is de docker-compose.yml als volgt:

YAML:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
name: immich-workers

services:
  immich-machine-learning:
    container_name: immich_machine_learning
    image: ghcr.io/immich-app/immich-machine-learning:${IMMICH_VERSION:-release}
    volumes:
      - model-cache:/cache
    env_file:
      - .env
    restart: always
    healthcheck:
      disable: false

  immich-worker:
    container_name: immich_worker
    image: ghcr.io/immich-app/immich-server:${IMMICH_VERSION:-release}
    command: ["start.sh", "worker"]
    volumes:
      - ${UPLOAD_LOCATION}:/data
      - /home/roy/nas/Backups/Afbeeldingen:/mnt/nas_library
      - /etc/localtime:/etc/localtime:ro
    env_file:
      - .env
    restart: always

volumes:
  model-cache:


En de .env file
code:
1
2
3
4
5
6
7
8
9
10
11
12
IMMICH_VERSION=release

UPLOAD_LOCATION=/mnt/immich/library

DB_HOSTNAME=10.0.0.27
DB_PORT=5432
DB_USERNAME=immich
DB_PASSWORD=ImmichDBPass2025
DB_DATABASE_NAME=immich

REDIS_HOSTNAME=10.0.0.27
REDIS_PORT=6379


Het lijkt erop dat PostgreSQL de DB connectie actief weigert omdat hij remote is gok ik? Ik kan namelijk vanaf mijn desktop ook geen connectie maken via HeidiSQL: connection to server at "10.0.0.27", port 5432 failed: FATAL: password authentication failed for user "immich"

en ja, als alles werkt pas ik wel even het wachtwoord aan :+

Alle reacties


  • WoBBeL
  • Registratie: Juni 2004
  • Laatst online: 17-12 12:27
Ah, er draaide nog een container met PostgreSQL exposed en m'n eigen Redis/PostgreSQL vanuit Immich waren niet exposed op de Pi. Vanaf hier weer verder.

  • WoBBeL
  • Registratie: Juni 2004
  • Laatst online: 17-12 12:27
En ik had de /data folder niet shared op de locaties en poort 3003 op de server niet exposed. En nog de IMMICH_MACHINE_LEARNING_URL variable op de Pi vergeten in de .env. Alles werkt.

  • 107mb
  • Registratie: Juni 2004
  • Laatst online: 16:13
hahaha, dit zijn de betere topics. Twee posts: vraag en oplossing beide door de TS!

mooie oplossing trouwens. Ik ben sinds kort ook gebruiker van Immich. Waanzinnige tool, met als grote beperking de import van mappen met submappen. Dat moet via de CLI en vind ik vooralsnog niet heel erg top, hoewel ik zakelijk veelvuldig de CLI gebruik voor Openshift.

  • WoBBeL
  • Registratie: Juni 2004
  • Laatst online: 17-12 12:27
@107mb ik heb mijn structuur als volgt:

/Afbeeldingen/Vakantie A
/Afbeeldingen/Vakantie B
/Afbeeldingen/Vakantie C
/Afbeeldingen/Verjaardag A
/Afbeeldingen/Verjaardag B
/Afbeeldingen/Verjaardag C

Ik heb dit in Immich nog nooit lekker gekregen, je kan deze gebruiken: https://github.com/Salvoxia/immich-folder-album-creator

Dat is inderdaad een work around maar werkt hier al ruim een jaar zonder issues.

  • 107mb
  • Registratie: Juni 2004
  • Laatst online: 16:13
ik heb een hele andere insteek. Ik heb de volgende mappenstructuur:
/yyyy/MM/dd/

en met tags geef ik aan wat het is. Verjaardag, sport, vakantie, locatie e.d.

Op dit moment heb ik een enorme teringzooi van mijn 10-duizenden foto's. Op diverse schijven, computers en sticks. Ik wil dus alles importeren, maar het liefst een heel jaar, met alle submappen. In theorie kan kan een jaar 365+12 subfolders hebben. Die moeten allemaal in één keer geimporteerd worden, en dan de-dupliceren. lukt wel, maar ik vind het omslachtig werken.

[ Voor 53% gewijzigd door 107mb op 17-12-2025 11:58 ]


  • WoBBeL
  • Registratie: Juni 2004
  • Laatst online: 17-12 12:27
Nog een tip als je dit topic tegen komt: gebruik geen x-systemd.automount voor je NFS mount in deze situatie :) dan krijg je heeeullll veeeuuull NFS timeouts. En een packet size van 8KB was ook wel klein :+

[ Voor 30% gewijzigd door WoBBeL op 17-12-2025 12:27 ]

Pagina: 1