• storeman
  • Registratie: April 2004
  • Laatst online: 18-12 22:13
@Taro Je hebt helemaal gelijk Taro, dat het niet het schoolvoorbeeld van veiligheid is. Je geeft nu dit punt af op de UGreen terwijl dit volledig een integratie-issue is. Ik heb de formulering in mijn post wat aangepast, zodat men in ieder geval direct op de hoogte is.

Wat je zegt is iets om goed over na te denken, maar ik denk dat een zeer sterk, uniek, wachtwoord + geen cloud koppeling + geen toegang vanaf de WAN een heel goed startpunt zijn om dit wel te kunnen doen op deze manier.

"Chaos kan niet uit de hand lopen"


  • Taro
  • Registratie: September 2000
  • Niet online

Taro

Moderator General Chat / Wonen & Mobiliteit

Kennis delen > DM

storeman schreef op vrijdag 28 november 2025 @ 21:56:
@Taro Je hebt helemaal gelijk Taro, dat het niet het schoolvoorbeeld van veiligheid is. Je geeft nu dit punt af op de UGreen terwijl dit volledig een integratie-issue is. Ik heb de formulering in mijn post wat aangepast, zodat men in ieder geval direct op de hoogte is.

Wat je zegt is iets om goed over na te denken, maar ik denk dat een zeer sterk, uniek, wachtwoord + geen cloud koppeling + geen toegang vanaf de WAN een heel goed startpunt zijn om dit wel te kunnen doen op deze manier.
Klopt, leuke/handige integratie. Maar ik heb 2FA en wat andere zaken aan staan voor de veiligheid en die zal ik niet uitzetten voor de HA integratie. Hoop dat anderen er ook voorzichtig mee zijn.

iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV


  • Dagarkin
  • Registratie: December 2020
  • Laatst online: 00:24
Taro schreef op vrijdag 28 november 2025 @ 22:01:
[...]

Klopt, leuke/handige integratie. Maar ik heb 2FA en wat andere zaken aan staan voor de veiligheid en die zal ik niet uitzetten voor de HA integratie. Hoop dat anderen er ook voorzichtig mee zijn.
Zonder 2FA kan prima of heb jij remote access aan?

Op afstand gebruik ik zelf wireguard, dat maakt het hele 2FA gebeuren niet nodig.

  • Taro
  • Registratie: September 2000
  • Niet online

Taro

Moderator General Chat / Wonen & Mobiliteit

Kennis delen > DM

Dagarkin schreef op vrijdag 28 november 2025 @ 22:09:
[...]


Zonder 2FA kan prima of heb jij remote access aan?

Op afstand gebruik ik zelf wireguard, dat maakt het hele 2FA gebeuren niet nodig.
Remote access uit. Maar heb sowieso op alles waar het kan altijd 2FA aan staan en nooit met telefoonnummer/SMS, maar altijd met offline hardware keys. Ben er gewoon altijd erg bewust mee bezig (geweest).

iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV


  • Hummed
  • Registratie: Juni 2010
  • Laatst online: 14-12 11:54
Hoi allemaal,

Ik heb net mijn eerste nas binnen - een UGREEN NASync 4800 Plus - en ben bezig met het plannen van de opslagconfiguratie. Ik hoor als leek zijnde graag tips van mensen met ervaring met mixed-drive setups op UGREEN-nasjes.

Op dit moment heb ik drie 4TB en één 8TB HDD (allen WD Plus), en ik ben van plan om twee 2TB Samsung 990 Pro SSDs toe te voegen. Ook ga ik het RAM uitbreiden naar 32GB. Niets staat definitief vast — ik kan de drives of capaciteiten nog ruilen als dat beter uitkomt.

De NAS moet een aantal dingen tegelijk doen: verschillende Docker-containers (n8n, torrent clients, Sonarr/Radarr, etc.), opslag voor films en series, 24/7 opnames van een Reolink camera, en af en toe lichte VM’s, waaronder Home Assistant en een Python dev-omgeving.

Ik probeer te bedenken hoe ik de schijven het beste kan indelen. Hierover ben ik ik in dit topic, via Google op Reddit en ChatGPT e.e.a. wijzer geworden. Dit is wat ik nu overweeg:
Twee 4TB HDDs in RAID 1 voor algemene bestanden, backups en alles wat belangrijk is.
Één 4TB HDD voor Reolink-opnames, zodat de continue camera-schrijfacties apart staan.
Één 8TB HDD voor films en series, omdat dit vervangbare data is en geen mirroring nodig heeft.
Twee 2TB SSDs in RAID 1 voor VM’s, Docker-containers, databases en alles wat snelle opslag nodig heeft.

Maakt deze indeling volgens jullie sense? Of zouden jullie de schijven evt. anders organiseren?

Alvast bedankt voor de tips!

  • storeman
  • Registratie: April 2004
  • Laatst online: 18-12 22:13
@Hummed Ik vind dat je nogal veel pools aanmaakt en veel draaiend ijzer hebt op deze manier. Probeer goed te bedenken hoe je je retentie en back-up strategie inricht en met welk doel en welke risico's je acceptabel vindt.

Ik heb bijvoorbeeld alle data op een 4TB ssd staan met snapshotting op de belangrijke mappen. Deze wordt dagelijks gekopieerd naar een back-up map op de HDD, wederom met snapshotting.

De SSD wordt ook dagelijks gekopieerd naar een cloud-storage.

Voor de goede orde, ik draai dus geen RAID. In het slechtste geval ga ik een dag data missen. En ja, het restoren zal iets meer werk zijn, maar gezien de kansen van dit alles, neem ik dat voor lief. Een extra disk (zeker van hetzelfde type/datum) geeft immers ook een grotere kans op een defecte disk.

Ik zeg zeker niet dat dit de manier is die voor jou zal werken, maar ik wil aangeven dat het moeilijk te zeggen is wat voor jou het beste is als we de eisen aan up-time/retentie niet weten.

"Chaos kan niet uit de hand lopen"


  • elsinga
  • Registratie: Februari 2003
  • Laatst online: 19-12 08:34

elsinga

=8-)

Pietervs schreef op vrijdag 28 november 2025 @ 13:33:
Geen idee hoe NPM precies werkt, maar zou het kunnen dat je de docker op een andere poort moet laten luisteren omdat het IP adres in combinatie met poort tcp/443 nu al in gebruik is? Dus bijvoorbeeld "opschuiven" naar poort 8443, zodat je in de adresbalk https://npm-ip:8443 in moet geven?
Ik draai alle webbased containers al op een andere poort, alleen NPM draait op 80/443. Is analoog hoe ik het op de Synology draai trouwens.

Robert Elsinga =8-) | IT security, Scouting, zendamateur (PC5E, WC5E) | www.elsinga.net/robert, www.pc5e.nl


  • Mokum
  • Registratie: April 2023
  • Laatst online: 20:58
elsinga schreef op zaterdag 29 november 2025 @ 08:23:
[...]


Ik draai alle webbased containers al op een andere poort, alleen NPM draait op 80/443. Is analoog hoe ik het op de Synology draai trouwens.
Bij mij draait NPM op poort 81 en alle containers gewoon via http (intern) - extern is https met geldig lets encrypt certificaat. Werkt perfect. Via: https://www.ssllabs.com/ssltest/ kom ik er beter uit dan veel grote sites qua beveiliging.

Afbeeldingslocatie: https://tweakers.net/i/vUM4lwjcFmMdY7Lku4tGqVLpvqU=/fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():strip_exif()/f/image/GDmixt5lA32ldmCvmsYrdLkY.jpg?f=user_large

[ Voor 16% gewijzigd door Mokum op 29-11-2025 09:05 ]


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Hummed schreef op vrijdag 28 november 2025 @ 22:24:
Hoi allemaal,

Ik heb net mijn eerste nas binnen - een UGREEN NASync 4800 Plus - en ben bezig met het plannen van de opslagconfiguratie. Ik hoor als leek zijnde graag tips van mensen met ervaring met mixed-drive setups op UGREEN-nasjes.

Op dit moment heb ik drie 4TB en één 8TB HDD (allen WD Plus), en ik ben van plan om twee 2TB Samsung 990 Pro SSDs toe te voegen. Ook ga ik het RAM uitbreiden naar 32GB. Niets staat definitief vast — ik kan de drives of capaciteiten nog ruilen als dat beter uitkomt.

De NAS moet een aantal dingen tegelijk doen: verschillende Docker-containers (n8n, torrent clients, Sonarr/Radarr, etc.), opslag voor films en series, 24/7 opnames van een Reolink camera, en af en toe lichte VM’s, waaronder Home Assistant en een Python dev-omgeving.

Ik probeer te bedenken hoe ik de schijven het beste kan indelen. Hierover ben ik ik in dit topic, via Google op Reddit en ChatGPT e.e.a. wijzer geworden. Dit is wat ik nu overweeg:
Twee 4TB HDDs in RAID 1 voor algemene bestanden, backups en alles wat belangrijk is.
Één 4TB HDD voor Reolink-opnames, zodat de continue camera-schrijfacties apart staan.
Één 8TB HDD voor films en series, omdat dit vervangbare data is en geen mirroring nodig heeft.
Twee 2TB SSDs in RAID 1 voor VM’s, Docker-containers, databases en alles wat snelle opslag nodig heeft.

Maakt deze indeling volgens jullie sense? Of zouden jullie de schijven evt. anders organiseren?

Alvast bedankt voor de tips!
Al die pools aanmaken is onzin.
Gewoon vier gelijke disken in Raid 5 is het efficiënts, handigste en beste.
Onderverdeling doe je met folders niet met storage pools.

Ssd's is voor een Nas meestal niet zo zinvol, als je veel VM's hebt kun je betere in geheugen investeren, dat is zo wie zo sneller dan ssd's.
Linux draait alles vanuit het geheugen als er voldoenden is en de rest wordt als cache ingezet, alleen databases die uitgebreide queries gebruiken hebben baat bij een ssd als storage.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • JeroenV_
  • Registratie: Januari 2011
  • Laatst online: 16:25
Allard schreef op vrijdag 28 november 2025 @ 16:56:
[...]

Hoe zet jij dat over? Het ging bij mij om 20+ TB, en gezien mijn Synology alleen 1gbit poorten heeft duurde dat wel even. Ik heb dat via SSH gedaan omdat ik de datestamps origineel wilde houden. Heeft er een kleine week over gedaan, geloof ik.
Heb het gewoon via mijn pc gedaan, de shares op beide nassen geopend en kopiëren maar.
Scheelt misschien ook dat het bij mij allemaal best flinke bestanden waren (series en films) dus op zich kopieerde het wel lekker door. Kan me voorstellen als je ook heel veel kleinere bestanden hebt het een stuk langer duurt.

  • Mokum
  • Registratie: April 2023
  • Laatst online: 20:58
Heb die UPS van Ugreen ondertussen maar wil niet verbinden in Control Panel "Failed".
Wordt wel herkend op mijn PC.

Support ticket geopend. Ondertussen vragen ze logs op.
Zelf zie ik er iets in staan van "FATAL 2025-11-29 13:32:10.032249 ctl_serv/cmd/ups_tool/main.go:117 failed to restart nut-driver@ups0: cmd: /usr/bin/systemctl restart nut-driver@ups0 fail, stdout: , stderr: Job for nut-driver@ups0.service failed because the control process exited with error code."

  • Taro
  • Registratie: September 2000
  • Niet online

Taro

Moderator General Chat / Wonen & Mobiliteit

Kennis delen > DM

Vandaag nog 2x Samsung 990 Pro 4 TB SSD's binnengekomen. De eerste kon ik gebruiken om van RAID1 naar RAID5 te gaan. Het rebuilden van de RAID-array is inmiddels voltooid en nu wordt de 4e schijf toegevoegd, dat werkt erg simpel en goed. Gisteren ook 32 GB RAM erbij besteld.

Merk zelfs dat Teslamate, PiHole, etc. enorm veel sneller reageren dan op de Synology het geval was.

Nu alleen nog een Docker iets voor FTP zoeken met meer functionaliteit dan UGOS, suggesties?

iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV


  • Greatsword
  • Registratie: Februari 2010
  • Niet online
Taro schreef op zaterdag 29 november 2025 @ 16:03:

Nu alleen nog een Docker iets voor FTP zoeken met meer functionaliteit dan UGOS, suggesties?
Heb zelf Tailscale geïnstalleerd op mijn Mac en de NAS. Op de Mac tevens Filezilla geïnstalleerd en omdat ik er ook een 10Gbit adapter tussen heb zitten kan ik dus razendsnel data overzetten via FTP.

  • Vorkie
  • Registratie: September 2001
  • Niet online
Taro schreef op zaterdag 29 november 2025 @ 16:03:
Vandaag nog 2x Samsung 990 Pro 4 TB SSD's binnengekomen. De eerste kon ik gebruiken om van RAID1 naar RAID5 te gaan. Het rebuilden van de RAID-array is inmiddels voltooid en nu wordt de 4e schijf toegevoegd, dat werkt erg simpel en goed. Gisteren ook 32 GB RAM erbij besteld.

Merk zelfs dat Teslamate, PiHole, etc. enorm veel sneller reageren dan op de Synology het geval was.

Nu alleen nog een Docker iets voor FTP zoeken met meer functionaliteit dan UGOS, suggesties?
Dat het sneller is, is logisch, die CPU is veel vlotter dan de oude ☺️

FTP? Ik zou gaan voor SFTP? Daar zijn veel images van te vinden.

  • Taro
  • Registratie: September 2000
  • Niet online

Taro

Moderator General Chat / Wonen & Mobiliteit

Kennis delen > DM

Vorkie schreef op zaterdag 29 november 2025 @ 16:36:
[...]

Dat het sneller is, is logisch, die CPU is veel vlotter dan de oude ☺️
Uiteraard, maar had niet verwacht dat zelfs simpele browser tools nog sneller konden reageren :)
FTP? Ik zou gaan voor SFTP? Daar zijn veel images van te vinden.
Uiteraard, alleen kom ik veel opties tegen die ik qua naamgeving niet ken en dus ben ik wat terughoudend.

iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV


  • Taro
  • Registratie: September 2000
  • Niet online

Taro

Moderator General Chat / Wonen & Mobiliteit

Kennis delen > DM

Greatsword schreef op zaterdag 29 november 2025 @ 16:35:
[...]


Heb zelf Tailscale geïnstalleerd op mijn Mac en de NAS. Op de Mac tevens Filezilla geïnstalleerd en omdat ik er ook een 10Gbit adapter tussen heb zitten kan ik dus razendsnel data overzetten via FTP.
Tailscale kende ik nog niet, is zo te zien onderdeel van een groter ecosysteem incl. VPN. Maar als ik de betreffende Docker image gebruik, neem ik dan niet heel veel overhead mee die ik allemaal wel moet configureren en op de achtergrond meedraait?

Is dat deze? https://hub.docker.com/r/tailscale/tailscale.

iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV


  • Greatsword
  • Registratie: Februari 2010
  • Niet online
Taro schreef op zaterdag 29 november 2025 @ 17:17:
[...]

Tailscale kende ik nog niet, is zo te zien onderdeel van een groter ecosysteem incl. VPN. Maar als ik de betreffende Docker image gebruik, neem ik dan niet heel veel overhead mee die ik allemaal wel moet configureren en op de achtergrond meedraait?

Is dat deze? https://hub.docker.com/r/tailscale/tailscale.
Tailscale verbruikt amper resources, zie de OP van dit topic voor een link naar de tutorial/installatie

  • Taro
  • Registratie: September 2000
  • Niet online

Taro

Moderator General Chat / Wonen & Mobiliteit

Kennis delen > DM

Greatsword schreef op zaterdag 29 november 2025 @ 18:09:
[...]


Tailscale verbruikt amper resources, zie de OP van dit topic voor een link naar de tutorial/installatie
Ik heb de betreffende video gekeken, maar zal nog wel iets over het hoofd zien. Ik wil vanaf een externe DirectAdmin omgeving via SFTP/FTPS backups maken naar de UGreen in mijn thuisnetwerk. Ik kan op die DirectAdmin server niets installeren. Als Tailscale is geïnstalleerd is er dan een (S)FTP(S) server actief die ik kan gebruiken? Vind het erg onduidelijk allemaal.

iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV


  • Mokum
  • Registratie: April 2023
  • Laatst online: 20:58
Mokum schreef op zaterdag 29 november 2025 @ 13:39:
Heb die UPS van Ugreen ondertussen maar wil niet verbinden in Control Panel "Failed".
Wordt wel herkend op mijn PC.

Support ticket geopend. Ondertussen vragen ze logs op.
Zelf zie ik er iets in staan van "FATAL 2025-11-29 13:32:10.032249 ctl_serv/cmd/ups_tool/main.go:117 failed to restart nut-driver@ups0: cmd: /usr/bin/systemctl restart nut-driver@ups0 fail, stdout: , stderr: Job for nut-driver@ups0.service failed because the control process exited with error code."
Heb een factory reset gedaan en daarna kon ik wel verbinden met de UPS, denk dat ik in het begin wat fuck-ups gedaan via ssh en dat nog een gevolg ervan was :).

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 23:58

Quad

Doof

@Taro tailscale is een VPN netwerk die je opzet tussen diverse devices. Heb jij nu niets aan.
Je moet simpelweg de sftp poorten openzetten naar de FTP server op je NAS.

Alles went behalve een Twent.
nggyu nglyd


  • Taro
  • Registratie: September 2000
  • Niet online

Taro

Moderator General Chat / Wonen & Mobiliteit

Kennis delen > DM

Quad schreef op zaterdag 29 november 2025 @ 19:34:
@Taro tailscale is een VPN netwerk die je opzet tussen diverse devices. Heb jij nu niets aan.
Je moet simpelweg de sftp poorten openzetten naar de FTP server op je NAS.
Dacht inderdaad al dat Tailscale geen oplossing voor mijn vraagstuk is.

"Simpelweg" is echter niet het geval, gisteren al geprobeerd, maar krijg foutmeldingen. In de router het IP adres van de Synology naar de UGreen aangepast, maar lijkt nog niet in te kunnen loggen. Ga het morgen nog weleens proberen.

iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 23:58

Quad

Doof

@Taro lukt het om intern, vanaf je PC verbinding te maken met je FTP server?

FTP luistert altijd wel nauw met actieve of passieve verbinding en de poort.

Alles went behalve een Twent.
nggyu nglyd


  • remzor
  • Registratie: Februari 2013
  • Laatst online: 22:32
Ik heb nu een Synology DS214 play. Vrij oud dus en een kapotte hdd. Zie nu ook veel Ugreen voorbij komen, spreekt me op zich wel aan. Verschil in prijs is echter niet bijster groot ofzo.

Maar kijk naar de DXP2800, DXP4800 en DXP4800 plus.
Klopt het dat de DXP2800 en 4800 eigenlijk gewoon gelijk zijn aan elkaar op de 2/4 bays na dan? En wellicht een internet poort?
De 4800 plus lijkt een stuk sneller maar ik denk eigenlijk niet dat ik dit nodig heb. Draai geen dockers, ook geen ervaring mee. Maar kan me ook niet bedenken waarom ik dit wel zou doen of willen.

Met name backup voor (veel) foto’s, bekijken van foto’s, streamen van films en series via Kodi op een Shield en backup van belangrijke bestanden.
Bij de 4800 kan ik dan 3x4GB in Raid 5 zetten = 8 tb ruimte. Bij de dxp2800 zou ik dan raid 1 willen waardoor ik al 2x 8tb moet kopen. Dat maakt het totale prijsverschil tussen de 2800 en 4800 nog maar klein..

Wat zouden jullie doen of adviseren?

  • Dagarkin
  • Registratie: December 2020
  • Laatst online: 00:24
remzor schreef op zondag 30 november 2025 @ 08:53:
Ik heb nu een Synology DS214 play. Vrij oud dus en een kapotte hdd. Zie nu ook veel Ugreen voorbij komen, spreekt me op zich wel aan. Verschil in prijs is echter niet bijster groot ofzo.

Maar kijk naar de DXP2800, DXP4800 en DXP4800 plus.
Klopt het dat de DXP2800 en 4800 eigenlijk gewoon gelijk zijn aan elkaar op de 2/4 bays na dan? En wellicht een internet poort?
De 4800 plus lijkt een stuk sneller maar ik denk eigenlijk niet dat ik dit nodig heb. Draai geen dockers, ook geen ervaring mee. Maar kan me ook niet bedenken waarom ik dit wel zou doen of willen.

Met name backup voor (veel) foto’s, bekijken van foto’s, streamen van films en series via Kodi op een Shield en backup van belangrijke bestanden.
Bij de 4800 kan ik dan 3x4GB in Raid 5 zetten = 8 tb ruimte. Bij de dxp2800 zou ik dan raid 1 willen waardoor ik al 2x 8tb moet kopen. Dat maakt het totale prijsverschil tussen de 2800 en 4800 nog maar klein..

Wat zouden jullie doen of adviseren?
Ik heb zelf een dx2800 en deze is al prima in staat om docker containers te draaien. Met jou usecase zou je aan Immich voor fotos kunnen denken, jellyfin/plesk voor streamen en evt sonarr/radarr/bazarr/sannbz/ voor je media.

Voordeel van de 4800 is idd meerdere bays. De 4800plus heeft idd betere hardware en geen ingebouwde emmc.

Zelf erg tevreden over de 2800 en achteraf ook gezien de prijzen van de hardeschijven, dan waren meerdere bays wel handig geweest.

  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Ik heb gekozen om voor een DXP4800+ te gaan omdat bij die DXP2800 het OS op een eMMC staat en die zit vast gesoldeerd op het board, dus niet te vervangen.
Als die defect raakt kun je de Nas weggooien.
eMMC heeft nu eenmaal een veel beperktere levensduur, lees de verhalen maar eens wat raspberry pi gebruikers daar over schrijven.

De DX4800+ gebruikt daar een SSD voor die je kunt vervangen.
En je kunt er zelfs een andere instoppen en daar bijvoorbeeld TrueNas opzetten of een image backup maken die je zo terug kunt zetten.

En een vier bay Nas heeft in mijn ogen altijd de voorkeur want dan kun je Raid 5 draaien in plaats van Raid 1.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • Taro
  • Registratie: September 2000
  • Niet online

Taro

Moderator General Chat / Wonen & Mobiliteit

Kennis delen > DM

Ik heb gemerkt dat als je bepaalde mappen via SSH chmod 0777'ed, dat die na een reboot weer de originele rechten hebben.

Daarom een script gemaakt dat dit weer recht zet en deze aan een cronjob toegevoegd.

Voorbeeld hier: https://www.reddit.com/r/..._scripts_on_a_ugreen_nas/.

Echter kan ik cron wel starten via sudo, maar via ps zie ik vervolgens alleen bash en ps draaien, geen cron.

Inmiddels de FTP omgezet van Synology naar UGreen via de standaard service. Via FTPS krijg ik foutmeldingen over het certificaat. Kijk ik bij de certificaten, dan zie ik daar 3x een UGreen certificaat, incl. voor FTPS. Iemand daar ervaring mee?

En mbt VPN: Heb daarvoor destijds een standaard L2TP VPN opgezet, OpenVPN en KPN routers met nieuwe settings was een drama. Welke Docker of andere oplossing is hiervoor aan te raden? Of kom je dan wel uit op Tailscale? :)

iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV


  • Dagarkin
  • Registratie: December 2020
  • Laatst online: 00:24
Ben(V) schreef op zondag 30 november 2025 @ 09:45:
Ik heb gekozen om voor een DXP4800+ te gaan omdat bij die DXP2800 het OS op een eMMC staat en die zit vast gesoldeerd op het board, dus niet te vervangen.
Als die defect raakt kun je de Nas weggooien.
eMMC heeft nu eenmaal een veel beperktere levensduur, lees de verhalen maar eens wat raspberry pi gebruikers daar over schrijven.

De DX4800+ gebruikt daar een SSD voor die je kunt vervangen.
En je kunt er zelfs een andere instoppen en daar bijvoorbeeld TrueNas opzetten of een image backup maken die je zo terug kunt zetten.

En een vier bay Nas heeft in mijn ogen altijd de voorkeur want dan kun je Raid 5 draaien in plaats van Raid 1.
Je kunt volgens mij wel de emmc uitschakelen indien het corrupt raakt of beschadigd. In de bios kan je dan altijd andere storage kiezen.

Ik moet nog wel een clone maken dus van de orginele os, wat wel weer gedonder is, binnenkort in verdiepen.
Zal ook eens contact opnemen met support, zag dat iemand anders vanuit support een image kreeg op reddit.

[ Voor 5% gewijzigd door Dagarkin op 30-11-2025 10:27 ]


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Als je een clone van je OS disk wilt maken heb ik hier beschreven hoe je dat kunt doen.
Ben(V) in "UGREEN NASync - Discussie & Ervaringen"

[ Voor 20% gewijzigd door Ben(V) op 30-11-2025 11:11 ]

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • A_rjen
  • Registratie: December 2013
  • Laatst online: 19-12 11:48
Wat voor mij prima heeft gewerkt en waarvoor dank @Ben(V)

  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Taro schreef op zondag 30 november 2025 @ 10:00:
Ik heb gemerkt dat als je bepaalde mappen via SSH chmod 0777'ed, dat die na een reboot weer de originele rechten hebben.

Daarom een script gemaakt dat dit weer recht zet en deze aan een cronjob toegevoegd.

Voorbeeld hier: https://www.reddit.com/r/..._scripts_on_a_ugreen_nas/.

Echter kan ik cron wel starten via sudo, maar via ps zie ik vervolgens alleen bash en ps draaien, geen cron.

Inmiddels de FTP omgezet van Synology naar UGreen via de standaard service. Via FTPS krijg ik foutmeldingen over het certificaat. Kijk ik bij de certificaten, dan zie ik daar 3x een UGreen certificaat, incl. voor FTPS. Iemand daar ervaring mee?

En mbt VPN: Heb daarvoor destijds een standaard L2TP VPN opgezet, OpenVPN en KPN routers met nieuwe settings was een drama. Welke Docker of andere oplossing is hiervoor aan te raden? Of kom je dan wel uit op Tailscale? :)
Cron is een beetje absolute, misschien beter om systemd te gebruiken.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • Dagarkin
  • Registratie: December 2020
  • Laatst online: 00:24
Ben(V) schreef op zondag 30 november 2025 @ 11:06:
Als je een clone van je OS disk wilt maken heb ik hier beschreven hoe je dat kunt doen.
Ben(V) in "UGREEN NASync - Discussie & Ervaringen"
Ja had ik gezien, maar zelf kan ik dan weer aan de slag, terwijl ik vind dat Ugreen zelf die iso moet voorzien.

Van te voren had ik niet die kennis met emmc en het gegeven, dat er geen iso beschikbaar is.

Nu lees ik wel gelukkig verhalen, dat emmc te omzeilen is, indien beschadigd en er zijn zelfs doe het zelfers die emmc vervangen.

Probeer het eerst via support en mocht dit niet lukken, kan ik wel gebruik maken van je guide. Enige wat ik nog afvraag als je de ugos update, wordt deze data geschreven op de emmc of is deze door Ugreen write protected?

  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Bij een update wordt die update gewoon op die eMMC geschreven en eigenlijk moet je dan een nieuwe image maken wil je bij blijven.

Misschien bij support vragen of ze niet standaard ook een image ergens downloadable willen plaatsen voor al hun Nassen.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 23:58

Quad

Doof

@Taro is er geen alternatief voor chmod 777? Dat is toch nooit een oplossing voor iets? Daarmee krijgt elk proces rwd op de inhoud.

Alles went behalve een Twent.
nggyu nglyd


  • Taro
  • Registratie: September 2000
  • Niet online

Taro

Moderator General Chat / Wonen & Mobiliteit

Kennis delen > DM

Quad schreef op zondag 30 november 2025 @ 12:59:
@Taro is er geen alternatief voor chmod 777? Dat is toch nooit een oplossing voor iets? Daarmee krijgt elk proces rwd op de inhoud.
In dit geval betreft het een Docker Grafana plugins mapje dat schrijfbaar/leesbaar moet zijn, anders crashed de container. Waarschijnlijk kan een lagere/andere chmod waarde ook wel, maar gaat mij nu vooral om de werking.

iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV


  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 18-12 14:20
Ben(V) schreef op zondag 30 november 2025 @ 09:45:
Ik heb gekozen om voor een DXP4800+ te gaan omdat bij die DXP2800 het OS op een eMMC staat en die zit vast gesoldeerd op het board, dus niet te vervangen.
Als die defect raakt kun je de Nas weggooien.
eMMC heeft nu eenmaal een veel beperktere levensduur, lees de verhalen maar eens wat raspberry pi gebruikers daar over schrijven.

De DX4800+ gebruikt daar een SSD voor die je kunt vervangen.
En je kunt er zelfs een andere instoppen en daar bijvoorbeeld TrueNas opzetten of een image backup maken die je zo terug kunt zetten.

En een vier bay Nas heeft in mijn ogen altijd de voorkeur want dan kun je Raid 5 draaien in plaats van Raid 1.
Ai, en dat terwijl mijn 2800 net onderweg is. Ik zit even te zoeken naar de geschatte/verwachte levensduur maar kan het zo 1,2,3 nog niet vinden. Overigens draait mijn Raspberry pi4 al een aantal jaren. Overigens niet met een SD-kaart maar SSD.

Denk dat je de levensduur van de eMMC misschien kan verlengen door bijvoorbeeld zo min mogelijk er naar toe te schrijven. Voor logging bv een symbolic link naar een directory op de SSD.

Mijn oude Conceptronic CH3NAS had/heeft een 8MB flashmodule. Die was/is na 15 jaar overigens nog steeds werkend.

aka pluim003


  • Quad
  • Registratie: Mei 2009
  • Laatst online: 23:58

Quad

Doof

Taro schreef op zondag 30 november 2025 @ 14:13:
[...]

In dit geval betreft het een Docker Grafana plugins mapje dat schrijfbaar/leesbaar moet zijn, anders crashed de container. Waarschijnlijk kan een lagere/andere chmod waarde ook wel, maar gaat mij nu vooral om de werking.
Helemaal goed.
Wb je VPN vraag, probeer tailscale eens zou ik zeggen. Gratis tot 3 devices om toe te voegen. Is snel, laag in verbruik en vereist geen geopende poorten.

Alles went behalve een Twent.
nggyu nglyd


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
DikkieDick schreef op zondag 30 november 2025 @ 14:19:
[...]


Ai, en dat terwijl mijn 2800 net onderweg is. Ik zit even te zoeken naar de geschatte/verwachte levensduur maar kan het zo 1,2,3 nog niet vinden. Overigens draait mijn Raspberry pi4 al een aantal jaren. Overigens niet met een SD-kaart maar SSD.

Denk dat je de levensduur van de eMMC misschien kan verlengen door bijvoorbeeld zo min mogelijk er naar toe te schrijven. Voor logging bv een symbolic link naar een directory op de SSD.

Mijn oude Conceptronic CH3NAS had/heeft een 8MB flashmodule. Die was/is na 15 jaar overigens nog steeds werkend.
Die logging en de tmp folder ergens anders plaatsen zal wel helpen maar je hebt wel een goed kans dat zulk soort dingen verdwijnen na een upgrade van Ugos dus daar moet je dan wel rekening mee houden door zoiest bijvoorbeeld via systemd te regelen.

Als je zoals @Dagarkin zegt, ook van een ander device kunt draaien kun je er ook voor kiezen om vanaf een van de nvme slots te draaien.

[ Voor 13% gewijzigd door Ben(V) op 30-11-2025 14:52 ]

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • remzor
  • Registratie: Februari 2013
  • Laatst online: 22:32
Dagarkin schreef op zondag 30 november 2025 @ 09:33:
[...]


Ik heb zelf een dx2800 en deze is al prima in staat om docker containers te draaien. Met jou usecase zou je aan Immich voor fotos kunnen denken, jellyfin/plesk voor streamen en evt sonarr/radarr/bazarr/sannbz/ voor je media.

Voordeel van de 4800 is idd meerdere bays. De 4800plus heeft idd betere hardware en geen ingebouwde emmc.

Zelf erg tevreden over de 2800 en achteraf ook gezien de prijzen van de hardeschijven, dan waren meerdere bays wel handig geweest.
Dank! Ik houd de prijzen van de schijven de komende tijd nog even in de gaten. Als die prijzen wat droppen (nu erg duur imho) wil ik het liefst 3-4 schijven en een 4-bay. Dan wellicht niet eens de Plus variant want voor mijn doeleinden is de niet-plus versie afdoende. Alleen de Plus is natuurlijk wat toekomstbestendiger..

Ik streamde altijd naar mijn Nvidia Shield, daar heb ik Kodi op staan en die indexeert ook mooi enzo. Wat zou het voordeel dan van zo'n 'container' als Jellyfin voor mij zijn? Best vaag nog voor mij, ondanks wat Googlen en Youtuben. Of ik word oud :X

  • Dagarkin
  • Registratie: December 2020
  • Laatst online: 00:24
remzor schreef op zondag 30 november 2025 @ 15:33:
[...]


Dank! Ik houd de prijzen van de schijven de komende tijd nog even in de gaten. Als die prijzen wat droppen (nu erg duur imho) wil ik het liefst 3-4 schijven en een 4-bay. Dan wellicht niet eens de Plus variant want voor mijn doeleinden is de niet-plus versie afdoende. Alleen de Plus is natuurlijk wat toekomstbestendiger..

Ik streamde altijd naar mijn Nvidia Shield, daar heb ik Kodi op staan en die indexeert ook mooi enzo. Wat zou het voordeel dan van zo'n 'container' als Jellyfin voor mij zijn? Best vaag nog voor mij, ondanks wat Googlen en Youtuben. Of ik word oud :X
Ik heb zelf een topic opgericht Jellyfin
Ik zie het bv als je eigen Netflix server.

Ik gebruik zelf ook kodi icm jellyfin addon. Op de tv, maar als ik weg ben en heb mijn tablet bij mij kan ik ook weer mooi verder met een serie, waarmee ik bezig was.

Alleen doet jellyfin het volledige beheer en jellyfin heeft ook eigen afspeel software voor de meeste platforms, waardoor je overal toegang hebt tot je media. Je hebt ook mogelijkheden om accounts toe te voegen, waardoor anderen ook gebruik kunnen maken van je eigen jellyfin server. Andere functie is transcoderen, mocht een formaat niet worden ondersteunt door de media speler kan Jellyfin dit omzetten naar een formaat wat wel kan.

  • elsinga
  • Registratie: Februari 2003
  • Laatst online: 19-12 08:34

elsinga

=8-)

Okay, inmiddels mijn DXP8800 Plus draaien als primaire webserver, in plaats van mijn DS918+. Hieronder hoe ik dat heb geregeld, want vervanger van Synology Webstation en de Synology interne reverse proxy, met Let's Encrypt functionaliteit.

Voor de Web Station vervanging draai ik voor elke website een Docker container met image linuxserver/nginx:latest. De intrerne /copnfig heb ik naar /volume1/docker/nginx/<website> gemapped, zodat alle config info persistent is. Ook heb ik de interne /config/www gemapped naar /volume1/web/<website>, zodat ik alle websites netjes op 1 shared drive zie (in plaats van in de persistent Docker folder). Voor elke website container map ik de interne poort 80 naar een extern unieke poort, idem 443. Ik kan elke website nu bereiken op het IP adres van de DXP achter het unieke poortnummer.

Omdat ik o.a. Joomla gebruik voor websites draai ik ook een container met image mariadb:latest, met poort 3306 gewoon gemapped door 3306 en de persistent data richting de Docker share.

Tot hier was alles eenvoudig, maar het vinden van een goede reverse proxy container was lastiger. Nginx Proxy Manager leek leuk, maar gaf bij mij problemen met zowel HTTP als HTTPS naar dezelfde website. Na wat zoekwerk kwam ik terecht op de image zoraxydocker/zoraxy:latest. Deze is heel flexibel in te stellen en heeft alle functionaliteit die ik nodig heb. Bij de Let's Encrypt ACME Tool heb ik alleen de HTTP Challenge niet aan de gang gekregen, kennelijk vangt Zoraxy de HTTP PUT/GET naar de /well-known/ folder niet af en de container heeft uiteraard geen schrijfrechten in de website containers. Ik gebruik daar dus de DNS-01 challenge voor, die prima werkt (al moest ik daarvoor bij ClouDNS wel een betaald abonnement nemen, de gratis versie geeft geen toegang tot de benodigde API).

Met deze combi heb ik (meer dan) de functionaliteit op de DS918+ ter beschikking op mijn DX8800 Plus.

Robert Elsinga =8-) | IT security, Scouting, zendamateur (PC5E, WC5E) | www.elsinga.net/robert, www.pc5e.nl


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
remzor schreef op zondag 30 november 2025 @ 15:33:
[...]


Dank! Ik houd de prijzen van de schijven de komende tijd nog even in de gaten. Als die prijzen wat droppen (nu erg duur imho) wil ik het liefst 3-4 schijven en een 4-bay. Dan wellicht niet eens de Plus variant want voor mijn doeleinden is de niet-plus versie afdoende. Alleen de Plus is natuurlijk wat toekomstbestendiger..

Ik streamde altijd naar mijn Nvidia Shield, daar heb ik Kodi op staan en die indexeert ook mooi enzo. Wat zou het voordeel dan van zo'n 'container' als Jellyfin voor mij zijn? Best vaag nog voor mij, ondanks wat Googlen en Youtuben. Of ik word oud :X
Niks ten nadele van Jellyfin hoor, maar als je een Nvidia Shield hebt zou ik die gewoon blijven gebruiken.
Als je hem nog zou moeten kopen zou ik voor Jellyfin gaan.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • this
  • Registratie: Maart 2020
  • Laatst online: 19:48
Heeft iemand een goeie guide voor qbittorrent icm vpn (bij voorkeur proton) voor de ugreen? Er zijn verschillende guides, maar dan niet specifiek ugreen, en die gaan allemaal van commando's uit om qbittorrent te installeren.
Terwijl qbittorrent gewoon in de app center te installeren is. Ik zou graag iets visueler willen werken daardoor.

Met gluetun liep ik al vast bij het starten er van. De compose file zou de poort 8888 (die van qbittorrent) moeten bevatten, maar als ik die er in steek wil het niet meer starten.

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 23:58

Quad

Doof

Docker met qbittorrent en gluetun werkt hier als een malle. (niet op een NAS, maar dat moet niets uit maken)

Alles went behalve een Twent.
nggyu nglyd


  • Boedha
  • Registratie: Januari 2000
  • Laatst online: 15-12 19:53

Boedha

Niks

Ik heb SABnzb geinstalleerd via Portainer in Docker op een Ugreen DXP6800 pro.

SABnzb start ook gewoon op, maar als ik mappen etc wil laten aanmaken krijgen ik steeds de melding dat het niet mogelijk is om de map aan te maken. Nu heb ik deze ook zelf aangemaakt, maar de melding blijft.

"Niet mogelijk directory /volume1/Media Download/Incomplete aan te maken"

Ik krijg in SABnzb de volgende melding

PermissionError: [Errno 13] Permission denied: '/volume1'

Maar hoe geef ik de juiste rechten voor SABnzb. Bij mijn oude synology nas kan je interne gebruikers kiezen, maar dat zie ik bij de Ugreen niet staan.

Tja, wat zullen we daar nou op zeggen!


  • elsinga
  • Registratie: Februari 2003
  • Laatst online: 19-12 08:34

elsinga

=8-)

elsinga schreef op zondag 30 november 2025 @ 17:34:
Met deze combi heb ik (meer dan) de functionaliteit op de DS918+ ter beschikking op mijn DX8800 Plus.
Ik was wellicht wat te vroeg enthousiast... Op een of andere manier lijkt het er op dat de huidige setup het niet goed doet. Ik heb in mijn Unifi omgeving de port forward 80/443 omgezet van de DS918+ naar de DXP8800 Plus en als ik in de log kijk, dan komt al het webserver verkeer ook netjes aan op de Zoraxy reverse proxy. Alleen lijkt het of de Zoraxy het verkeer niet naar de containers op de DXP stuurt, maar alles naar de DS918+... En ja, in alle entries staat netjes het IP adres:poortnummer van de container op de DXP (op een paar forwards die nog op de DS918+ draaien na). En ik zie in de GUI van Zoraxy ook niets staan wat onterecht naar de DS918+ wijst..

De Unifi Cloud Gateway Ultra al een schop gegeven, de DXP al herstart, maar hielp niet. Beide apparaten hangen ook niet aan dezelfde switch, dus een corrupte MAC tabel lijkt het ook niet (als dat technisch al zou kunnen, precies 2 MAC adressen omwisselen). Dus ik moet nog even flink troubleshooten.... Ondertussen de port forward weer richting DS918+ en de websites en containers daar weer enabled. Maar dus niet blij...

Robert Elsinga =8-) | IT security, Scouting, zendamateur (PC5E, WC5E) | www.elsinga.net/robert, www.pc5e.nl


  • Dagarkin
  • Registratie: December 2020
  • Laatst online: 00:24
Boedha schreef op maandag 1 december 2025 @ 01:45:
Ik heb SABnzb geinstalleerd via Portainer in Docker op een Ugreen DXP6800 pro.

SABnzb start ook gewoon op, maar als ik mappen etc wil laten aanmaken krijgen ik steeds de melding dat het niet mogelijk is om de map aan te maken. Nu heb ik deze ook zelf aangemaakt, maar de melding blijft.

"Niet mogelijk directory /volume1/Media Download/Incomplete aan te maken"

Ik krijg in SABnzb de volgende melding

PermissionError: [Errno 13] Permission denied: '/volume1'

Maar hoe geef ik de juiste rechten voor SABnzb. Bij mijn oude synology nas kan je interne gebruikers kiezen, maar dat zie ik bij de Ugreen niet staan.
Welke docker gebruik je?

Ik gebruik zelf onderstaande en dan moet je wel PUID en PGID instellen de gebruikersrechten.

Deze kan je vinden via onderstaande link
ugreen-nas-find-uid-userid-and-gid-groupid

YAML:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
sabnzbdvpn:
    container_name: sabnzbdvpn
    image: lscr.io/linuxserver/sabnzbd:latest
    #network_mode: "service:gluetun"
    networks:
      - nas
    volumes:
      - '${CONFIGS_DIR}/sabnzbdvpn/:/config'
      - '${DOWNLOAD_DIR}:/downloads'
      - '${COMPLETED_DIR}:/completed'
      - '/etc/localtime:/etc/localtime:ro'
    env_file: stack.env
    environment:
    - PUID= ${PUID}
    - PGID= ${PGID}
    - TZ= ${TIMEZONE}

  • ProfaNe
  • Registratie: Oktober 2012
  • Niet online
Taro schreef op zaterdag 29 november 2025 @ 16:03:
Merk zelfs dat Teslamate, PiHole, etc. enorm veel sneller reageren dan op de Synology het geval was.
Hoe heb je PiHole werkend gekregen? Draai je het in een docker container? Er draait standaard op de ugreen één of andere DNS service dat port 53 in gebruik heeft. PiHole wil daarom bij mij niet starten :-( De service killen is een optie, maar dat zal ik dan bij elke reboot moeten doen.

[ Voor 8% gewijzigd door ProfaNe op 01-12-2025 09:13 ]


  • breew
  • Registratie: April 2014
  • Laatst online: 23:39
ProfaNe schreef op maandag 1 december 2025 @ 09:11:
[...]


Hoe heb je PiHole werkend gekregen? Draai je het in een docker container? Er draait standaard op de ugreen één of andere DNS service dat port 53 in gebruik heeft. PiHole wil daarom bij mij niet starten :-( De service killen is een optie, maar dat zal ik dan bij elke reboot moeten doen.
draait er al een DNS op de Ugreen wellicht?
https://ugreen-forum.de/f.../1271-pihole-und-port-53/

  • ProfaNe
  • Registratie: Oktober 2012
  • Niet online
Yes en ik kan dat killen, maar dan moet dat elke keer na een reboot. Ik kan de andere replys niet lezen op dat forum zonder account, staat daar de oplossing :P?

  • Pietervs
  • Registratie: Maart 2001
  • Niet online

Pietervs

is er al koffie?

Er is een nieuwe firmware beschikbaar, in ieder geval voor de 4800+ (want die heb ik :) ): versie 1.11.0.0053

In het verlengde daarvan worden ook wat apps geupdated: Docker, Downloads, Photos, Theater, Music en Sync&Backup (bij mij).

Zojuist geïnstalleerd, installatie ging vlekkeloos. Nog geen zaken gezien die problemen geven met deze versie.

Pvoutput 3.190 Wp Zuid; Marstek Venus 5.12 kWh; HW P1; BMW i4 eDrive40


  • Greatsword
  • Registratie: Februari 2010
  • Niet online
Pietervs schreef op maandag 1 december 2025 @ 11:27:
Er is een nieuwe firmware beschikbaar, in ieder geval voor de 4800+ (want die heb ik :) ): versie 1.11.0.0053
Release Notes

Control Panel:
Security > Account security: IP addresses for account activities now support display of actual location information.

Files:

Added the tag feature: Offers 5 default tags and supports custom tags, allowing for file management across folders and locations (client update required).

Shared folder management > NFS permissions: Added multiple Squash mapping options on the NFS rules pages for easier NFS permission management and usage.

Web/PC: Added thumbnail view when zooming in on images.
Supports deleting files and folders by pressing the Enter key after invoking the deletion dialog with the Delete key.

Optimized the issue where parameter errors occur when decompressing compressed archives containing multiple files with long names.

Fixed an issue where file paths can not fully display in secondary selection dialogs after file deduplication.

Others:

Account settings > Change password: Added plain text toggle functionality on the old password page (click the "Eye" icon to show/hide password).

Fixed some known issues to improve user experience.

  • breew
  • Registratie: April 2014
  • Laatst online: 23:39
ProfaNe schreef op maandag 1 december 2025 @ 09:42:
[...]


Yes en ik kan dat killen, maar dan moet dat elke keer na een reboot. Ik kan de andere replys niet lezen op dat forum zonder account, staat daar de oplossing :P?
Tijd om je Duits af te stoffen....
gebruik van MacVLAN staat als mogelijke oplossing gegeven
YouTube: Docker + macvlan
https://ugreen-forum.de/f...ker/?postID=1008#post1008


Moin,
das Thema "Port 53" zieht sich wie ein roter Faden durch Forum. UGOS nutzt ihn systemintern und als Lösung haben sich entweder
a) MacVLAN (siehe auch das [TUT] AdGuard Home)
oder
b) ein separates System (bspw. RasPi) und lassen PiHole/AGH dort laufen (bei Bedarf noch Nginx Proxy Manager)

  • RonJ
  • Registratie: December 2009
  • Laatst online: 00:07
RonJ schreef op woensdag 26 november 2025 @ 11:45:
1 groot nadeel tot nu toe: UGOS ondersteund geen vlans. Onder docker portainer kan je wel een ipvlan netwerk aanmaken, maar ik kreeg er tot nu toe geen stack op gedeployed. Ook onder de Virtual Machine optie geen enkele mogelijkheid hiervoor. Ik overweeg nu maar een ugreen usb NICje erbij te bestellen zodat ik iig Home Assistant in z'n eigen VLAN kan krijgen.
Om hier nog even op terug te komen, een ugreen 1Gb USB nicje (herkent ie als ASIX AX88179B chipset, dus lijkt erop dat andere merken USB NIC's die standaard ondersteund worden in debian ook gewoon moeten werken) erbij was voorlopig iig een oplossing voor mij.

Wordt meteen herkend door UGOS als 2e NIC en kon hier ook een linux bridge op zetten voor de virtual machine applicatie. Hiermee dus de Home Assistant VM in het juiste domotica VLAN kunnen draaien, hetzij met een 2e kabel.

Daarna heb ik nog een behoorlijke tijd lopen hannessen met eerst de krakkemikkige backup&restore functie van HA en vervolgens met de USB passthrough voor een ConbeeII ZigBee stick, daar gaat blijkbaar iets onderhuids fout in UGOS met de passthrough (vermoedelijk door de belachelijk lange device naam, iets met Duitsers en software :X ). Dit heb ik uiteindelijk maar "opgelost" door deze stick in de Pi-hole Pi (die hou ik zelf sowieso liever apart van de NAS) erbij te steken en deze met ser2net over TCP te koppelen aan HA.

Trouwens net ook maar even de bovengenoemde update geïnstalleerd. Toen was ie na de reboot ook alweer 1 van de passthrough USB devices "kwijt" in de VM-configuratie. Die virtual machines app van UGOS is dus toch niet heel volwassen, iig rammelt de USB passthrough feature. Misschien ga ik alle domotica radios maar via ser2net doen voorlopig.

All-electric.


  • Rammz
  • Registratie: Januari 2019
  • Laatst online: 20:06
@RonJ ik moet zeggen dat het wegvallen van de passthrough usb met de ConbeeII ZigBee stick mij ook voor problemen gaf toen ik de HA vm op mijn Synology draaide. Toen ik deze had vervangen met een skyconnect stick was dit probleem verholpen. Heb nu op de Ugreen 4800+ ook nog geen problemen ervaren wat dat betreft!

  • Taro
  • Registratie: September 2000
  • Niet online

Taro

Moderator General Chat / Wonen & Mobiliteit

Kennis delen > DM

ProfaNe schreef op maandag 1 december 2025 @ 09:11:
[...]


Hoe heb je PiHole werkend gekregen? Draai je het in een docker container? Er draait standaard op de ugreen één of andere DNS service dat port 53 in gebruik heeft. PiHole wil daarom bij mij niet starten :-( De service killen is een optie, maar dat zal ik dan bij elke reboot moeten doen.
Via deze route, met een extra IP: https://mariushosting.com...-hole-on-your-ugreen-nas/.

iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV


  • Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

Pietervs schreef op maandag 1 december 2025 @ 11:27:
Er is een nieuwe firmware beschikbaar, in ieder geval voor de 4800+ (want die heb ik :) ): versie 1.11.0.0053

In het verlengde daarvan worden ook wat apps geupdated: Docker, Downloads, Photos, Theater, Music en Sync&Backup (bij mij).

Zojuist geïnstalleerd, installatie ging vlekkeloos. Nog geen zaken gezien die problemen geven met deze versie.
Hier ook probleemloos binnen.

In de docker app is nu een "Management" tab, het lijkt er op dat je daar periodiek een update check voor je containers / images uit kunt laten voeren _/-\o_

Afbeeldingslocatie: https://tweakers.net/i/oo9FlRyBGUpTJjHE_iCd7YgT_Lo=/800x/filters:strip_exif()/f/image/NGcAbbfgYSt0qSoAW6zkgBn4.png?f=fotoalbum_large

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • Taro
  • Registratie: September 2000
  • Niet online

Taro

Moderator General Chat / Wonen & Mobiliteit

Kennis delen > DM

Steef schreef op maandag 1 december 2025 @ 14:46:
[...]


Hier ook probleemloos binnen.

In de docker app is nu een "Management" tab, het lijkt er op dat je daar periodiek een update check voor je containers / images uit kunt laten voeren _/-\o_

[Afbeelding]
Ik heb hiervoor al Portainer + Watchtower draaien, dan heb je daar ook geen omkijken naar. Maar wel mooi dat ze het nu standaard zelf ook ondersteunen, scheelt weer inrichten.

[ Voor 6% gewijzigd door Taro op 01-12-2025 14:49 ]

iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV


  • outlandos
  • Registratie: November 2001
  • Laatst online: 21:57
Zelfs een update van de native Jellyfin app, werd wel tijd na 8 maanden zonder update... ben wel benieuwd naar welke versie van de Jellyfin server de update gaat. Kan dat pas checken waneer ik thuis ben.

  • Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

outlandos schreef op maandag 1 december 2025 @ 15:52:
Zelfs een update van de native Jellyfin app, werd wel tijd na 8 maanden zonder update... ben wel benieuwd naar welke versie van de Jellyfin server de update gaat. Kan dat pas checken waneer ik thuis ben.
Ik geloof dat die niet native is, maar gewoon in docker draait.

Je bent beter af als je zelf jellyfin opzet via docker, denk ik.

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • outlandos
  • Registratie: November 2001
  • Laatst online: 21:57
Steef schreef op maandag 1 december 2025 @ 15:54:
[...]


Ik geloof dat die niet native is, maar gewoon in docker draait.

Je bent beter af als je zelf jellyfin opzet via docker, denk ik.
Met native bedoelde ik native vanuit Ugreen. Maar voor de rest heb je wel gelijk hoor.

Nieuwe versie is trouwens nog steeds gewoon de oude 10.10.3 8)7

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 18-12 14:20
*knip* offtopic

[ Voor 93% gewijzigd door br00ky op 02-12-2025 07:47 ]

aka pluim003


  • upje
  • Registratie: April 2001
  • Laatst online: 18:32
Steef schreef op maandag 1 december 2025 @ 14:46:
[...]


Hier ook probleemloos binnen.

In de docker app is nu een "Management" tab, het lijkt er op dat je daar periodiek een update check voor je containers / images uit kunt laten voeren _/-\o_

[Afbeelding]
Dat is apart. Ik heb ook net de update uitgevoerd; ik zie een management tab, en daar wordt “data migration” getoond, maar “image update” wordt niet getoond. Ik heb trouwens een DXP2800.

  • A_rjen
  • Registratie: December 2013
  • Laatst online: 19-12 11:48
@upje Dan moet je nog even in App Center je Docker bijwerken (dat was hier de oplossing)

[ Voor 8% gewijzigd door A_rjen op 02-12-2025 08:24 ]


  • TimDeAardappel
  • Registratie: November 2025
  • Laatst online: 06-12 15:02
Ik heb zelf ook een DXP2800, welke (extra) instellingen gebruiken jullie als het gaat om security, aangezien het toch een aparaat uit azie is?

  • daniel360gt
  • Registratie: Juni 2010
  • Laatst online: 18-12 14:36
TimDeAardappel schreef op dinsdag 2 december 2025 @ 08:32:
Ik heb zelf ook een DXP2800, welke (extra) instellingen gebruiken jullie als het gaat om security, aangezien het toch een aparaat uit azie is?
Ik blokkeer elke inkomende en uitgaande verbinding van/naar China (en een heel zooi andere landen) via Unifi.
UGOS heb ik na aanschaf een kleine 2 weken getest. In de logs zag ik regelmatig dat er pogingen gedaan werden om verbinding te leggen naar China, zie ook youtube link in OP. Voor aanschaf had ik min of meer al besloten dat ik niet op UGOS zou blijven, ze zijn nog niet zo bewezen als Synology bijvoorbeeld. Ik draai nu TrueNAS op de SSD die in de 4800+ zit. Het kost je een paar dagen om je goed in te lezen maar kan het je aanraden. Hierna 0 verbindingen naar China.

Een raadsel voor een lekker speciaal biertje o.i.d., plaats je antwoord in mijn profielreacties: 2447202 (Hint: startpunt)


  • scorpie
  • Registratie: Augustus 2001
  • Laatst online: 19:36

scorpie

Supra Addict

Hebben meer mensen last van een niet meer werkende iOS app van UGreen na de update van de NAS? Ik kan maar niet inloggen. Heb remote met UGreen ID geprobeerd, via het lokale netwerk, heb m'n telefoon opnieuw opgestart, gekeken of er updates zijn.. niks.. Iemand nog een idee wat ik kan proberen? Zijn er security settings gewijzigd na de update die ik weer moet terugzetten? Bijv. dat je enkel via het web interface mag inloggen en niet meer via de mobiele app?

wil een Toyota Supra mkIV!!!!! | wil een Yamaha YZF-R{1,6} | wil stiekem ook een Ducati
"Security is just a state of mind"
PSN: scorpie | Diablo 3: scorpie#2470


  • posttoast
  • Registratie: April 2000
  • Nu online
scorpie schreef op dinsdag 2 december 2025 @ 11:24:
Hebben meer mensen last van een niet meer werkende iOS app van UGreen na de update van de NAS? Ik kan maar niet inloggen. Heb remote met UGreen ID geprobeerd, via het lokale netwerk, heb m'n telefoon opnieuw opgestart, gekeken of er updates zijn.. niks.. Iemand nog een idee wat ik kan proberen? Zijn er security settings gewijzigd na de update die ik weer moet terugzetten? Bijv. dat je enkel via het web interface mag inloggen en niet meer via de mobiele app?
Nee, hier werkt het allemaal nog gewoon...

omniscale.nl


  • daniel360gt
  • Registratie: Juni 2010
  • Laatst online: 18-12 14:36
Nog even een tip over het verplaatsen van data. In verschillende posts zag ik vragen terug over het verplaatsen van data, van oude NAS (bv. Synology) naar Ugreen NAS. Er zijn al wat methodes genoemd maar wat voor mij uitstekend werkt is Syncthing. Syncthing is eenvoudig op te zetten met docker (UGOS / TrueNAS) en via Package Center binnen Synology.

https://docs.syncthing.net/index.html#
https://mariushosting.com...thing-on-your-ugreen-nas/

Daarnaast gebruik ik het nu als sync tool tussen verschillende apparaten en de NAS met versioning actief.

Een raadsel voor een lekker speciaal biertje o.i.d., plaats je antwoord in mijn profielreacties: 2447202 (Hint: startpunt)


  • Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

Iemand een idee hoe het zit met de ZFS support?

Op hun eigen website noemen ze wel ZFS features, dus ik vermoed dat het ooit onderdeel is geweest van de roadmap:
Leveraging capabilities like ZFS virtual storage pools lets you flexibly grow capacity while optimizing drive configurations behind the scenes.
Maar in hun roadmap vind ik ZFS niet terug.

Misschien een mailtje naar hun support waard - anders misschien toch overstappen naar TrueNAS.

Ik zie dat BTRFS wel ondersteund is, en ook features als zfs-scrub heeft middels btrfs-scrub, maar btrfs is nog niet zo mature.

*edit*

Zo, dat was snel - reactie van UGREEN - voorlopig geen ZFS dus, lijkt het:
Thank you for contacting us. At the moment, our NAS products do not support ZFS. Although our development team is aware of user requests for ZFS features such as scrub and advanced data integrity mechanisms, we currently do not have a confirmed timeline for ZFS integration.

For now, Btrfs is provided as an alternative offering snapshot capabilities, data checksums, and other reliability features, and we continue to improve its performance and stability through future updates.

Your feedback is valuable to us, and we have forwarded your suggestion to our product team for further evaluation in future developments.

[ Voor 48% gewijzigd door Steef op 02-12-2025 16:38 ]

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • raven22
  • Registratie: Januari 2004
  • Laatst online: 23:49
daniel360gt schreef op dinsdag 2 december 2025 @ 15:17:
Nog even een tip over het verplaatsen van data. In verschillende posts zag ik vragen terug over het verplaatsen van data, van oude NAS (bv. Synology) naar Ugreen NAS. Er zijn al wat methodes genoemd maar wat voor mij uitstekend werkt is Syncthing. Syncthing is eenvoudig op te zetten met docker (UGOS / TrueNAS) en via Package Center binnen Synology.

https://docs.syncthing.net/index.html#
https://mariushosting.com...thing-on-your-ugreen-nas/

Daarnaast gebruik ik het nu als sync tool tussen verschillende apparaten en de NAS met versioning actief.
Zelf gebruik ik Resilio Sync, werkt ook als een speer. https://www.resilio.com/sync/

  • breew
  • Registratie: April 2014
  • Laatst online: 23:39
nou, ik ga me er ook aan wagen,
Gisteren de 4800+ bundle gekocht met de 5% extra korting,
vandaag besteld
2 samsung EVO 990 4TB (voor de dockers)
2 WD Red 16TB (voor de data)


Geheugen uitbreiden (indien nodig) ga ik doen als de prijzen niet zo achterlijk exponentieel meet stijgen...
In eerste instantie ga ik toch vooral HA, sonarr/nzbd en Jellyfin draaien. Dat moet op 8 GB ook wel lukken.

Eerst maar weer even salaris erbij krijgen eind deze maand O-)

  • Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

@breew voor wat het waard is; hier vergelijkbare setup, enige extra app is momenteel Docker voor Jellyfin. Met Jellyfin draaiende en streamende zit ik op 1.1 Gb RAM in use.

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • elsinga
  • Registratie: Februari 2003
  • Laatst online: 19-12 08:34

elsinga

=8-)

elsinga schreef op maandag 1 december 2025 @ 08:17:
[...]
Dus ik moet nog even flink troubleshooten.... Ondertussen de port forward weer richting DS918+ en de websites en containers daar weer enabled. Maar dus niet blij...
Even een update. Het lijkt dat de oorzaak iets op mijn laptop of de route intern via de Unify Cloud Gateway is, want vanaf buiten werkt alles zoals verwacht. Paniek voor niks dus wellicht. #pfieuw #zucht

Robert Elsinga =8-) | IT security, Scouting, zendamateur (PC5E, WC5E) | www.elsinga.net/robert, www.pc5e.nl


  • Mokum
  • Registratie: April 2023
  • Laatst online: 20:58
Ik heb na een factory reset een corrupte folder, die als ik probeer te lezen of te openen ervoor zorgt dat het Volume in read-only modus gaat vanwege Btrfs die hiervoor zorgt (veiligheidsmechanisme).

Support van Ugreen is wel proactief en ben ik al enige tijd over en weer mee aan het sturen.

Nu sturen ze mij dit:
"Please first replace the memory with the original factory Samsung 8GB RAM and see if the issue is resolved. If the problem persists, you will need to repair Volume1 via the command line.

Before repair, please:

Use lsof to check if any processes are accessing /volume1 and /home.

Use kill to stop those processes.

Unmount the directories: umount /volume1 and umount /home.

Execute the repair command:

btrfs check --repair /dev/mapper/ug_75D533_1749137545_pool1-volume1"

Ik denk nu niet dat het aan het geheugen ligt. Dus ik probeer de repair, echter moet ik dan eerst alle processen stopppen en het volume unmounten. Ik probeer dit via "kill" maar de processen komen steeds terug. Iemand enig idee? Ben geen Linux (Debian) expert. Zeker niet via cmd.

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 18-12 14:20
Zo gisteren ook de 2800 binnen gekregen en mooi aan de slag gegaan. Paar van de Docker-containers werken als een zonnetje na migratie van de Raspberry Pi4 naar de 2800. Na downshutten boel op pi de volumes gekopieerd naar de 2800. Pihole werkt keurig en mijn vaultwarden, maar uiteraard de belangrijkste die over moet niet. HomeAssistant lijkt na kopiëren van alles heel veel dingen niet (meer) te kunnen. Integraties die niet meer werken of geladen kunnen worden. Dus die is voorlopig even weer terug naar de pi. En dan maar kijken waar het probleem zit en/of waarom ie de integraties niet kan laden. En ja, ik gebruik een ander image.

Vraag: zijn er meer die zo'n migratie hebben uitgevoerd?

aka pluim003


  • breew
  • Registratie: April 2014
  • Laatst online: 23:39
DikkieDick schreef op woensdag 3 december 2025 @ 09:18:
Zo gisteren ook de 2800 binnen gekregen en mooi aan de slag gegaan. Paar van de Docker-containers werken als een zonnetje na migratie van de Raspberry Pi4 naar de 2800. Na downshutten boel op pi de volumes gekopieerd naar de 2800. Pihole werkt keurig en mijn vaultwarden, maar uiteraard de belangrijkste die over moet niet. HomeAssistant lijkt na kopiëren van alles heel veel dingen niet (meer) te kunnen. Integraties die niet meer werken of geladen kunnen worden. Dus die is voorlopig even weer terug naar de pi. En dan maar kijken waar het probleem zit en/of waarom ie de integraties niet kan laden. En ja, ik gebruik een ander image.

Vraag: zijn er meer die zo'n migratie hebben uitgevoerd?
nog niet.

Ik denk dat ik mijn HA(draait nu nog HASSOS in virtualbox op een NUCje) opnieuw ga opbouwen/inrichten in een dockercontrainer, zodra mijn ugreen binnen is (en ik snap hoe docker werkt :henk )

  • RonJ
  • Registratie: December 2009
  • Laatst online: 00:07
Ik draai juist HA(OS) als enige in een VM ipv een container zodat ik op HAOS kan blijven. Dat is toch de main branch waar het meest op getest wordt, blijven je add-ons gewoon werken (want die draaien in een andere container binnen HAOS) en alles blijft dan gewoon one-click updatable vanuit HA.

Had wel grote moeite met de backup&restore in HA (kwam van native HAOS op een pi naar nu een VM). Elke keer gefaald met een unknown error. Uiteindelijk na tig pogingen eerst HAOS "geactiveerd", daarna alle HASS.io add-ons weer handmatig geïnstalleerd, daarna de add-ons uit de backup kunnen restoren en daarna pas de data & settings. Toen werkte het pas weer.

[ Voor 3% gewijzigd door RonJ op 03-12-2025 09:40 ]

All-electric.


  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 18-12 14:20
breew schreef op woensdag 3 december 2025 @ 09:31:
[...]

nog niet.

Ik denk dat ik mijn HA(draait nu nog HASSOS in virtualbox op een NUCje) opnieuw ga opbouwen/inrichten in een dockercontrainer, zodra mijn ugreen binnen is (en ik snap hoe docker werkt :henk )
Aha. Ja, ik had de complete volumes gekopieerd van pi naar NAS maar ergens schijnt ie het eea toch niet leuk te vinden (al dan niet onder water). Een volgend probleem waar ik tegen aan loop maar niet nas-gerelateerd is dat ik niet kan verbinden met ip-adres:8123, zowel op pi als NAS. Maar via nginx (en een URL) kan ik 'gewoon' de HA benaderen (op de pi dan nu, want daar de instelling maar weer teruggezet naar die op de pi). Overigens kreeg ik nginx in docker container ook (nog) niet werkend op 2800. Dus ook die voorlopig op de pi.

Update: na wat gepuzzel lukte het toch met poort 8123 op de HA in te loggen op de NAS en toen zag het er wel goed uit. Denk dat door die koppeling met nginx er onder water wellicht iets in de cache zat. Dus vervolgens downgebracht op de pi en de config-dir weer gekopieerd en wederom opgestart en nu lijkt het goed.
Dit was toch wel 1 van de belangrijkste (zo niet de belangrijkste) om van de pi af te krijgen. Maar wie weet stap ik in de toekomst ook af van HA in Docker.

Update 2: Denk dat mijn HA-problemen kwamen door een verkeerd image. Toen ie mekkerde over de pi-image en amd64 moest hebben pakte ik een amd64 maar zie nu dat ie 2 jaar oud was. Dat verklaart dan wel veel. Via andere repository (zelfde als voor pi) had ik inmiddels de 'goede'.

[ Voor 30% gewijzigd door DikkieDick op 03-12-2025 12:00 ]

aka pluim003


  • breew
  • Registratie: April 2014
  • Laatst online: 23:39
RonJ schreef op woensdag 3 december 2025 @ 09:39:
Ik draai juist HA(OS) als enige in een VM ipv een container zodat ik op HAOS kan blijven. Dat is toch de main branch waar het meest op getest wordt, blijven je add-ons gewoon werken (want die draaien in een andere container binnen HAOS) en alles blijft dan gewoon one-click updatable vanuit HA.

Had wel grote moeite met de backup&restore in HA (kwam van native HAOS op een pi naar nu een VM). Elke keer gefaald met een unknown error. Uiteindelijk na tig pogingen eerst HAOS "geactiveerd", daarna alle HASS.io add-ons weer handmatig geïnstalleerd, daarna de add-ons uit de backup kunnen restoren en daarna pas de data & settings. Toen werkte het pas weer.
Ik denk dat ik ook voor de HASSOS in een VM ga. Dan kan je (denk ik) ook makkelijk(er) add-ons installeren (als music assistant die hier vele gebruikt wordt).
Restoren uit de back-up van HA is inderdaad een crime... ik moest laatst restoren vanaf backups op de commandline interface (CLI) van de VM (virtualbox), en dat heeft wel een halve dag (en heel wat zweet) gekost voordat ik door had welke commando's (en wachtwoorden) ik daarvoor nodig had. Want blijkbaar heeft iemand ergens ineens besloten dat alle backups encrypted moeten worden (is ook niet uit te zetten).

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 18-12 14:20
RonJ schreef op woensdag 3 december 2025 @ 09:39:
Ik draai juist HA(OS) als enige in een VM ipv een container zodat ik op HAOS kan blijven. Dat is toch de main branch waar het meest op getest wordt, blijven je add-ons gewoon werken (want die draaien in een andere container binnen HAOS) en alles blijft dan gewoon one-click updatable vanuit HA.

Had wel grote moeite met de backup&restore in HA (kwam van native HAOS op een pi naar nu een VM). Elke keer gefaald met een unknown error. Uiteindelijk na tig pogingen eerst HAOS "geactiveerd", daarna alle HASS.io add-ons weer handmatig geïnstalleerd, daarna de add-ons uit de backup kunnen restoren en daarna pas de data & settings. Toen werkte het pas weer.
Wellicht is dat ook nog een keer een optie om te doen. Nou ja, als ik wat meer tijd heb duik ik hier eens in. Het draait nu weer en dat vind ik het voornaamste voorlopig. En nu ff de NAS vullen met alle data. :-)

aka pluim003


  • Rammz
  • Registratie: Januari 2019
  • Laatst online: 20:06
Ik was juist verbaasd hoe makkelijk ik de VM HAOS gemigreerd had van mijn Synology naar Ugreen. VM installeren, cloud backup terugzetten en klaar, alles draaide zoals voorheen. Wellicht omdat HA op de Synology ook al in een VM draaide, maar het stelde iig niks voor.

  • Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

Hier toevallig mensen die naar TrueNAS zijn gegaan voor ZFS? Hoe zijn de ervaringen?

In mijn 4-bay 4800 gebruik ik momenteel 2x EXT4 in Raid 1 (Mirroring) met het idee beter beschermd te zijn tegen bitrot, maar dat werkt natuurlijk niet - worst case mirrort hij vrolijk de bitrot.

Ik wil dus eigenlijk naar een checksumming FS, zoals ZFS of BTRFS, om bitrot te detecteren en zo nodig te repareren. Binnen UGREEN OS lijkt BTRFS de enige optie te zijn, UGREEN heeft ook aangegeven dat ZFS op dit moment niet op de timeline staat.

Nu lees is her en der dat de stabilliteit / betrouwbaarheid van BTRFS - specifiek in combinatie met RAID - wat ter discussie staat. Is dat valide of zijn dat oude comments?

Het alternatief is overstappen op TrueNAS met ZFS, wat prima te doen is - kost gewoon tijd om alle data weer over te pompen.

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Raid van BTFRS is nog steeds niet stabiel betrouwbaar en zal dat waarschijnlijk ook nooit worden.
Dat is de reden waarom niemand dat gebruikt.
Dus ook Ugos niet, die gebruikt bovenop het filesysteem (Ext 4 of Btrfs) dus gewoon good old mdadm net als Synology.

En persoonlijk zie ik TrueNas gebruiken enkel omdat het op ZFS werkt niet als een valide argument, zoveel verschil met Btrfs is er niet.

Zfs en Btrfs zijn Cow filesystems, maar zelfs Ext4 gebruikt checksumming dus niet alleen die Cow systems doen dat.

Een waterdichte bescherming tegen bitrot bestaat niet, ook niet bij Cow file systems.
De beste bescherming tegen bitrot is de firmware van je disken die dan aan het filesystem signaleren dat er iets mis is (omdat hun interne checksum dat kan constateren) en als je dan een raid systeem gebruikt kan er recovered worden.
Met de moderne Nas disken in combinatie met een Raidset en regelmatig scrubben heb je op geen enkel filesystem last van bitrot.
Tijdens het scrubben wordt alle data gelezen en kan de disk zelf een interne checksum fout constateren.

[ Voor 5% gewijzigd door Ben(V) op 03-12-2025 12:52 ]

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

@Ben(V) RAID1 heeft geen parity - wat me bij BTRFS / ZFS bracht, waarbij ZFS de betere keuze lijkt. Als ik dat in RAID 1 doe heb ik een 2e kopie van de data en checksums op de data - dus kan het systeem uitsluiten welke data "juist" is. Zonder de checksums kan een RAID1 ook besluiten dat de corrupte data juist is, of mis ik hier iets?

Moet zeggen dat ik geen weet heb van eventuele checks in de firmware van de HDD, het zijn WD Red Pro schijven.

EXT4 checksums zitten alleen op de metadata, dacht ik - niet op de file data.

[ Voor 11% gewijzigd door Steef op 03-12-2025 13:11 ]

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Raid1:
Klopt wat je zegt over Raid 1, maar wat ik zeg is dat je op de disk firmware kunt vertrouwen en ook bij een
Raid 1 systeem zal de disk dan aangeven niet meer betrouwbaar te zijn en weet je OS welke disk niet betrouwbaar is en kan recoveren.
Maar het klopt dat Raid 5 veel beter daarin is welk filesysteem je ook gebruikt.

Firmware disken:
De firmware van een disk schrijft voor elk diskblok ook een checksum weg op de disk en die wordt door die firmware gecontroleerd tijdens het lezen en zal bij afwijkingen dat melden aan het OS.

Metadata:
De filesystem meta data van de files.
Dat is wat anders, dan wat jij denkt vermoed ik(chatgpt zeker?).

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

Ben(V) schreef op woensdag 3 december 2025 @ 13:20:
Raid1:
Klopt wat je zegt over Raid 1, maar wat ik zeg is dat je op de disk firmware kunt vertrouwen en ook bij een
Raid 1 systeem zal de disk dan aangeven niet meer betrouwbaar te zijn en weet je OS welke disk niet betrouwbaar is en kan recoveren.
Maar het klopt dat Raid 5 veel beter daarin is welk filesysteem je ook gebruikt.

Firmware disken:
De firmware van een disk schrijft voor elk diskblok ook een checksum weg op de disk en die wordt door die firmware gecontroleerd tijdens het lezen en zal bij afwijkingen dat melden aan het OS.

Metadata:
De filesystem meta data van de files.
Dat is wat anders, dan wat jij denkt vermoed ik(chatgpt zeker?).
Allright, dus feitelijk doet de hard drive firmware al waar ik naar op zoek ben. HDD firmware geeft aan dat de data niet bij zijn checksum past, meld het OS dat die data op die specifieke schijf niet goed meer is - met die informatie kan het OS de "goede" data van de andere schijf in de RAID 1 halen - klopt zover?

Betreffende de metadata - zover ik kan vinden (geen ChatGPT, gewoon google :P ) schrijft EXT4 geen checksum weg op de volledige data van een file. Alleen van de filesystem metadata (structuur van het FS):

https://archive.kernel.or...4_Metadata_Checksums.html
https://docs.kernel.org/filesystems/ext4/checksums.html

Maar zover ik je reactie begrijp levert de HDD firmware dus ook nog een block-level checksum check op de daadwerkelijke data - en is alles dus feitelijk gedekt?

Wat is dan de added value van ZFS / BTRFS?

Misschien moet ik maar gewoon een extra kopie ergens neer zetten, a la 1-2-3.

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Cow file systemen zijn zoals het woord al zeg Copy On Write.
Dus als je iets wijzigt aan een bestand zal de wijziging op een andere plek weggeschreven worden en de oude data blijft gewoon bestaan.
Ook blijft de data consistent gedurende het schrijven omdat eerst de nieuwe data ergens anders weggeschreven wordt voordat de pointer naar de oude data weggehaald wordt.
Dit is eigenlijk typisch gedrag van een database dat op een filesysteem wordt toegpast.

Maar aangezien in het gebruik bestanden maar zelden gewijzigd worden is dat relatief niet zo nuttig.

Waar COW filesystemen wel handig voor zijn is dat je makkelijk een snapshot van de data kunt maken.

En die meta data checksum zijn checksums op onder andere de iNodes van het ext4 bestand en dat zijn dus de datablokken waar de file uit bestaat.

[ Voor 10% gewijzigd door Ben(V) op 03-12-2025 15:02 ]

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 18-12 14:20
Greatsword schreef op woensdag 1 oktober 2025 @ 15:36:
[...]


Nee kan niet, dan heb je twee M.2's nodig.
Duidelijk. Ik zat idd ook te dubben en stuitte hierop omdat ik ook de cache wilde activeren en hij mekkerde dat ik een leeg volume (of lege schijf) voor nodig had.
Voor nu verbaas ik me toch over de mogelijkheden/snelheid. Nou ja, nu was mijn vorige NAS ook 1 uit 2009 of zo. :-)
Via de UGreen-app muziek streamen als ik niet thuis ben lijkt verbazingwekkend snel te gaan. Qua geheugen met nu 5 draaiende Dockercontainers gaat het ook goed. Van de 8 (hij zegt 7,5) GB zijn er maar 2 in gebruik.

aka pluim003


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Ssd's inzetten voor cache is niet erg zinvol in een Nas.
Dat is eigenlijk alleen nuttig voor grote databases.

Je kunt beter investeren in voldoende geheugen, als daar voldoende van aanwezig is zal linux die als cache gaan gebruiken en geheugen is veel sneller dan een ssd.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • breew
  • Registratie: April 2014
  • Laatst online: 23:39
Ben(V) schreef op donderdag 4 december 2025 @ 09:22:
Ssd's inzetten voor cache is niet erg zinvol in een Nas.
Dat is eigenlijk alleen nuttig voor grote databases.

Je kunt beter investeren in voldoende geheugen, als daar voldoende van aanwezig is zal linux die als cache gaan gebruiken en geheugen is veel sneller dan een ssd.
Duidelijk. Dus cache is eigenlijk enkel interessant als je met veel simultane users aan (veel) kleine bestandjes zit te werken, of juist met grote databases werkt?
Wat zou jij adviseren als je 2 M2 SSD's in je NAS hebt zitten, waar je VM en docker containers op draait. RAID0 of RAID1? Backup van de docker-containers en VM kan natuurlijk altijd naar de HDD storage pool, dus is RAID1 op de SSD pool dan nog nuttig?
(ik ben beginner in nas/raid land).

  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Raid 0 is nutteloos.
Raid 1 gebruik je om je data te beschermen tegen uitval van een disk.
ssd's zou ik persoonlijk nooit gebruiken in een Nas, ook hier is voldoende geheugen veel beter.
Linux laat namelijk applicaties die je afsluit gewoon in memory staan zolang er voldoende van is, waardoor ze heel snel weer opstarten als je ze nodig hebt.

Als je ervoor zorgt dat de applicaties binnen een container hun data naar Raid storage schrijven en je netjes backups maakt van je containers dan hebben die containers geen Raid nodig.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • robert357000
  • Registratie: Juli 2024
  • Laatst online: 17-12 21:07
CarpeVentum schreef op maandag 29 september 2025 @ 07:03:
@outlandos
Ik heb deze ram gekocht bij Amazon. uitvoering: Corsair Vengeance CMSX32GX5M1A4800C40

Amazon had ook nog €10 korting en 64,90 was een mooie prijs voor 32gb!
De prijzen nu zijn bizar... Maar vraagje wordt die 32GB wel aangesproken? of is het wat hij daadwerkelijk max gebruikt beperkt tot de 16GB?

  • Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

Ben(V) schreef op donderdag 4 december 2025 @ 09:22:
Ssd's inzetten voor cache is niet erg zinvol in een Nas.
Dat is eigenlijk alleen nuttig voor grote databases.

Je kunt beter investeren in voldoende geheugen, als daar voldoende van aanwezig is zal linux die als cache gaan gebruiken en geheugen is veel sneller dan een ssd.
Ik gebruik de nas ook als media streamer, hij lijkt toch behoorlijk wat van de muziek te cachen op de ssd. Cache use is ~100 Gb (meer dan in geheugen zou passen), hitrate is iets van 25% momenteel.

....als ik de OS stats mag geloven.

Dank voor de toelichting op raid, dan blijf ik bij mijn ext4 mirror en maak ik een off-site backup aan.

[ Voor 9% gewijzigd door Steef op 04-12-2025 14:30 ]

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Wat hij in de cache zit is van geen enkel belang, het systeem laat altijd zoveel mogelijk in de cache zitten als er ruimte is.
En als je bepaalde nummers een paar keer afspeelt schiet die hitrate omhoog, maar die zou bij een kleinere cache ineens veel hoger zijn.
Als je een cache hebt waar een nummer in past en je speelt dat nummer twee keer af dan heb je een 100% hitrate.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • upje
  • Registratie: April 2001
  • Laatst online: 18:32
Ik loop met docker tegen een probleem aan met meerder volumes. Ik wil voor een Plex container een shared folder op volume1 mounten, en een shared volume op volume2. Bijvoorbeeld:
* /volume1/Media/TV
* /volume2/Archive

In de docker GUI kan je shared folder selecteren, dus in bovenstaande voorbeeld selecteer ik Media/TV & Archief (zonder volume1 of 2 ervoor). Volume1 lukt prima, maar volume2 mislukt.

Het wijzigen van de container mislukt dan "Failed to edit container Plex. Error: UpdateContainer fail container name 'Plex': target volume mntPath /volume2/Archive not Found'

Iemand een idee hoe dit op te lossen is? Het is volgens mij geen permissie issue, dus wat dan wel?

[ Voor 3% gewijzigd door upje op 04-12-2025 16:02 ]


  • CarpeVentum
  • Registratie: November 2010
  • Laatst online: 20:53
upje schreef op donderdag 4 december 2025 @ 15:59:
Ik loop met docker tegen een probleem aan met meerder volumes. Ik wil voor een Plex container een shared folder op volume1 mounten, en een shared volume op volume2. Bijvoorbeeld:
* /volume1/Media/TV
* /volume2/Archive

In de docker GUI kan je shared folder selecteren, dus in bovenstaande voorbeeld selecteer ik Media/TV & Archief (zonder volume1 of 2 ervoor).

Het wijzigen van de container mislukt dan "Failed to edit container Plex. Error: UpdateContainer fail container name 'Plex': target volume mntPath /volume2/Archive not Found'

Iemand een idee hoe dit op te lossen is? Het is volgens mij geen permissie issue, dus wat dan wel?
Dit klinkt wederom als het mappen van paden in je docker configuratie. Is meerdere malen besproken in het topic. Zoek even op 'Docker' en 'Volume' in het topic. Dan zie je al snel dat je in je docker compose extra regels moet toevoegen om meerdere paden te binden/mounten wil Plex ze kunnen zien.

[ Voor 9% gewijzigd door CarpeVentum op 04-12-2025 16:04 ]


  • upje
  • Registratie: April 2001
  • Laatst online: 18:32
Ja dat begrijp ik; ik heb al een aantal dockers draaien met sommige meerdere mappen, maar dit is nou net de uitzondering omdat de ene folder op volume1 staat, en een andere op volume2. Dat lijkt de docker manager van Ugreen niet te snappen, terwijl dat wel zou moeten kunnen lijkt me.

Misschien is dit een beperking van de GUI, mag/kan dit alleen met een compose file?

[ Voor 13% gewijzigd door upje op 04-12-2025 16:08 ]


  • Dagarkin
  • Registratie: December 2020
  • Laatst online: 00:24
upje schreef op donderdag 4 december 2025 @ 16:06:
Ja dat begrijp ik; ik heb al een aantal dockers draaien met sommige meerdere mappen, maar dit is nou net de uitzondering omdat de ene folder op volume1 staat, en een andere op volume2. Dat lijkt de docker manager van Ugreen niet te snappen, terwijl dat wel zou moeten kunnen lijkt me.

Misschien is dit een beperking van de GUI, mag/kan dit alleen met een compose file?
Snel ff gekeken via chatGPT Chatgpt

De gui lijkt het idd niet te ondersteunen, werk zelf voornamelijk via portainer met stacks(docker composables), dan heb je sowieso bovenstaand probleem niet.

Via ssh kan je alsnog die docker aanmaken met de goede mounts en dan moet het ook werken.

  • upje
  • Registratie: April 2001
  • Laatst online: 18:32
Bedankt voor de hulp @Dagarkin Weet je nog dat ik zei dat het geen permissie issue was? Dat was het dus toch wel, op een of andere manier was de shared folder read-only geworden. Setup kan dus wel via de docker GUI, en in Plex wordt de shared folder op volume2 nu toch getoond.

Je bent een rund als je met docker stunt ;)

  • barellron
  • Registratie: April 2012
  • Laatst online: 23:34
upje schreef op donderdag 4 december 2025 @ 15:59:
Ik loop met docker tegen een probleem aan met meerder volumes. Ik wil voor een Plex container een shared folder op volume1 mounten, en een shared volume op volume2. Bijvoorbeeld:
* /volume1/Media/TV
* /volume2/Archive

In de docker GUI kan je shared folder selecteren, dus in bovenstaande voorbeeld selecteer ik Media/TV & Archief (zonder volume1 of 2 ervoor). Volume1 lukt prima, maar volume2 mislukt.

Het wijzigen van de container mislukt dan "Failed to edit container Plex. Error: UpdateContainer fail container name 'Plex': target volume mntPath /volume2/Archive not Found'

Iemand een idee hoe dit op te lossen is? Het is volgens mij geen permissie issue, dus wat dan wel?
Ik heb gewoon dit staan in mijn compose:
code:
1
2
3
4
5
volumes:
      - /volume2/appdata/plex:/config
      - /volume1/series:/tv
      - /volume1/movies:/movies
      - /volume1/videos:/videos


Ook als ik via GUI container aanmaak, kan ik shared folders kiezen van beide volume's.

Dit loopt gewoon en werkt goed. Bestaat Archive wel?

[ Voor 4% gewijzigd door barellron op 04-12-2025 20:09 ]

Pagina: 1 ... 7 8 Laatste