Ik heb nu een DS723+ die ik gunstig kwijt kan, en wil deze vervangen voor een DXP2800.
Voornaamste redenen zijn meer performance voor enkele VM's als Home-Assistant, en hardwarematige transcoding voor Plex.
Het enige waar ik nog een antwoord op zoek: Ik maak nu backups naar Synology C2 storage waar ik zeer tevreden over ben. Wat voor opties heb je daartoe binnen de Nasync software? Welke BaaS providers gebruiken jullie en zijn jullie daar tevreden over?
Steam: Brainfrz82 | PSN: Brainfrz | Discord: Brainfrz
Het hangt af van hoeveel storage je voor je backup nodig hebt, maar het is misschien het overwegen waard om jouw Synology op dezelfde wijze in te zetten vs. maandelijks/jaarlijks te betalen voor een externe cloud.
Een raadsel voor een lekker speciaal biertje o.i.d., plaats je antwoord in mijn profielreacties: 2447202 (Hint: startpunt)
Dat zijn precies de 2 opties die ik nou net niet wildaniel360gt schreef op vrijdag 5 december 2025 @ 09:38:
Ik maak een encrypted backup naar Google drive maar enkel omdat ik daar achterlijk veel storage beschikbaar heb. Uiteindelijk ga ik mijn oude Synology bij mijn ouders neerzetten regel ik via die weg de backup.
Het hangt af van hoeveel storage je voor je backup nodig hebt, maar het is misschien het overwegen waard om jouw Synology op dezelfde wijze in te zetten vs. maandelijks/jaarlijks te betalen voor een externe cloud.
Ik heb ongeveer 500GB aan data die ik wil backuppen met voldoende retentie. De data wijzigt niet veel (+- 10GB per week), en groeit met 1GB per week, maar ik wil dat hij immutable is en alleen veranderingen meeneemt (op file-niveau, block niveau is niet nodig).
Ik wil ook geen anderen opzadelen met mijn NAS in huis en daar dan alsnog actief beheer op voeren. Ik vind het niet erg om te betalen voor de dienst als deze goed werkt. De kosten moeten wel vooraf bekend zijn (dus niet als AWS met kosten per API call, up/download, enzovoort)
Steam: Brainfrz82 | PSN: Brainfrz | Discord: Brainfrz
Gebruik nu Sync & Backup en een externe oude Synology via RSYNC als vervanger.
Oh, duplicati ken ik, die heb ik in het verleden jaren gebruikt icm een webdav storage. Dat kan wel een goede optie zijn inderdaad.RonJ schreef op vrijdag 5 december 2025 @ 10:09:
Met duplicati kan je vrijwel elke cloud storage dienst gebruiken. Denk aan wasabi of backblaze. Ik ga zelf denk ik toch voor google drive omdat deze het minste kost voor 2TB.
Dit zijn de standaard opties:
[Afbeelding]
Steam: Brainfrz82 | PSN: Brainfrz | Discord: Brainfrz
Ik krijg het volume voor geen enkele mogelijkheid unmount, waardoor de repair niet wil werken want moet geunmount zijn. Elk proces stoppen, werkt ook niet want die komen steeds terug.
Uiteindelijk geprobeerd om te booten via Ventoy en dan SystemRescue te starten om zo een btrfs check -- repair uit te voeren. Maar dan krijg ik weer en andere fout.
Idee iemand?
Day lijkt allemaal te werken als bedoeld, althans: op het lokale netwerk.
Nu wil ik natuurlijk ook film/serie/muziek kunnen kijken buitenshuis, en daarvoor ben ik op zoek naar een oplossing.
Mijn huidige oplossing is een wireguiard VPN verbinding met het fritzbox modem/router in de meterkast. Met passepartout als client op de iphone kan ik dan rechtstreeks verbinding leggen met jellyfin... werkt top.
Echter, ik heb op het netwerk ook andere servers (en shares) draaien die "openbaar" zijn op het LAN. Ik wik nite dat 'mensen van buitenaf' daar bij kunnen (bijvoorbeeld mijn moeder), en dan lopen rotzooien. Uiteraard zijn de shares/servers user/pass protected.. maar ik heb liever dat ze ze uberhaupt niet kunnen zien.
Ik heb behalve de fritzbox (7590) geen extra firewall draaien.
Eigenlijk zoek ik een oplossing om van buitenaf, op een vpn-achtige wijze, een verbinding te kunnen n aken met het LAN, maar dan de interne servers user-based beschikbaar te maken. (slaat dat ergens op?)
Volgens mij 'moet' ik dan als oplossing in de richting van tailscale denken...toch?
Of als je open poorten geen issue vindt, wireguard container.
Alles went behalve een Twent.
nggyu nglyd
Gebruik zelf traefik container icm eigen domain naam via cloudflare.breew schreef op zaterdag 6 december 2025 @ 11:51:
zo.. inmiddels draaien de eerste twee docker containers; portainer en jellyfin.
Day lijkt allemaal te werken als bedoeld, althans: op het lokale netwerk.
Nu wil ik natuurlijk ook film/serie/muziek kunnen kijken buitenshuis, en daarvoor ben ik op zoek naar een oplossing.
Mijn huidige oplossing is een wireguiard VPN verbinding met het fritzbox modem/router in de meterkast. Met passepartout als client op de iphone kan ik dan rechtstreeks verbinding leggen met jellyfin... werkt top.
Echter, ik heb op het netwerk ook andere servers (en shares) draaien die "openbaar" zijn op het LAN. Ik wik nite dat 'mensen van buitenaf' daar bij kunnen (bijvoorbeeld mijn moeder), en dan lopen rotzooien. Uiteraard zijn de shares/servers user/pass protected.. maar ik heb liever dat ze ze uberhaupt niet kunnen zien.
Ik heb behalve de fritzbox (7590) geen extra firewall draaien.
Eigenlijk zoek ik een oplossing om van buitenaf, op een vpn-achtige wijze, een verbinding te kunnen n aken met het LAN, maar dan de interne servers user-based beschikbaar te maken. (slaat dat ergens op?)
Volgens mij 'moet' ik dan als oplossing in de richting van tailscale denken...toch?
Dan kan ik de containers die ik open stel bereiken op jellyfin.eigendomein.nl
Werkt perfect. Lokaal heb ik via de router adguard. Welke een dns rewrite doet op dit domein, waardoor ik lokaal alle containers kan bereiken op containernaam.eigendomein.nl.
Een ander voordeel is dat ik nu overal geldige ssl heb en hierdoor altijd https kan gebruiken.
Je kunt ook gewoon UgreenLink gebruiken in combinatie met gebruikersrechten, dan kun je alles voor die gebruikers afschermen. (zo kun je de porno voor je moeder verborgen houdenbreew schreef op zaterdag 6 december 2025 @ 11:51:
Echter, ik heb op het netwerk ook andere servers (en shares) draaien die "openbaar" zijn op het LAN. Ik wik nite dat 'mensen van buitenaf' daar bij kunnen (bijvoorbeeld mijn moeder), en dan lopen rotzooien. Uiteraard zijn de shares/servers user/pass protected.. maar ik heb liever dat ze ze uberhaupt niet kunnen zien.
Ik heb behalve de fritzbox (7590) geen extra firewall draaien.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik heb een beetje gemengde gevoelens over de ugreenlink.. die heb ik meteen uitgezet.Ben(V) schreef op zaterdag 6 december 2025 @ 13:33:
[...]
Je kunt ook gewoon UgreenLink gebruiken in combinatie met gebruikersrechten, dan kun je alles voor die gebruikers afschermen. (zo kun je de porno voor je moeder verborgen houden)
Om één of andere reden voelt het niet fijn om via een directe URL via elke willekeurige browser toegang te kunnen krijgen tot de NAS. En volgens mij loopt die link dan toch ook via de eigen (Chinese?) servers van UGreen? hmmmmm (jaja.. ik weet het, waarom je druk maken daarover als je zelf die Chinese NAS hebt gekocht met custom (closed) kernel ;-) ).
Porno staat hier niet op de NAS trouwens. Veel te gevaarlijk met al die pubers hier in huis. Ze zoeken hun eigen porno maar (zo naïef ban ik dan ook weer niet ;-) )
Aangezien in een docker-n00b ben, was/is eea me niet duidelijk.
In ene hoop standaard tutorials wordt in een compose file de UIG/GID van een user met admin privileges gebruikt. Dat lijkt me een security-issue, toch? Want mogelijk kan de container (indien gecompromitteerd) dan uitbreken en allerlei andere nare zaken doen op het systeem.
Checkvraag: Klopt dat?
Ik heb nu, bijvoorbeeld voor de jellyfin-docker-container, een user 'jellyfin' aangemaakt, en deze lid gemaakt van de group 'docker-users'. Deze user heeft enkel read/write access op de folder van zijn eigen docker-container (config files etc..), en op de media-folder (ik wilde eigenlijk read-only optie hierop, maar dan lukt denk ik de metadata en subtitle download niet goed.. toch?).
Na inloggen met ssh (kan enkel met admin account) en dan het commando
id jellyfin
vraag 1:
Klopt mijn denkwijze een beetje, of sla ik de plank mbt docker (of security) helemaal mis nu?
vraag 2:
mis ik nog iets? (jaja, veel te algemeen, i know)
jellyfin stack
services:
jellyfin:
image: jellyfin/jellyfin:latest
container_name: Jellyfin-HT
# user: 1000:10 # oud
user: 1000:1000 #user=jellyfin : group = docker-users
group_add:
- 105
environment:
TZ: Europe/Amsterdam
volumes:
- /volume1/docker/jellyfinht/config:/config:rw
- /volume1/docker/jellyfinht/cache:/cache:rw
- /volume1/docker/jellyfinht/logs:/logs:rw
- /volume2/media/:/media:rw
devices:
- /dev/dri/renderD128:/dev/dri/renderD128
- /dev/dri/card0:/dev/dri/card0
- /dev/dri:/dev/dri
# restart: on-failure:5
restart: unless-stopped
network_mode: hosten op de ugreen staan de premissies als volgt
Bevalt prima, zeer noob vreindelijk. Ik gebruik het voornamelijk als backup en voor het streamen van series en films die op de hdd staan. Daarvoor gebruik ik gewoon de theater app van ugreen zelf. Werkt goed genog voor mij. Misschien dat ik emby gaat proberen, jellyfin installeren is voor mij even te moeilijk....
We are all accidents waiting to happen
@breew je hebt gelijk voor wat betreft de user met admin privileges. Vaak wordt dat gedaan vanwege de eenvoud; Max rechten geven = minste issues die gerelateerd zouden kunnen zijn met permissions. Als je bewust een user (aanmaakt en) gebruikt die in zo min mogelijk linux groups zitten en die zelf zo min mogelijk rechten krijgt, dan zit je qua gedachten op het juiste spoor.
wil een Toyota Supra mkIV!!!!! | wil een Yamaha YZF-R{1,6} | wil stiekem ook een Ducati
"Security is just a state of mind"
PSN: scorpie | Diablo 3: scorpie#2470
Klopt, ik zou dan alleen 1 "mediauser" oid username maken voor jellyfin en evt. gerelateerde *arr/nzb/torrent containers. Of zorg iig dat evt. aparte users dan in dezelfde groep zitten. Maar dat is weer lastiger omdat je dan de toegangsrechten niet in de GUI van UGOS kan regelen (die doet alleen permissies voor users, geen groepen). Dan moet je dat dus via SSH/CLI regelen.breew schreef op maandag 8 december 2025 @ 10:58:
Even een vraagje over docker containers op de ugreen.
Aangezien in een docker-n00b ben, was/is eea me niet duidelijk.
In ene hoop standaard tutorials wordt in een compose file de UIG/GID van een user met admin privileges gebruikt. Dat lijkt me een security-issue, toch? Want mogelijk kan de container (indien gecompromitteerd) dan uitbreken en allerlei andere nare zaken doen op het systeem.
Checkvraag: Klopt dat?
Ik heb nu, bijvoorbeeld voor de jellyfin-docker-container, een user 'jellyfin' aangemaakt, en deze lid gemaakt van de group 'docker-users'. Deze user heeft enkel read/write access op de folder van zijn eigen docker-container (config files etc..), en op de media-folder (ik wilde eigenlijk read-only optie hierop, maar dan lukt denk ik de metadata en subtitle download niet goed.. toch?).
Na inloggen met ssh (kan enkel met admin account) en dan het commandokrijg ik dan de gegevens die ik in de compose file van jellyfin kan gebruiken.id jellyfin
vraag 1:
Klopt mijn denkwijze een beetje, of sla ik de plank mbt docker (of security) helemaal mis nu?
vraag 2:
mis ik nog iets? (jaja, veel te algemeen, i know)
jellyfin stack
services: jellyfin: image: jellyfin/jellyfin:latest container_name: Jellyfin-HT # user: 1000:10 # oud user: 1000:1000 #user=jellyfin : group = docker-users group_add: - 105 environment: TZ: Europe/Amsterdam volumes: - /volume1/docker/jellyfinht/config:/config:rw - /volume1/docker/jellyfinht/cache:/cache:rw - /volume1/docker/jellyfinht/logs:/logs:rw - /volume2/media/:/media:rw devices: - /dev/dri/renderD128:/dev/dri/renderD128 - /dev/dri/card0:/dev/dri/card0 - /dev/dri:/dev/dri # restart: on-failure:5 restart: unless-stopped network_mode: host
en op de ugreen staan de premissies als volgt
[Afbeelding]
Ik zie dit overigens vooral als een reëel issue als je enige services op je nas open aan het internet hangt.
All-electric.
Ik heb hier nginx/php draaien in een Docker container die onder mijn user draait. Da's geen strak plan dus?RonJ schreef op maandag 8 december 2025 @ 11:36:
[...]
Klopt, ik zou dan alleen 1 "mediauser" oid username maken voor jellyfin en evt. gerelateerde *arr/nzb/torrent containers. Of zorg iig dat evt. aparte users dan in dezelfde groep zitten. Maar dat is weer lastiger omdat je dan de toegangsrechten niet in de GUI van UGOS kan regelen (die doet alleen permissies voor users, geen groepen). Dan moet je dat dus via SSH/CLI regelen.
Ik zie dit overigens vooral als een reëel issue als je enige services op je nas open aan het internet hangt.
Groepsrechten kan je via de GUI opgeven, toch?RonJ schreef op maandag 8 december 2025 @ 11:36:
[...]
Klopt, ik zou dan alleen 1 "mediauser" oid username maken voor jellyfin en evt. gerelateerde *arr/nzb/torrent containers. Of zorg iig dat evt. aparte users dan in dezelfde groep zitten. Maar dat is weer lastiger omdat je dan de toegangsrechten niet in de GUI van UGOS kan regelen (die doet alleen permissies voor users, geen groepen). Dan moet je dat dus via SSH/CLI regelen.
Ik zie dit overigens vooral als een reëel issue als je enige services op je nas open aan het internet hangt.
onder je main/admin user? nee niet echt nee.posttoast schreef op maandag 8 december 2025 @ 11:45:
[...]
Ik heb hier nginx/php draaien in een Docker container die onder mijn user draait. Da's geen strak plan dus?
All-electric.
Waar loop je tegen aan met Jellyfin?RA7 schreef op maandag 8 december 2025 @ 11:23:
Sinds kort een DXP2800 gekocht, met 2x 4TB Iron Wolf en 2x 2TB Samsung 990Pro SSD.
Bevalt prima, zeer noob vreindelijk. Ik gebruik het voornamelijk als backup en voor het streamen van series en films die op de hdd staan. Daarvoor gebruik ik gewoon de theater app van ugreen zelf. Werkt goed genog voor mij. Misschien dat ik emby gaat proberen, jellyfin installeren is voor mij even te moeilijk....
Er is sinds kort een Jellyfin topic https://gathering.tweakers.net/forum/list_messages/2314428
Als je de container niet in privileged mode hebt draaien, dan zou ik mij geen zorgen maken.posttoast schreef op maandag 8 december 2025 @ 11:45:
[...]
Ik heb hier nginx/php draaien in een Docker container die onder mijn user draait. Da's geen strak plan dus?
Hoe zit je qua energieverbruik nu?Taro schreef op vrijdag 21 november 2025 @ 19:52:
Ik denk erover een Synology NAS, Windows NAS, Raspberry Pi 5 en Intel NUC te vervangen door een UGreen DXP480T met om te starten 2x 4TB Samsung 990 Pro.
3 vragen:Edit: Inmiddels besteld met 2x SSD, benieuwd
- Weet iemand wat een gemiddeld stroomverbruik van de DXP480T is? De TDP van de CPU is volgens mij 15-55 Watt.
- Kan ik er later makkelijk een 3e en 4e SSD bij plaatsen om die op te nemen in een RAID array? Of moet ik er eigenlijk direct 4 plaatsen?
- Past de SSD versie mét heatsink ook? Neem aan van wel?
Ik heb een 5-bay Synology, die trekt gemiddeld 45W maar op zich zie ik een upgrade naar full SSD ook wel zitten
De DXP480T Plus heeft een verbruik van 22-25 Watt incl.:Bananeman schreef op maandag 8 december 2025 @ 18:56:
[...]
Hoe zit je qua energieverbruik nu?
Ik heb een 5-bay Synology, die trekt gemiddeld 45W maar op zich zie ik een upgrade naar full SSD ook wel zitten
- 4x Samsung 990 Pro 4 TB NVME
- 2x16 GB Crucial RAM
Netjes denk ik
iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV
Dank voor de info, zeer netjes idd! Nog iets lager dan ik had verwacht ook.Taro schreef op maandag 8 december 2025 @ 19:30:
[...]
De DXP480T Plus heeft een verbruik van 22-25 Watt incl.:En o.a. PiHole, Teslamate en aantal andere Dockers draaien.
- 4x Samsung 990 Pro 4 TB NVME
- 2x16 GB Crucial RAM
Netjes denk ik
[Afbeelding]
Ik heb een bluetooth dongle, deze vind ik wel lsusb commando.
Bus 003 Device 003: ID 2357:0604 TP-Link TP-Link UB500 Adapter.
Alleen in Home Assistant (geinstalleerd via docker) krijg ik de melding:
Failed setup, will retry: hci0 (E0:D3:62:D7:15:B3): hci0 (E0:D3:62:D7:15:B3): Failed to start Bluetooth: [org.freedesktop.DBus.Error.ServiceUnknown] The name org.bluez was not provided by any .service files; Try power cycling the Bluetooth hardware.
Dit lijkt erop dat BlueZ mist. Alleen ik weet niet goed hoe ik BlueZ op de UGREEN NAS OS installeer. Een apt-get install werkt (vrij logisch gezien) niet...
Mijn docker compose yml is opzich vrij voor de handliggend;
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
| services:
homeassistant:
image: homeassistant/home-assistant
container_name: Home-Assistant
mem_limit: 8g
cpu_shares: 768
security_opt:
- no-new-privileges:true
healthcheck:
test: curl -f http://localhost:8123/ || exit 1
network_mode: host
privileged: true
volumes:
- /volume2/docker/homeassistant:/config:rw
- /run/dbus:/run/dbus:ro
environment:
TZ: Europe/Amsterdam
restart: on-failure:5 |
[ Voor 5% gewijzigd door Chip. op 08-12-2025 22:16 ]
Die van mij wordt morgen geleverd, eerste NAS - wel zonder de SSDRA7 schreef op maandag 8 december 2025 @ 11:23:
Sinds kort een DXP2800 gekocht, met 2x 4TB Iron Wolf en 2x 2TB Samsung 990Pro SSD.
Bevalt prima, zeer noob vreindelijk. Ik gebruik het voornamelijk als backup en voor het streamen van series en films die op de hdd staan. Daarvoor gebruik ik gewoon de theater app van ugreen zelf. Werkt goed genog voor mij. Misschien dat ik emby gaat proberen, jellyfin installeren is voor mij even te moeilijk....
Was mooie deal op amazon, 498 EUR voor betaald
Mijn bedoeling is RAID1 doen met de twee HDD + externe backup nog
Misschien domme vraag maar: welke meerwaarde leveren de SSD nog? Puur extra ruimte?
Mijn gebruik is voor opslag en backups, geen streaming - eventueel beveiligingscamera naar de toekomst toe
Wel enorm veel zin ermee aan de slag te gaan en alle mogelijkheden te leren kennen
Ik gebruik het meer als netwerkschijf dus mijn noden zijn redelijk eenvoudig.
Nu nog even kijken of de gigabitsnelheid te benaderen is met een erg groot bestand, met foto's en PDF's was het sowieso wat trager aan 45 MB/s maar dat is te verwachten.
Mis je niet de drivers voor BlueZ? Dat zeg je zelf al, check https://www.reddit.com/r/...bluez_for_home_assistant/ pak van https://pkgs.org/download/bluez de juiste debian package.Chip. schreef op maandag 8 december 2025 @ 22:11:
Weet iemand hoe je BlueZ installeert op UGREEN NAS OS? Ik probeer mijn bluetooth dongle werkend te krijgen op de UGREEN NAS, zodat Home Assistant (die in een docker draait) hem kan gebruiken.
Ik heb een bluetooth dongle, deze vind ik wel lsusb commando.
Bus 003 Device 003: ID 2357:0604 TP-Link TP-Link UB500 Adapter.
Alleen in Home Assistant (geinstalleerd via docker) krijg ik de melding:
Failed setup, will retry: hci0 (E0:D3:62:D7:15:B3): hci0 (E0:D3:62:D7:15:B3): Failed to start Bluetooth: [org.freedesktop.DBus.Error.ServiceUnknown] The name org.bluez was not provided by any .service files; Try power cycling the Bluetooth hardware.
Dit lijkt erop dat BlueZ mist. Alleen ik weet niet goed hoe ik BlueZ op de UGREEN NAS OS installeer. Een apt-get install werkt (vrij logisch gezien) niet...
Mijn docker compose yml is opzich vrij voor de handliggend;
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18services: homeassistant: image: homeassistant/home-assistant container_name: Home-Assistant mem_limit: 8g cpu_shares: 768 security_opt: - no-new-privileges:true healthcheck: test: curl -f http://localhost:8123/ || exit 1 network_mode: host privileged: true volumes: - /volume2/docker/homeassistant:/config:rw - /run/dbus:/run/dbus:ro environment: TZ: Europe/Amsterdam restart: on-failure:5
Daarnaast lees ik her en der iets over dat USB passtrough naar een docker container nog niet werkt op ugos, misschien weet iemand anders hier meer over
[ Voor 8% gewijzigd door ProfaNe op 09-12-2025 10:03 ]
Zou dan evt. door kwaadwillenden of concurrentie kunnen worden misbruikt vermoed ik. Maar goed, dat komt de veiligheid uiteindelijk wel ten goede.Dagarkin schreef op donderdag 11 december 2025 @ 08:59:
Ter info via Ugreen support kan je een iso aanvragen voor hun os. Wat ze vragen is je type en je serial number. Ik heb nog wel de vraag open, waarom ze deze niet via hun website aanbieden.
iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV
Denk om te voor komen dat mensen met hun eigen hardware het OS gaan installeren en zo "gratis" mee leunen op UGREEN. terwijl een ander OS als unraid waar ze voor moeten betalen..Dagarkin schreef op donderdag 11 december 2025 @ 08:59:
Ter info via Ugreen support kan je een iso aanvragen voor hun os. Wat ze vragen is je type en je serial number. Ik heb nog wel de vraag open, waarom ze deze niet via hun website aanbieden.
Owner of DBIT Consultancy | DJ BassBrewer
Dat kan prima met een n100.DennusB schreef op vrijdag 12 december 2025 @ 09:00:
Ik zit te denken aan het kopen van een DXP4800 (niet de plus versie) ter vervanging van m'n Synology. Daar zit een N100 CPU in, kan ik met deze NAS video's (4k/1080p) via Plex transcoden of moet ik dan echt de plus hebben?
Taro schreef op donderdag 11 december 2025 @ 19:29:
[...]
Zou dan evt. door kwaadwillenden of concurrentie kunnen worden misbruikt vermoed ik. Maar goed, dat komt de veiligheid uiteindelijk wel ten goede.
Nu officieel reactie. Het is zegt idd weinig, maar goed ik ben blij dat ze wel de iso zelf geven.gert_jan schreef op donderdag 11 december 2025 @ 20:32:
[...]
Denk om te voor komen dat mensen met hun eigen hardware het OS gaan installeren en zo "gratis" mee leunen op UGREEN. terwijl een ander OS als unraid waar ze voor moeten betalen..
Ik heb zelf de iso voor mezelf wel op meerdere plekken gezet. Ik heb een 2800xp en de iso is zelf 1.67 GB
Because it involves technical issues such as different devices and servers in different regions, we are currently unable to release the ISO public availability.
Thank you for your support and understanding.😊️
Is dat een ISO specifiek voor jouw versie, of mogelijk ook voor andere versies en onafhankelijk van de hardware? Of onbekend?Dagarkin schreef op vrijdag 12 december 2025 @ 11:51:
[...]
[...]
Nu officieel reactie. Het is zegt idd weinig, maar goed ik ben blij dat ze wel de iso zelf geven.
Ik heb zelf de iso voor mezelf wel op meerdere plekken gezet. Ik heb een 2800xp en de iso is zelf 1.67 GB
[...]
iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV
Kan me niet voorstellen dat ze een hardware onafhankelijke ISO kunnen maken, dan zou er volledige "HAL" in de bios moeten zitten.
En dan zou het bijna onmogelijk zijn om iets als TrueNas te installeren.
[ Voor 16% gewijzigd door Ben(V) op 12-12-2025 16:30 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Denk dat ze een specieke img maken met je eigen serie nummer.Taro schreef op vrijdag 12 december 2025 @ 15:20:
[...]
Is dat een ISO specifiek voor jouw versie, of mogelijk ook voor andere versies en onafhankelijk van de hardware? Of onbekend?
Zag dit tenminste op reddit voorbij komen, dan is het opsich wel logisch waarom je geen iso van hun site kan downloaden.
Would be a bad idea to share that. They store not only the serial but also an authentication key in that ISO which is tied to your system.
4K transcode met een N100, ik vraag het me af. Zal best wel iets kunnen, maar valt en staat denk ik wel met het source -> destination. Ik denk dat die er toch wel veel moeite mee zal hebben.
Intel’s met QSV (zoals de N95/N100/N150) zijn juist enorm goed in hardware transcoding. De iGPU kan 4K content (HEVC) hardwarematig transcoden, meerdere streams tegelijk zelfs. Mediaservers worden juist vaak uitgekozen op Intel QSV.g00gle schreef op zondag 14 december 2025 @ 00:20:
[...]
4K transcode met een N100, ik vraag het me af. Zal best wel iets kunnen, maar valt en staat denk ik wel met het source -> destination. Ik denk dat die er toch wel veel moeite mee zal hebben.
Ik gebruik de ssd voornamelijk voor het streamen van video en audio.Jensdm schreef op dinsdag 9 december 2025 @ 09:02:
[...]
Die van mij wordt morgen geleverd, eerste NAS - wel zonder de SSD
Was mooie deal op amazon, 498 EUR voor betaald
Mijn bedoeling is RAID1 doen met de twee HDD + externe backup nog
Misschien domme vraag maar: welke meerwaarde leveren de SSD nog? Puur extra ruimte?
Mijn gebruik is voor opslag en backups, geen streaming - eventueel beveiligingscamera naar de toekomst toe
Wel enorm veel zin ermee aan de slag te gaan en alle mogelijkheden te leren kennen
Heb jij ook de DPX2800? want dan is 498 EUR wel vrij duur, ik had de mijne voor 279 EUR.
We are all accidents waiting to happen
Dat valt nog zat mee, vanaf een 4k blue-ray rip naar 1080P high quality in Plex kan met zo'n 3 streams tegelijk.g00gle schreef op zondag 14 december 2025 @ 00:20:
[...]
4K transcode met een N100, ik vraag het me af. Zal best wel iets kunnen, maar valt en staat denk ik wel met het source -> destination. Ik denk dat die er toch wel veel moeite mee zal hebben.
Steam: Brainfrz82 | PSN: Brainfrz | Discord: Brainfrz
Ik was wat onduidelijk: Inclusief 2x Seagate Ironwolf 4TB gerekend. Apart was die ook 279 EURRA7 schreef op zondag 14 december 2025 @ 11:40:
[...]
Ik gebruik de ssd voornamelijk voor het streamen van video en audio.
Heb jij ook de DPX2800? want dan is 498 EUR wel vrij duur, ik had de mijne voor 279 EUR.
Duidelijk, voor mij niet opportuun dan.
Gisteren eerste stappen gezet, mappenstructuur en foto opslag van de iphone alvast in orde. Nu de rest nog.
Succes dus. Wel irritant: de NAS blijft maar piepen tijdens stroomuitval, best luid. Ik heb de instellingen nagelopen, maar zo te zien kan je niet instellen dat je geen piep wil.
Het is dan ook niet de bedoeling dat UPS er voor zorgt dat je NAS blijft draaien afaik.upje schreef op maandag 15 december 2025 @ 18:48:
Vandaag heeft de Ugreen UPS zijn werk gedaan. De hele wijk zat zonder stroom. De UPS heeft gedurende 5 kwartier de stroom geleverd aan mijn nas, een DXP2800. Nadat de stroom weer terugkwam, stond de UPS op 55%. Het lijkt er dus op dat de UPS gedurende ongeveer 2-2,5 uur de stroom kan overnemen.
Succes dus. Wel irritant: de NAS blijft maar piepen tijdens stroomuitval, best luid. Ik heb de instellingen nagelopen, maar zo te zien kan je niet instellen dat je geen piep wil.
De bedoeling van een UPS is zodat je gecontroleerd kunt afsluiten.
Vandaar dat die ook hele tijd blijft piepen.
Het piepen heeft geen enkel nut, de NAS gaat sowieso netjes worden afgesloten zodra dat echt nodig is. Bovendien kan je de NAS niet meer handmatig afsluiten, je hebt immers geen werkend ander apparaat meer om dat mee te kunnen doen, want stroomuitval.
Laptop met een via USB gevoedde switch?upje schreef op maandag 15 december 2025 @ 21:43:
Beide varianten zijn instelbaar. Of meteen afsluiten bij stroomuitval, of eerst verder draaien op de UPS. Ik heb voor de laatste optie gekozen. Als je daarvoor kiest dan wordt de NAS alsnog afgesloten zodra de accu lading 15% bereikt.
Het piepen heeft geen enkel nut, de NAS gaat sowieso netjes worden afgesloten zodra dat echt nodig is. Bovendien kan je de NAS niet meer handmatig afsluiten, je hebt immers geen werkend ander apparaat meer om dat mee te kunnen doen, want stroomuitval.
Of een switch ook aan de UPS?
[ Voor 4% gewijzigd door RonJ op 16-12-2025 08:08 ]
All-electric.
Eerlijk zou ik voor de plus gaan gewoon dat klein beetje meer haal je er echt wel uit in de toekomst.DennusB schreef op vrijdag 12 december 2025 @ 09:00:
Ik zit te denken aan het kopen van een DXP4800 (niet de plus versie) ter vervanging van m'n Synology. Daar zit een N100 CPU in, kan ik met deze NAS video's (4k/1080p) via Plex transcoden of moet ik dan echt de plus hebben?
Anders zou ik voor de 4300 gaan die werkt net zo goed. De DXP4800 is een beetje in het wal en het schip als je het mij vraagt.
De Ugreen app blijft open, wifi verbinding is in orde, background refresh op iphone staat aan, ...
Tips?
Ik heb net de eaton ups aangesloten, werkt gelijk via de gui van de dxp2800.upje schreef op maandag 15 december 2025 @ 18:48:
Vandaag heeft de Ugreen UPS zijn werk gedaan. De hele wijk zat zonder stroom. De UPS heeft gedurende 5 kwartier de stroom geleverd aan mijn nas, een DXP2800. Nadat de stroom weer terugkwam, stond de UPS op 55%. Het lijkt er dus op dat de UPS gedurende ongeveer 2-2,5 uur de stroom kan overnemen.
Succes dus. Wel irritant: de NAS blijft maar piepen tijdens stroomuitval, best luid. Ik heb de instellingen nagelopen, maar zo te zien kan je niet instellen dat je geen piep wil.
Gelijk getest en gaat goed, bij mij piept de dxp2800 niet, maar de Eaton. Met ssh naar de nas kun je dat uitschakelen. (upscmd -u nut -p nut ups0 beeper.disable)
Robert Elsinga =8-) | IT security, Scouting, zendamateur (PC5E, WC5E) | www.elsinga.net/robert, www.pc5e.nl
https://ryansouthgate.com/systemd-timer/
[ Voor 28% gewijzigd door Ben(V) op 19-12-2025 09:20 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik draai versie 1.11.0.0053
Ik wil het dus aanpakken zoals UGreen het wil. Maar hoe is dat?
Mijn usecase is dat ik op /volume1/data een directory "Video" heb. Ik wil een gebruiker "media" maken die alleen tot die directory toegang heeft (en dan ook nog eens read only). Mijn eerste stap is het aanmaken van die gebruiker geweest, daarna heb ik een nieuwe share gemaakt die in /volume1/ komt te staan. Daarna leek het mij logisch om daar een symlink te plaatsen naar /volume1/data/video, maar... dat werkt dus niet. De symlink is niet zichtbaar voor die gebruiker (en ja, ik heb die gebruiker leesrechten gegeven op /volume1/data/video).
Voorheen zou ik dan aan mijn smb.conf deze regel toevoegen:
1
| follow symlinks = yes |
Maar... ik wil dus niet direct die config bestanden aanpassen, met het risico dat ze na een aanpassing in de GUI weer weg zijn.
Iemand een idee? Waarschijnlijk ben ik veel te ingewikkeld aan het doen
Je kunt toch simpelweg op die folder "Video" die gebruiker "media" enkel daar rechten geven.
Of nog simpeler een shared folder genaamd "Video" gebruiken.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik hoef niet persé zelf te prutsen, maar ik weet dus niet hoe ik dit vanuit de GUI voor elkaar krijg.Ben(V) schreef op zaterdag 20 december 2025 @ 15:04:
Waarom wil je zelf met smb shares gaan prutsen en niet de GUI gebruiken.
Je kunt toch simpelweg op die folder "Video" die gebruiker "media" enkel daar rechten geven.
Of nog simpeler een shared folder genaamd "Video" gebruiken.
Ik heb nu de gebruiker "mediashare" rechten gegeven op de "Video" folder:
/f/image/WRROgHA1iXNSmCBhx3MdW1Nc.png?f=fotoalbum_large)
Maar, "Video" is een subdirectory van de shared directory "Data":
/f/image/4eMzOlOKdmdoGAaKJt0FYMVA.png?f=fotoalbum_large)
Hoe moet ik dit aanpakken? Ik kan natuurlijk "Video" verplaatsen, maar het voelt wat suf dat ik geen subdirectory kan delen.
Je kun de overige subfolders van "Data" dan op "Access Denied" zetten voor deze gebruiker.
En als je ook files in "Data" zet dan die ook op "Access Denied" zetten.
Maar zoals ik al zei is het veel simpeler in dit geval gewoon een eigen shared folder voor "Video" te gebruiken.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
1
2
3
4
5
6
| [Video] path = /volume1/data/Video read only = yes browsable = yes public = no valid users = mediashare |
Op dat moment staat de Video-share gewoon beschikbaar voor de mediashare user. Ik had een beetje het idee dat dat hier hetzelfde zou werken, maar dat is kennelijk niet het geval. Ik heb me er bij neergelegd en de directory maar gewoon verplaatst inderdaad
Vanuit dit Github project ben ik aan de slag gegaan om Claude Code te installeren op m'n NAS.
Claude Code heeft me door de hele installatie geloodst, tot en met eigen domeinnaam en Traefik tunnels aan toe. Heb 'm zelfs een docker container laten maken die media files van SSD volume naar HDD volume schuift na xx dagen. Claude Code leest files, vraagt toestemming voor bash commands en update files, start en stopt docker containers, ... alles.
Moet nu alleen de services zelf nog verder configureren, maar dit was echt bizar om mee te maken. Ben totaal geen docker expert, en weet op zich m'n weg in de terminal, dus dit was best een ideale manier om te doen. Enige wat nog niet gelukt was was Gluetun en VPN tunnel voor downloads, maar dat gaat vast ook lukken als ik dat zou willen.
Owner of DBIT Consultancy | DJ BassBrewer
Veel meer standaard functionaliteit en docker werkt prima onder UGOS.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Nou ja het voordeel van Unraid is volgens mij dat je er schijven met verschillende groottes in kan mixen, ik zet eerst 2x 3TB in de Ugreen, na de migratie komen er nog 2 4TB schijven bij uit de Syno. Dus ik denk dat ik in UGOS dan niet 1 pool kan maken?Ben(V) schreef op maandag 22 december 2025 @ 13:00:
Persoonlijk zou ik gewoon UGOS erop laten staan.
Veel meer standaard functionaliteit en docker werkt prima onder UGOS.
Owner of DBIT Consultancy | DJ BassBrewer
Wat Uraid en ook Synology doen is van die overgebleven 2x 1TB weer een raid 1 set van 1TB netto maken en die samen met de 4x 3TB raid 5 in een jbod plaatsen.
Dat geeft minder verliezen, maar of je daar blij mee moet zijn is maar de vraag.
Jbod is eigenlijk altijd een slecht idee.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Krijg de Wireguard Docker wel up and running, maar kan vanaf buitenaf geen connectie maken, ondanks forwarden UDP poort 51820. Iemand dit al voor elkaar gekregen?
iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV
https://www.reddit.com/r/...te_access_to_my_nas_with/
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
| version: "3.5" services: wgeasy: image: ghcr.io/wg-easy/wg-easy:15.1.0 container_name: wgeasy15 network_mode: "host" cap_add: - NET_ADMIN - SYS_MODULE volumes: - /volume1/docker/wgeasy15:/etc/wireguard - /lib/modules:/lib/modules:ro environment: - INSECURE=true - DISABLE_IPV6=true - WG_HOST=EXTERNIPHIER - WG_PORT=51820 - WG_DEFAULT_ADDRESS=10.8.0.x - WG_DEFAULT_DNS=192.168.1.AANVULLEN - WG_ALLOWED_IPS=192.168.1.0/24 restart: unless-stopped |
iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV
O.a., maar daar zitten wat zaken in die hier niet werkten, je moet o.a. port mapping etc. helemaal weglaten, dat kan alleen in bridge mode en dat werkt dus schijnbaar op de UGreen niet goed door een rechten issue.
iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
| boot: 2025/12/23 20:37:42 Starting tailscaled
boot: 2025/12/23 20:37:42 Waiting for tailscaled socket at /tmp/tailscaled.sock
TPM: successfully read all properties
2025/12/23 20:37:42 logtail started
2025/12/23 20:37:42 Program starting: v1.92.4-t5065307fb, Go 1.25.5: []string{"tailscaled", "--socket=/tmp/tailscaled.sock", "--statedir=/var/lib/tailscale", "--tun=userspace-networking"}
2025/12/23 20:37:42 LogID: 031cba390cf72439d57d6e7de98b52c8bc3ce2e0fb96bdbab751b6bf7c3671bd
2025/12/23 20:37:42 logpolicy: using system state directory "/var/lib/tailscale"
2025/12/23 20:37:42 dns: [rc=unknown ret=direct]
2025/12/23 20:37:42 dns: using "direct" mode
2025/12/23 20:37:42 dns: using *dns.directManager
2025/12/23 20:37:42 wgengine.NewUserspaceEngine(tun "userspace-networking") ...
2025/12/23 20:37:42 dns: inotify: NewDirWatcher: context canceled
2025/12/23 20:37:42 dns: using dns.noopManager
2025/12/23 20:37:42 link state: interfaces.State{defaultRoute=eth0 ifs={br-14f1ffe9516b:[172.24.0.1/16 llu6] br-550a7b2351fc:[172.23.0.1/16 llu6] br-b7d76503f103:[172.20.0.1/16 llu6] docker0:[172.17.0.1/16 llu6] eth0:[192.168.2.22/24 2a02:a46a:7c5c:0:5f78:19a9:e31a:8ae2/64 fd5a:5445:4547:0:d114:3b8b:717f:5823/64 llu6]} v4=true v6=true}
2025/12/23 20:37:42 magicsock: disco key = d:0c7e4c32c3c0d1e0
2025/12/23 20:37:42 Creating WireGuard device...
2025/12/23 20:37:42 Bringing WireGuard device up...
2025/12/23 20:37:42 Bringing router up...
2025/12/23 20:37:42 Clearing router settings...
2025/12/23 20:37:42 Starting network monitor...
2025/12/23 20:37:42 Engine created.
2025/12/23 20:37:42 pm: migrating "_daemon" profile to new format
2025/12/23 20:37:42 logpolicy: using system state directory "/var/lib/tailscale"
2025/12/23 20:37:42 got LocalBackend in 159ms
2025/12/23 20:37:42 Start
2025/12/23 20:37:42 ipnext: active extensions: relayserver, taildrop, portlist, posture, clientupdate
2025/12/23 20:37:42 Start: using new hardware attestation key: &{0x1db1f40 81038066756707983287055421119076440629977147164720200913687235394647376088938 91471511340014521549479581871127012850665481209335534924780847772929426424574}
2025/12/23 20:37:42 Start: updated prefs: Prefs{ra=false dns=true want=false loggedout=true routes=[] statefulFiltering=false nf=on update=check Persist=nil}, reason: [newKey]
2025/12/23 20:37:42 Backend: logs: be:031cba390cf72439d57d6e7de98b52c8bc3ce2e0fb96bdbab751b6bf7c3671bd fe:
2025/12/23 20:37:42 Switching ipn state NoState -> NeedsLogin (WantRunning=false, nm=false)
2025/12/23 20:37:42 blockEngineUpdates(true)
2025/12/23 20:37:42 wgengine: Reconfig: configuring userspace WireGuard config (with 0/0 peers)
2025/12/23 20:37:42 health(warnable=wantrunning-false): error: Tailscale is stopped.
2025/12/23 20:37:42 wgengine: Reconfig: configuring router
2025/12/23 20:37:42 wgengine: Reconfig: user dialer
2025/12/23 20:37:42 wgengine: Reconfig: configuring DNS
2025/12/23 20:37:42 dns: Set: {DefaultResolvers:[] Routes:{} SearchDomains:[] Hosts:0}
2025/12/23 20:37:42 dns: Resolvercfg: {Routes:{} Hosts:0 LocalDomains:[]}
2025/12/23 20:37:42 dns: OScfg: {}
boot: 2025/12/23 20:37:42 [warning] failed to symlink socket: file exists
To interact with the Tailscale CLI please use `tailscale --socket="/tmp/tailscaled.sock"`
boot: 2025/12/23 20:37:42 Running 'tailscale up'
192.168.2.22/24 has non-address bits set; expected 192.168.2.0/24
boot: 2025/12/23 20:37:42 Sending SIGTERM to tailscaled
boot: 2025/12/23 20:37:42 failed to auth tailscale: failed to auth tailscale: tailscale up failed: exit status 1
2025/12/23 20:37:42 tailscaled got signal terminated; shutting down
2025/12/23 20:37:42 control: client.Shutdown ...
2025/12/23 20:37:42 control: updateRoutine: exiting
2025/12/23 20:37:42 control: authRoutine: exiting
2025/12/23 20:37:42 control: mapRoutine: exiting
2025/12/23 20:37:42 control: Client.Shutdown done.
2025/12/23 20:37:42 ipnext: work queue shutdown failed: execqueue shut down |
Mijn compose
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
| version: '3.8'
services:
tailscale:
container_name: tailscale
image: tailscale/tailscale:latest
restart: always
volumes:
- /dev/net/tun:/dev/net/tun
- ./lib:/var/lib/tailscale
environment:
- TS_AUTHKEY=tskey-auth-...
- TS_STATE_DIR=/var/lib/tailscale
- TS_ROUTES=192.168.2.22/24
network_mode: host
privileged: true |
Ps. ik gebruik Tailscale zelf niet, dus weet niet wat er wordt verwacht, maar voor een route zou ik persoonlijk een IP-adres meer waarschijnlijk achten.
[ Voor 38% gewijzigd door Taro op 23-12-2025 22:33 ]
iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV
OhhhhhhTaro schreef op dinsdag 23 december 2025 @ 22:32:
@Chip. Klopt dit wel: TS_ROUTES=192.168.2.22/24 ? Ik zou daar OF een IP-adres verwachten: TS_ROUTES=192.168.2.22 OF een CIDR: TS_ROUTES=192.168.2.0/24 ipv beide gecombineerd.
Ps. ik gebruik Tailscale zelf niet, dus weet niet wat er wordt verwacht, maar voor een route zou ik persoonlijk een IP-adres meer waarschijnlijk achten.
Maar is de foutmelding ook weg?Chip. schreef op woensdag 24 december 2025 @ 02:07:
[...]
Ohhhhhhje moet dus een subnet aangeven en niet een IP, dacht dat je gewoon het IP adres van de NAS moest opgeven. En ik dacht dat /24 gewoon de poortnummer was o.i.d., waar tailscale mee communiceerde, en niet de subnetmask.
iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV
Heb een 2 tal vm's maar wil daar wel graag een backup van indien mogelijk
Je kunt snapshots maken, via Virtual Machine, maar moet je ze eerst wel even uitzetten/pauzeren.Dromer schreef op donderdag 25 december 2025 @ 09:33:
Weet iemand hoe je een vm backup maak die op de unas draait?
Heb een 2 tal vm's maar wil daar wel graag een backup van indien mogelijk
iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV
Ik zie dat mensen de M2 slots bevolken met een ‘disk’ die als snelle cache wordt gebruikt, maar zijn de 2 M2 slots ook te gebruiken voor bv. 2x 4TB disks in Raid 1 opstelling?
En als je alle slots bevolkt met 4 disks van gelijke grootte, zijn die dan in een mixed Raid 5 opstelling te configureren?
[ Voor 20% gewijzigd door schrikbeeld op 28-12-2025 22:53 ]
2 maal een raid 1 kan volgens mij wel.
:strip_exif()/f/image/ysBwBZT9zuJBsYvFHClsfnPM.jpg?f=fotoalbum_large)