Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO
Ik heb hiervoor al Portainer + Watchtower draaien, dan heb je daar ook geen omkijken naar. Maar wel mooi dat ze het nu standaard zelf ook ondersteunen, scheelt weer inrichten.Steef schreef op maandag 1 december 2025 @ 14:46:
[...]
Hier ook probleemloos binnen.
In de docker app is nu een "Management" tab, het lijkt er op dat je daar periodiek een update check voor je containers / images uit kunt laten voeren
[Afbeelding]
[ Voor 6% gewijzigd door Taro op 01-12-2025 14:49 ]
iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV
Ik geloof dat die niet native is, maar gewoon in docker draait.outlandos schreef op maandag 1 december 2025 @ 15:52:
Zelfs een update van de native Jellyfin app, werd wel tijd na 8 maanden zonder update... ben wel benieuwd naar welke versie van de Jellyfin server de update gaat. Kan dat pas checken waneer ik thuis ben.
Je bent beter af als je zelf jellyfin opzet via docker, denk ik.
Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO
Met native bedoelde ik native vanuit Ugreen. Maar voor de rest heb je wel gelijk hoor.Steef schreef op maandag 1 december 2025 @ 15:54:
[...]
Ik geloof dat die niet native is, maar gewoon in docker draait.
Je bent beter af als je zelf jellyfin opzet via docker, denk ik.
Nieuwe versie is trouwens nog steeds gewoon de oude 10.10.3
[ Voor 93% gewijzigd door br00ky op 02-12-2025 07:47 ]
aka pluim003
Dat is apart. Ik heb ook net de update uitgevoerd; ik zie een management tab, en daar wordt “data migration” getoond, maar “image update” wordt niet getoond. Ik heb trouwens een DXP2800.Steef schreef op maandag 1 december 2025 @ 14:46:
[...]
Hier ook probleemloos binnen.
In de docker app is nu een "Management" tab, het lijkt er op dat je daar periodiek een update check voor je containers / images uit kunt laten voeren
[Afbeelding]
Ik blokkeer elke inkomende en uitgaande verbinding van/naar China (en een heel zooi andere landen) via Unifi.TimDeAardappel schreef op dinsdag 2 december 2025 @ 08:32:
Ik heb zelf ook een DXP2800, welke (extra) instellingen gebruiken jullie als het gaat om security, aangezien het toch een aparaat uit azie is?
UGOS heb ik na aanschaf een kleine 2 weken getest. In de logs zag ik regelmatig dat er pogingen gedaan werden om verbinding te leggen naar China, zie ook youtube link in OP. Voor aanschaf had ik min of meer al besloten dat ik niet op UGOS zou blijven, ze zijn nog niet zo bewezen als Synology bijvoorbeeld. Ik draai nu TrueNAS op de SSD die in de 4800+ zit. Het kost je een paar dagen om je goed in te lezen maar kan het je aanraden. Hierna 0 verbindingen naar China.
Een raadsel voor een lekker speciaal biertje o.i.d., plaats je antwoord in mijn profielreacties: 2447202 (Hint: startpunt)
wil een Toyota Supra mkIV!!!!! | wil een Yamaha YZF-R{1,6} | wil stiekem ook een Ducati
"Security is just a state of mind"
PSN: scorpie | Diablo 3: scorpie#2470
Nee, hier werkt het allemaal nog gewoon...scorpie schreef op dinsdag 2 december 2025 @ 11:24:
Hebben meer mensen last van een niet meer werkende iOS app van UGreen na de update van de NAS? Ik kan maar niet inloggen. Heb remote met UGreen ID geprobeerd, via het lokale netwerk, heb m'n telefoon opnieuw opgestart, gekeken of er updates zijn.. niks.. Iemand nog een idee wat ik kan proberen? Zijn er security settings gewijzigd na de update die ik weer moet terugzetten? Bijv. dat je enkel via het web interface mag inloggen en niet meer via de mobiele app?
https://docs.syncthing.net/index.html#
https://mariushosting.com...thing-on-your-ugreen-nas/
Daarnaast gebruik ik het nu als sync tool tussen verschillende apparaten en de NAS met versioning actief.
Een raadsel voor een lekker speciaal biertje o.i.d., plaats je antwoord in mijn profielreacties: 2447202 (Hint: startpunt)
Op hun eigen website noemen ze wel ZFS features, dus ik vermoed dat het ooit onderdeel is geweest van de roadmap:
Maar in hun roadmap vind ik ZFS niet terug.Leveraging capabilities like ZFS virtual storage pools lets you flexibly grow capacity while optimizing drive configurations behind the scenes.
Misschien een mailtje naar hun support waard - anders misschien toch overstappen naar TrueNAS.
Ik zie dat BTRFS wel ondersteund is, en ook features als zfs-scrub heeft middels btrfs-scrub, maar btrfs is nog niet zo mature.
*edit*
Zo, dat was snel - reactie van UGREEN - voorlopig geen ZFS dus, lijkt het:
Thank you for contacting us. At the moment, our NAS products do not support ZFS. Although our development team is aware of user requests for ZFS features such as scrub and advanced data integrity mechanisms, we currently do not have a confirmed timeline for ZFS integration.
For now, Btrfs is provided as an alternative offering snapshot capabilities, data checksums, and other reliability features, and we continue to improve its performance and stability through future updates.
Your feedback is valuable to us, and we have forwarded your suggestion to our product team for further evaluation in future developments.
[ Voor 48% gewijzigd door Steef op 02-12-2025 16:38 ]
Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO
Zelf gebruik ik Resilio Sync, werkt ook als een speer. https://www.resilio.com/sync/daniel360gt schreef op dinsdag 2 december 2025 @ 15:17:
Nog even een tip over het verplaatsen van data. In verschillende posts zag ik vragen terug over het verplaatsen van data, van oude NAS (bv. Synology) naar Ugreen NAS. Er zijn al wat methodes genoemd maar wat voor mij uitstekend werkt is Syncthing. Syncthing is eenvoudig op te zetten met docker (UGOS / TrueNAS) en via Package Center binnen Synology.
https://docs.syncthing.net/index.html#
https://mariushosting.com...thing-on-your-ugreen-nas/
Daarnaast gebruik ik het nu als sync tool tussen verschillende apparaten en de NAS met versioning actief.
Gisteren de 4800+ bundle gekocht met de 5% extra korting,
vandaag besteld
2 samsung EVO 990 4TB (voor de dockers)
2 WD Red 16TB (voor de data)
Geheugen uitbreiden (indien nodig) ga ik doen als de prijzen niet zo achterlijk exponentieel meet stijgen...
In eerste instantie ga ik toch vooral HA, sonarr/nzbd en Jellyfin draaien. Dat moet op 8 GB ook wel lukken.
Eerst maar weer even salaris erbij krijgen eind deze maand
Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO
Even een update. Het lijkt dat de oorzaak iets op mijn laptop of de route intern via de Unify Cloud Gateway is, want vanaf buiten werkt alles zoals verwacht. Paniek voor niks dus wellicht. #pfieuw #zuchtelsinga schreef op maandag 1 december 2025 @ 08:17:
[...]
Dus ik moet nog even flink troubleshooten.... Ondertussen de port forward weer richting DS918+ en de websites en containers daar weer enabled. Maar dus niet blij...
Robert Elsinga =8-) | IT security, Scouting, zendamateur (PC5E, WC5E) | www.elsinga.net/robert, www.pc5e.nl
Support van Ugreen is wel proactief en ben ik al enige tijd over en weer mee aan het sturen.
Nu sturen ze mij dit:
"Please first replace the memory with the original factory Samsung 8GB RAM and see if the issue is resolved. If the problem persists, you will need to repair Volume1 via the command line.
Before repair, please:
Use lsof to check if any processes are accessing /volume1 and /home.
Use kill to stop those processes.
Unmount the directories: umount /volume1 and umount /home.
Execute the repair command:
btrfs check --repair /dev/mapper/ug_75D533_1749137545_pool1-volume1"
Ik denk nu niet dat het aan het geheugen ligt. Dus ik probeer de repair, echter moet ik dan eerst alle processen stopppen en het volume unmounten. Ik probeer dit via "kill" maar de processen komen steeds terug. Iemand enig idee? Ben geen Linux (Debian) expert. Zeker niet via cmd.
Vraag: zijn er meer die zo'n migratie hebben uitgevoerd?
aka pluim003
nog niet.DikkieDick schreef op woensdag 3 december 2025 @ 09:18:
Zo gisteren ook de 2800 binnen gekregen en mooi aan de slag gegaan. Paar van de Docker-containers werken als een zonnetje na migratie van de Raspberry Pi4 naar de 2800. Na downshutten boel op pi de volumes gekopieerd naar de 2800. Pihole werkt keurig en mijn vaultwarden, maar uiteraard de belangrijkste die over moet niet. HomeAssistant lijkt na kopiëren van alles heel veel dingen niet (meer) te kunnen. Integraties die niet meer werken of geladen kunnen worden. Dus die is voorlopig even weer terug naar de pi. En dan maar kijken waar het probleem zit en/of waarom ie de integraties niet kan laden. En ja, ik gebruik een ander image.
Vraag: zijn er meer die zo'n migratie hebben uitgevoerd?
Ik denk dat ik mijn HA(draait nu nog HASSOS in virtualbox op een NUCje) opnieuw ga opbouwen/inrichten in een dockercontrainer, zodra mijn ugreen binnen is (en ik snap hoe docker werkt
Had wel grote moeite met de backup&restore in HA (kwam van native HAOS op een pi naar nu een VM). Elke keer gefaald met een unknown error. Uiteindelijk na tig pogingen eerst HAOS "geactiveerd", daarna alle HASS.io add-ons weer handmatig geïnstalleerd, daarna de add-ons uit de backup kunnen restoren en daarna pas de data & settings. Toen werkte het pas weer.
[ Voor 3% gewijzigd door RonJ op 03-12-2025 09:40 ]
All-electric.
Aha. Ja, ik had de complete volumes gekopieerd van pi naar NAS maar ergens schijnt ie het eea toch niet leuk te vinden (al dan niet onder water). Een volgend probleem waar ik tegen aan loop maar niet nas-gerelateerd is dat ik niet kan verbinden met ip-adres:8123, zowel op pi als NAS. Maar via nginx (en een URL) kan ik 'gewoon' de HA benaderen (op de pi dan nu, want daar de instelling maar weer teruggezet naar die op de pi). Overigens kreeg ik nginx in docker container ook (nog) niet werkend op 2800. Dus ook die voorlopig op de pi.breew schreef op woensdag 3 december 2025 @ 09:31:
[...]
nog niet.
Ik denk dat ik mijn HA(draait nu nog HASSOS in virtualbox op een NUCje) opnieuw ga opbouwen/inrichten in een dockercontrainer, zodra mijn ugreen binnen is (en ik snap hoe docker werkt)
Update: na wat gepuzzel lukte het toch met poort 8123 op de HA in te loggen op de NAS en toen zag het er wel goed uit. Denk dat door die koppeling met nginx er onder water wellicht iets in de cache zat. Dus vervolgens downgebracht op de pi en de config-dir weer gekopieerd en wederom opgestart en nu lijkt het goed.
Dit was toch wel 1 van de belangrijkste (zo niet de belangrijkste) om van de pi af te krijgen. Maar wie weet stap ik in de toekomst ook af van HA in Docker.
Update 2: Denk dat mijn HA-problemen kwamen door een verkeerd image. Toen ie mekkerde over de pi-image en amd64 moest hebben pakte ik een amd64 maar zie nu dat ie 2 jaar oud was. Dat verklaart dan wel veel. Via andere repository (zelfde als voor pi) had ik inmiddels de 'goede'.
[ Voor 30% gewijzigd door DikkieDick op 03-12-2025 12:00 ]
aka pluim003
Ik denk dat ik ook voor de HASSOS in een VM ga. Dan kan je (denk ik) ook makkelijk(er) add-ons installeren (als music assistant die hier vele gebruikt wordt).RonJ schreef op woensdag 3 december 2025 @ 09:39:
Ik draai juist HA(OS) als enige in een VM ipv een container zodat ik op HAOS kan blijven. Dat is toch de main branch waar het meest op getest wordt, blijven je add-ons gewoon werken (want die draaien in een andere container binnen HAOS) en alles blijft dan gewoon one-click updatable vanuit HA.
Had wel grote moeite met de backup&restore in HA (kwam van native HAOS op een pi naar nu een VM). Elke keer gefaald met een unknown error. Uiteindelijk na tig pogingen eerst HAOS "geactiveerd", daarna alle HASS.io add-ons weer handmatig geïnstalleerd, daarna de add-ons uit de backup kunnen restoren en daarna pas de data & settings. Toen werkte het pas weer.
Restoren uit de back-up van HA is inderdaad een crime... ik moest laatst restoren vanaf backups op de commandline interface (CLI) van de VM (virtualbox), en dat heeft wel een halve dag (en heel wat zweet) gekost voordat ik door had welke commando's (en wachtwoorden) ik daarvoor nodig had. Want blijkbaar heeft iemand ergens ineens besloten dat alle backups encrypted moeten worden (is ook niet uit te zetten).
Wellicht is dat ook nog een keer een optie om te doen. Nou ja, als ik wat meer tijd heb duik ik hier eens in. Het draait nu weer en dat vind ik het voornaamste voorlopig. En nu ff de NAS vullen met alle data. :-)RonJ schreef op woensdag 3 december 2025 @ 09:39:
Ik draai juist HA(OS) als enige in een VM ipv een container zodat ik op HAOS kan blijven. Dat is toch de main branch waar het meest op getest wordt, blijven je add-ons gewoon werken (want die draaien in een andere container binnen HAOS) en alles blijft dan gewoon one-click updatable vanuit HA.
Had wel grote moeite met de backup&restore in HA (kwam van native HAOS op een pi naar nu een VM). Elke keer gefaald met een unknown error. Uiteindelijk na tig pogingen eerst HAOS "geactiveerd", daarna alle HASS.io add-ons weer handmatig geïnstalleerd, daarna de add-ons uit de backup kunnen restoren en daarna pas de data & settings. Toen werkte het pas weer.
aka pluim003
In mijn 4-bay 4800 gebruik ik momenteel 2x EXT4 in Raid 1 (Mirroring) met het idee beter beschermd te zijn tegen bitrot, maar dat werkt natuurlijk niet - worst case mirrort hij vrolijk de bitrot.
Ik wil dus eigenlijk naar een checksumming FS, zoals ZFS of BTRFS, om bitrot te detecteren en zo nodig te repareren. Binnen UGREEN OS lijkt BTRFS de enige optie te zijn, UGREEN heeft ook aangegeven dat ZFS op dit moment niet op de timeline staat.
Nu lees is her en der dat de stabilliteit / betrouwbaarheid van BTRFS - specifiek in combinatie met RAID - wat ter discussie staat. Is dat valide of zijn dat oude comments?
Het alternatief is overstappen op TrueNAS met ZFS, wat prima te doen is - kost gewoon tijd om alle data weer over te pompen.
Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO
Dat is de reden waarom niemand dat gebruikt.
Dus ook Ugos niet, die gebruikt bovenop het filesysteem (Ext 4 of Btrfs) dus gewoon good old mdadm net als Synology.
En persoonlijk zie ik TrueNas gebruiken enkel omdat het op ZFS werkt niet als een valide argument, zoveel verschil met Btrfs is er niet.
Zfs en Btrfs zijn Cow filesystems, maar zelfs Ext4 gebruikt checksumming dus niet alleen die Cow systems doen dat.
Een waterdichte bescherming tegen bitrot bestaat niet, ook niet bij Cow file systems.
De beste bescherming tegen bitrot is de firmware van je disken die dan aan het filesystem signaleren dat er iets mis is (omdat hun interne checksum dat kan constateren) en als je dan een raid systeem gebruikt kan er recovered worden.
Met de moderne Nas disken in combinatie met een Raidset en regelmatig scrubben heb je op geen enkel filesystem last van bitrot.
Tijdens het scrubben wordt alle data gelezen en kan de disk zelf een interne checksum fout constateren.
[ Voor 5% gewijzigd door Ben(V) op 03-12-2025 12:52 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Moet zeggen dat ik geen weet heb van eventuele checks in de firmware van de HDD, het zijn WD Red Pro schijven.
EXT4 checksums zitten alleen op de metadata, dacht ik - niet op de file data.
[ Voor 11% gewijzigd door Steef op 03-12-2025 13:11 ]
Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO
Klopt wat je zegt over Raid 1, maar wat ik zeg is dat je op de disk firmware kunt vertrouwen en ook bij een
Raid 1 systeem zal de disk dan aangeven niet meer betrouwbaar te zijn en weet je OS welke disk niet betrouwbaar is en kan recoveren.
Maar het klopt dat Raid 5 veel beter daarin is welk filesysteem je ook gebruikt.
Firmware disken:
De firmware van een disk schrijft voor elk diskblok ook een checksum weg op de disk en die wordt door die firmware gecontroleerd tijdens het lezen en zal bij afwijkingen dat melden aan het OS.
Metadata:
De filesystem meta data van de files.
Dat is wat anders, dan wat jij denkt vermoed ik(chatgpt zeker?).
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Allright, dus feitelijk doet de hard drive firmware al waar ik naar op zoek ben. HDD firmware geeft aan dat de data niet bij zijn checksum past, meld het OS dat die data op die specifieke schijf niet goed meer is - met die informatie kan het OS de "goede" data van de andere schijf in de RAID 1 halen - klopt zover?Ben(V) schreef op woensdag 3 december 2025 @ 13:20:
Raid1:
Klopt wat je zegt over Raid 1, maar wat ik zeg is dat je op de disk firmware kunt vertrouwen en ook bij een
Raid 1 systeem zal de disk dan aangeven niet meer betrouwbaar te zijn en weet je OS welke disk niet betrouwbaar is en kan recoveren.
Maar het klopt dat Raid 5 veel beter daarin is welk filesysteem je ook gebruikt.
Firmware disken:
De firmware van een disk schrijft voor elk diskblok ook een checksum weg op de disk en die wordt door die firmware gecontroleerd tijdens het lezen en zal bij afwijkingen dat melden aan het OS.
Metadata:
De filesystem meta data van de files.
Dat is wat anders, dan wat jij denkt vermoed ik(chatgpt zeker?).
Betreffende de metadata - zover ik kan vinden (geen ChatGPT, gewoon google
https://archive.kernel.or...4_Metadata_Checksums.html
https://docs.kernel.org/filesystems/ext4/checksums.html
Maar zover ik je reactie begrijp levert de HDD firmware dus ook nog een block-level checksum check op de daadwerkelijke data - en is alles dus feitelijk gedekt?
Wat is dan de added value van ZFS / BTRFS?
Misschien moet ik maar gewoon een extra kopie ergens neer zetten, a la 1-2-3.
Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO
Dus als je iets wijzigt aan een bestand zal de wijziging op een andere plek weggeschreven worden en de oude data blijft gewoon bestaan.
Ook blijft de data consistent gedurende het schrijven omdat eerst de nieuwe data ergens anders weggeschreven wordt voordat de pointer naar de oude data weggehaald wordt.
Dit is eigenlijk typisch gedrag van een database dat op een filesysteem wordt toegpast.
Maar aangezien in het gebruik bestanden maar zelden gewijzigd worden is dat relatief niet zo nuttig.
Waar COW filesystemen wel handig voor zijn is dat je makkelijk een snapshot van de data kunt maken.
En die meta data checksum zijn checksums op onder andere de iNodes van het ext4 bestand en dat zijn dus de datablokken waar de file uit bestaat.
[ Voor 10% gewijzigd door Ben(V) op 03-12-2025 15:02 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Duidelijk. Ik zat idd ook te dubben en stuitte hierop omdat ik ook de cache wilde activeren en hij mekkerde dat ik een leeg volume (of lege schijf) voor nodig had.Greatsword schreef op woensdag 1 oktober 2025 @ 15:36:
[...]
Nee kan niet, dan heb je twee M.2's nodig.
Voor nu verbaas ik me toch over de mogelijkheden/snelheid. Nou ja, nu was mijn vorige NAS ook 1 uit 2009 of zo. :-)
Via de UGreen-app muziek streamen als ik niet thuis ben lijkt verbazingwekkend snel te gaan. Qua geheugen met nu 5 draaiende Dockercontainers gaat het ook goed. Van de 8 (hij zegt 7,5) GB zijn er maar 2 in gebruik.
aka pluim003
Dat is eigenlijk alleen nuttig voor grote databases.
Je kunt beter investeren in voldoende geheugen, als daar voldoende van aanwezig is zal linux die als cache gaan gebruiken en geheugen is veel sneller dan een ssd.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Duidelijk. Dus cache is eigenlijk enkel interessant als je met veel simultane users aan (veel) kleine bestandjes zit te werken, of juist met grote databases werkt?Ben(V) schreef op donderdag 4 december 2025 @ 09:22:
Ssd's inzetten voor cache is niet erg zinvol in een Nas.
Dat is eigenlijk alleen nuttig voor grote databases.
Je kunt beter investeren in voldoende geheugen, als daar voldoende van aanwezig is zal linux die als cache gaan gebruiken en geheugen is veel sneller dan een ssd.
Wat zou jij adviseren als je 2 M2 SSD's in je NAS hebt zitten, waar je VM en docker containers op draait. RAID0 of RAID1? Backup van de docker-containers en VM kan natuurlijk altijd naar de HDD storage pool, dus is RAID1 op de SSD pool dan nog nuttig?
(ik ben beginner in nas/raid land).
Raid 1 gebruik je om je data te beschermen tegen uitval van een disk.
ssd's zou ik persoonlijk nooit gebruiken in een Nas, ook hier is voldoende geheugen veel beter.
Linux laat namelijk applicaties die je afsluit gewoon in memory staan zolang er voldoende van is, waardoor ze heel snel weer opstarten als je ze nodig hebt.
Als je ervoor zorgt dat de applicaties binnen een container hun data naar Raid storage schrijven en je netjes backups maakt van je containers dan hebben die containers geen Raid nodig.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
De prijzen nu zijn bizar... Maar vraagje wordt die 32GB wel aangesproken? of is het wat hij daadwerkelijk max gebruikt beperkt tot de 16GB?CarpeVentum schreef op maandag 29 september 2025 @ 07:03:
@outlandos
Ik heb deze ram gekocht bij Amazon. uitvoering: Corsair Vengeance CMSX32GX5M1A4800C40
Amazon had ook nog €10 korting en 64,90 was een mooie prijs voor 32gb!
Ik gebruik de nas ook als media streamer, hij lijkt toch behoorlijk wat van de muziek te cachen op de ssd. Cache use is ~100 Gb (meer dan in geheugen zou passen), hitrate is iets van 25% momenteel.Ben(V) schreef op donderdag 4 december 2025 @ 09:22:
Ssd's inzetten voor cache is niet erg zinvol in een Nas.
Dat is eigenlijk alleen nuttig voor grote databases.
Je kunt beter investeren in voldoende geheugen, als daar voldoende van aanwezig is zal linux die als cache gaan gebruiken en geheugen is veel sneller dan een ssd.
....als ik de OS stats mag geloven.
Dank voor de toelichting op raid, dan blijf ik bij mijn ext4 mirror en maak ik een off-site backup aan.
[ Voor 9% gewijzigd door Steef op 04-12-2025 14:30 ]
Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO
En als je bepaalde nummers een paar keer afspeelt schiet die hitrate omhoog, maar die zou bij een kleinere cache ineens veel hoger zijn.
Als je een cache hebt waar een nummer in past en je speelt dat nummer twee keer af dan heb je een 100% hitrate.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
* /volume1/Media/TV
* /volume2/Archive
In de docker GUI kan je shared folder selecteren, dus in bovenstaande voorbeeld selecteer ik Media/TV & Archief (zonder volume1 of 2 ervoor). Volume1 lukt prima, maar volume2 mislukt.
Het wijzigen van de container mislukt dan "Failed to edit container Plex. Error: UpdateContainer fail container name 'Plex': target volume mntPath /volume2/Archive not Found'
Iemand een idee hoe dit op te lossen is? Het is volgens mij geen permissie issue, dus wat dan wel?
[ Voor 3% gewijzigd door upje op 04-12-2025 16:02 ]
Dit klinkt wederom als het mappen van paden in je docker configuratie. Is meerdere malen besproken in het topic. Zoek even op 'Docker' en 'Volume' in het topic. Dan zie je al snel dat je in je docker compose extra regels moet toevoegen om meerdere paden te binden/mounten wil Plex ze kunnen zien.upje schreef op donderdag 4 december 2025 @ 15:59:
Ik loop met docker tegen een probleem aan met meerder volumes. Ik wil voor een Plex container een shared folder op volume1 mounten, en een shared volume op volume2. Bijvoorbeeld:
* /volume1/Media/TV
* /volume2/Archive
In de docker GUI kan je shared folder selecteren, dus in bovenstaande voorbeeld selecteer ik Media/TV & Archief (zonder volume1 of 2 ervoor).
Het wijzigen van de container mislukt dan "Failed to edit container Plex. Error: UpdateContainer fail container name 'Plex': target volume mntPath /volume2/Archive not Found'
Iemand een idee hoe dit op te lossen is? Het is volgens mij geen permissie issue, dus wat dan wel?
[ Voor 9% gewijzigd door CarpeVentum op 04-12-2025 16:04 ]
Misschien is dit een beperking van de GUI, mag/kan dit alleen met een compose file?
[ Voor 13% gewijzigd door upje op 04-12-2025 16:08 ]
Snel ff gekeken via chatGPT Chatgptupje schreef op donderdag 4 december 2025 @ 16:06:
Ja dat begrijp ik; ik heb al een aantal dockers draaien met sommige meerdere mappen, maar dit is nou net de uitzondering omdat de ene folder op volume1 staat, en een andere op volume2. Dat lijkt de docker manager van Ugreen niet te snappen, terwijl dat wel zou moeten kunnen lijkt me.
Misschien is dit een beperking van de GUI, mag/kan dit alleen met een compose file?
De gui lijkt het idd niet te ondersteunen, werk zelf voornamelijk via portainer met stacks(docker composables), dan heb je sowieso bovenstaand probleem niet.
Via ssh kan je alsnog die docker aanmaken met de goede mounts en dan moet het ook werken.
Je bent een rund als je met docker stunt
Ik heb gewoon dit staan in mijn compose:upje schreef op donderdag 4 december 2025 @ 15:59:
Ik loop met docker tegen een probleem aan met meerder volumes. Ik wil voor een Plex container een shared folder op volume1 mounten, en een shared volume op volume2. Bijvoorbeeld:
* /volume1/Media/TV
* /volume2/Archive
In de docker GUI kan je shared folder selecteren, dus in bovenstaande voorbeeld selecteer ik Media/TV & Archief (zonder volume1 of 2 ervoor). Volume1 lukt prima, maar volume2 mislukt.
Het wijzigen van de container mislukt dan "Failed to edit container Plex. Error: UpdateContainer fail container name 'Plex': target volume mntPath /volume2/Archive not Found'
Iemand een idee hoe dit op te lossen is? Het is volgens mij geen permissie issue, dus wat dan wel?
1
2
3
4
5
| volumes:
- /volume2/appdata/plex:/config
- /volume1/series:/tv
- /volume1/movies:/movies
- /volume1/videos:/videos |
Ook als ik via GUI container aanmaak, kan ik shared folders kiezen van beide volume's.
Dit loopt gewoon en werkt goed. Bestaat Archive wel?
[ Voor 4% gewijzigd door barellron op 04-12-2025 20:09 ]
Ik heb nu een DS723+ die ik gunstig kwijt kan, en wil deze vervangen voor een DXP2800.
Voornaamste redenen zijn meer performance voor enkele VM's als Home-Assistant, en hardwarematige transcoding voor Plex.
Het enige waar ik nog een antwoord op zoek: Ik maak nu backups naar Synology C2 storage waar ik zeer tevreden over ben. Wat voor opties heb je daartoe binnen de Nasync software? Welke BaaS providers gebruiken jullie en zijn jullie daar tevreden over?
Steam: Brainfrz82 | PSN: Brainfrz | Discord: Brainfrz
Het hangt af van hoeveel storage je voor je backup nodig hebt, maar het is misschien het overwegen waard om jouw Synology op dezelfde wijze in te zetten vs. maandelijks/jaarlijks te betalen voor een externe cloud.
Een raadsel voor een lekker speciaal biertje o.i.d., plaats je antwoord in mijn profielreacties: 2447202 (Hint: startpunt)
Dat zijn precies de 2 opties die ik nou net niet wildaniel360gt schreef op vrijdag 5 december 2025 @ 09:38:
Ik maak een encrypted backup naar Google drive maar enkel omdat ik daar achterlijk veel storage beschikbaar heb. Uiteindelijk ga ik mijn oude Synology bij mijn ouders neerzetten regel ik via die weg de backup.
Het hangt af van hoeveel storage je voor je backup nodig hebt, maar het is misschien het overwegen waard om jouw Synology op dezelfde wijze in te zetten vs. maandelijks/jaarlijks te betalen voor een externe cloud.
Ik heb ongeveer 500GB aan data die ik wil backuppen met voldoende retentie. De data wijzigt niet veel (+- 10GB per week), en groeit met 1GB per week, maar ik wil dat hij immutable is en alleen veranderingen meeneemt (op file-niveau, block niveau is niet nodig).
Ik wil ook geen anderen opzadelen met mijn NAS in huis en daar dan alsnog actief beheer op voeren. Ik vind het niet erg om te betalen voor de dienst als deze goed werkt. De kosten moeten wel vooraf bekend zijn (dus niet als AWS met kosten per API call, up/download, enzovoort)
Steam: Brainfrz82 | PSN: Brainfrz | Discord: Brainfrz
Gebruik nu Sync & Backup en een externe oude Synology via RSYNC als vervanger.
Oh, duplicati ken ik, die heb ik in het verleden jaren gebruikt icm een webdav storage. Dat kan wel een goede optie zijn inderdaad.RonJ schreef op vrijdag 5 december 2025 @ 10:09:
Met duplicati kan je vrijwel elke cloud storage dienst gebruiken. Denk aan wasabi of backblaze. Ik ga zelf denk ik toch voor google drive omdat deze het minste kost voor 2TB.
Dit zijn de standaard opties:
[Afbeelding]
Steam: Brainfrz82 | PSN: Brainfrz | Discord: Brainfrz
Ik krijg het volume voor geen enkele mogelijkheid unmount, waardoor de repair niet wil werken want moet geunmount zijn. Elk proces stoppen, werkt ook niet want die komen steeds terug.
Uiteindelijk geprobeerd om te booten via Ventoy en dan SystemRescue te starten om zo een btrfs check -- repair uit te voeren. Maar dan krijg ik weer en andere fout.
Idee iemand?
Day lijkt allemaal te werken als bedoeld, althans: op het lokale netwerk.
Nu wil ik natuurlijk ook film/serie/muziek kunnen kijken buitenshuis, en daarvoor ben ik op zoek naar een oplossing.
Mijn huidige oplossing is een wireguiard VPN verbinding met het fritzbox modem/router in de meterkast. Met passepartout als client op de iphone kan ik dan rechtstreeks verbinding leggen met jellyfin... werkt top.
Echter, ik heb op het netwerk ook andere servers (en shares) draaien die "openbaar" zijn op het LAN. Ik wik nite dat 'mensen van buitenaf' daar bij kunnen (bijvoorbeeld mijn moeder), en dan lopen rotzooien. Uiteraard zijn de shares/servers user/pass protected.. maar ik heb liever dat ze ze uberhaupt niet kunnen zien.
Ik heb behalve de fritzbox (7590) geen extra firewall draaien.
Eigenlijk zoek ik een oplossing om van buitenaf, op een vpn-achtige wijze, een verbinding te kunnen n aken met het LAN, maar dan de interne servers user-based beschikbaar te maken. (slaat dat ergens op?)
Volgens mij 'moet' ik dan als oplossing in de richting van tailscale denken...toch?
Of als je open poorten geen issue vindt, wireguard container.
Alles went behalve een Twent.
nggyu nglyd
Gebruik zelf traefik container icm eigen domain naam via cloudflare.breew schreef op zaterdag 6 december 2025 @ 11:51:
zo.. inmiddels draaien de eerste twee docker containers; portainer en jellyfin.
Day lijkt allemaal te werken als bedoeld, althans: op het lokale netwerk.
Nu wil ik natuurlijk ook film/serie/muziek kunnen kijken buitenshuis, en daarvoor ben ik op zoek naar een oplossing.
Mijn huidige oplossing is een wireguiard VPN verbinding met het fritzbox modem/router in de meterkast. Met passepartout als client op de iphone kan ik dan rechtstreeks verbinding leggen met jellyfin... werkt top.
Echter, ik heb op het netwerk ook andere servers (en shares) draaien die "openbaar" zijn op het LAN. Ik wik nite dat 'mensen van buitenaf' daar bij kunnen (bijvoorbeeld mijn moeder), en dan lopen rotzooien. Uiteraard zijn de shares/servers user/pass protected.. maar ik heb liever dat ze ze uberhaupt niet kunnen zien.
Ik heb behalve de fritzbox (7590) geen extra firewall draaien.
Eigenlijk zoek ik een oplossing om van buitenaf, op een vpn-achtige wijze, een verbinding te kunnen n aken met het LAN, maar dan de interne servers user-based beschikbaar te maken. (slaat dat ergens op?)
Volgens mij 'moet' ik dan als oplossing in de richting van tailscale denken...toch?
Dan kan ik de containers die ik open stel bereiken op jellyfin.eigendomein.nl
Werkt perfect. Lokaal heb ik via de router adguard. Welke een dns rewrite doet op dit domein, waardoor ik lokaal alle containers kan bereiken op containernaam.eigendomein.nl.
Een ander voordeel is dat ik nu overal geldige ssl heb en hierdoor altijd https kan gebruiken.
Je kunt ook gewoon UgreenLink gebruiken in combinatie met gebruikersrechten, dan kun je alles voor die gebruikers afschermen. (zo kun je de porno voor je moeder verborgen houdenbreew schreef op zaterdag 6 december 2025 @ 11:51:
Echter, ik heb op het netwerk ook andere servers (en shares) draaien die "openbaar" zijn op het LAN. Ik wik nite dat 'mensen van buitenaf' daar bij kunnen (bijvoorbeeld mijn moeder), en dan lopen rotzooien. Uiteraard zijn de shares/servers user/pass protected.. maar ik heb liever dat ze ze uberhaupt niet kunnen zien.
Ik heb behalve de fritzbox (7590) geen extra firewall draaien.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik heb een beetje gemengde gevoelens over de ugreenlink.. die heb ik meteen uitgezet.Ben(V) schreef op zaterdag 6 december 2025 @ 13:33:
[...]
Je kunt ook gewoon UgreenLink gebruiken in combinatie met gebruikersrechten, dan kun je alles voor die gebruikers afschermen. (zo kun je de porno voor je moeder verborgen houden)
Om één of andere reden voelt het niet fijn om via een directe URL via elke willekeurige browser toegang te kunnen krijgen tot de NAS. En volgens mij loopt die link dan toch ook via de eigen (Chinese?) servers van UGreen? hmmmmm (jaja.. ik weet het, waarom je druk maken daarover als je zelf die Chinese NAS hebt gekocht met custom (closed) kernel ;-) ).
Porno staat hier niet op de NAS trouwens. Veel te gevaarlijk met al die pubers hier in huis. Ze zoeken hun eigen porno maar (zo naïef ban ik dan ook weer niet ;-) )
Aangezien in een docker-n00b ben, was/is eea me niet duidelijk.
In ene hoop standaard tutorials wordt in een compose file de UIG/GID van een user met admin privileges gebruikt. Dat lijkt me een security-issue, toch? Want mogelijk kan de container (indien gecompromitteerd) dan uitbreken en allerlei andere nare zaken doen op het systeem.
Checkvraag: Klopt dat?
Ik heb nu, bijvoorbeeld voor de jellyfin-docker-container, een user 'jellyfin' aangemaakt, en deze lid gemaakt van de group 'docker-users'. Deze user heeft enkel read/write access op de folder van zijn eigen docker-container (config files etc..), en op de media-folder (ik wilde eigenlijk read-only optie hierop, maar dan lukt denk ik de metadata en subtitle download niet goed.. toch?).
Na inloggen met ssh (kan enkel met admin account) en dan het commando
id jellyfin
vraag 1:
Klopt mijn denkwijze een beetje, of sla ik de plank mbt docker (of security) helemaal mis nu?
vraag 2:
mis ik nog iets? (jaja, veel te algemeen, i know)
jellyfin stack
services:
jellyfin:
image: jellyfin/jellyfin:latest
container_name: Jellyfin-HT
# user: 1000:10 # oud
user: 1000:1000 #user=jellyfin : group = docker-users
group_add:
- 105
environment:
TZ: Europe/Amsterdam
volumes:
- /volume1/docker/jellyfinht/config:/config:rw
- /volume1/docker/jellyfinht/cache:/cache:rw
- /volume1/docker/jellyfinht/logs:/logs:rw
- /volume2/media/:/media:rw
devices:
- /dev/dri/renderD128:/dev/dri/renderD128
- /dev/dri/card0:/dev/dri/card0
- /dev/dri:/dev/dri
# restart: on-failure:5
restart: unless-stopped
network_mode: hosten op de ugreen staan de premissies als volgt
Bevalt prima, zeer noob vreindelijk. Ik gebruik het voornamelijk als backup en voor het streamen van series en films die op de hdd staan. Daarvoor gebruik ik gewoon de theater app van ugreen zelf. Werkt goed genog voor mij. Misschien dat ik emby gaat proberen, jellyfin installeren is voor mij even te moeilijk....
We are all accidents waiting to happen
@breew je hebt gelijk voor wat betreft de user met admin privileges. Vaak wordt dat gedaan vanwege de eenvoud; Max rechten geven = minste issues die gerelateerd zouden kunnen zijn met permissions. Als je bewust een user (aanmaakt en) gebruikt die in zo min mogelijk linux groups zitten en die zelf zo min mogelijk rechten krijgt, dan zit je qua gedachten op het juiste spoor.
wil een Toyota Supra mkIV!!!!! | wil een Yamaha YZF-R{1,6} | wil stiekem ook een Ducati
"Security is just a state of mind"
PSN: scorpie | Diablo 3: scorpie#2470
Klopt, ik zou dan alleen 1 "mediauser" oid username maken voor jellyfin en evt. gerelateerde *arr/nzb/torrent containers. Of zorg iig dat evt. aparte users dan in dezelfde groep zitten. Maar dat is weer lastiger omdat je dan de toegangsrechten niet in de GUI van UGOS kan regelen (die doet alleen permissies voor users, geen groepen). Dan moet je dat dus via SSH/CLI regelen.breew schreef op maandag 8 december 2025 @ 10:58:
Even een vraagje over docker containers op de ugreen.
Aangezien in een docker-n00b ben, was/is eea me niet duidelijk.
In ene hoop standaard tutorials wordt in een compose file de UIG/GID van een user met admin privileges gebruikt. Dat lijkt me een security-issue, toch? Want mogelijk kan de container (indien gecompromitteerd) dan uitbreken en allerlei andere nare zaken doen op het systeem.
Checkvraag: Klopt dat?
Ik heb nu, bijvoorbeeld voor de jellyfin-docker-container, een user 'jellyfin' aangemaakt, en deze lid gemaakt van de group 'docker-users'. Deze user heeft enkel read/write access op de folder van zijn eigen docker-container (config files etc..), en op de media-folder (ik wilde eigenlijk read-only optie hierop, maar dan lukt denk ik de metadata en subtitle download niet goed.. toch?).
Na inloggen met ssh (kan enkel met admin account) en dan het commandokrijg ik dan de gegevens die ik in de compose file van jellyfin kan gebruiken.id jellyfin
vraag 1:
Klopt mijn denkwijze een beetje, of sla ik de plank mbt docker (of security) helemaal mis nu?
vraag 2:
mis ik nog iets? (jaja, veel te algemeen, i know)
jellyfin stack
services: jellyfin: image: jellyfin/jellyfin:latest container_name: Jellyfin-HT # user: 1000:10 # oud user: 1000:1000 #user=jellyfin : group = docker-users group_add: - 105 environment: TZ: Europe/Amsterdam volumes: - /volume1/docker/jellyfinht/config:/config:rw - /volume1/docker/jellyfinht/cache:/cache:rw - /volume1/docker/jellyfinht/logs:/logs:rw - /volume2/media/:/media:rw devices: - /dev/dri/renderD128:/dev/dri/renderD128 - /dev/dri/card0:/dev/dri/card0 - /dev/dri:/dev/dri # restart: on-failure:5 restart: unless-stopped network_mode: host
en op de ugreen staan de premissies als volgt
[Afbeelding]
Ik zie dit overigens vooral als een reëel issue als je enige services op je nas open aan het internet hangt.
All-electric.
Ik heb hier nginx/php draaien in een Docker container die onder mijn user draait. Da's geen strak plan dus?RonJ schreef op maandag 8 december 2025 @ 11:36:
[...]
Klopt, ik zou dan alleen 1 "mediauser" oid username maken voor jellyfin en evt. gerelateerde *arr/nzb/torrent containers. Of zorg iig dat evt. aparte users dan in dezelfde groep zitten. Maar dat is weer lastiger omdat je dan de toegangsrechten niet in de GUI van UGOS kan regelen (die doet alleen permissies voor users, geen groepen). Dan moet je dat dus via SSH/CLI regelen.
Ik zie dit overigens vooral als een reëel issue als je enige services op je nas open aan het internet hangt.
Groepsrechten kan je via de GUI opgeven, toch?RonJ schreef op maandag 8 december 2025 @ 11:36:
[...]
Klopt, ik zou dan alleen 1 "mediauser" oid username maken voor jellyfin en evt. gerelateerde *arr/nzb/torrent containers. Of zorg iig dat evt. aparte users dan in dezelfde groep zitten. Maar dat is weer lastiger omdat je dan de toegangsrechten niet in de GUI van UGOS kan regelen (die doet alleen permissies voor users, geen groepen). Dan moet je dat dus via SSH/CLI regelen.
Ik zie dit overigens vooral als een reëel issue als je enige services op je nas open aan het internet hangt.
onder je main/admin user? nee niet echt nee.posttoast schreef op maandag 8 december 2025 @ 11:45:
[...]
Ik heb hier nginx/php draaien in een Docker container die onder mijn user draait. Da's geen strak plan dus?
All-electric.
Waar loop je tegen aan met Jellyfin?RA7 schreef op maandag 8 december 2025 @ 11:23:
Sinds kort een DXP2800 gekocht, met 2x 4TB Iron Wolf en 2x 2TB Samsung 990Pro SSD.
Bevalt prima, zeer noob vreindelijk. Ik gebruik het voornamelijk als backup en voor het streamen van series en films die op de hdd staan. Daarvoor gebruik ik gewoon de theater app van ugreen zelf. Werkt goed genog voor mij. Misschien dat ik emby gaat proberen, jellyfin installeren is voor mij even te moeilijk....
Er is sinds kort een Jellyfin topic https://gathering.tweakers.net/forum/list_messages/2314428
Als je de container niet in privileged mode hebt draaien, dan zou ik mij geen zorgen maken.posttoast schreef op maandag 8 december 2025 @ 11:45:
[...]
Ik heb hier nginx/php draaien in een Docker container die onder mijn user draait. Da's geen strak plan dus?
Hoe zit je qua energieverbruik nu?Taro schreef op vrijdag 21 november 2025 @ 19:52:
Ik denk erover een Synology NAS, Windows NAS, Raspberry Pi 5 en Intel NUC te vervangen door een UGreen DXP480T met om te starten 2x 4TB Samsung 990 Pro.
3 vragen:Edit: Inmiddels besteld met 2x SSD, benieuwd
- Weet iemand wat een gemiddeld stroomverbruik van de DXP480T is? De TDP van de CPU is volgens mij 15-55 Watt.
- Kan ik er later makkelijk een 3e en 4e SSD bij plaatsen om die op te nemen in een RAID array? Of moet ik er eigenlijk direct 4 plaatsen?
- Past de SSD versie mét heatsink ook? Neem aan van wel?
Ik heb een 5-bay Synology, die trekt gemiddeld 45W maar op zich zie ik een upgrade naar full SSD ook wel zitten
De DXP480T Plus heeft een verbruik van 22-25 Watt incl.:Bananeman schreef op maandag 8 december 2025 @ 18:56:
[...]
Hoe zit je qua energieverbruik nu?
Ik heb een 5-bay Synology, die trekt gemiddeld 45W maar op zich zie ik een upgrade naar full SSD ook wel zitten
- 4x Samsung 990 Pro 4 TB NVME
- 2x16 GB Crucial RAM
Netjes denk ik
iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV
Dank voor de info, zeer netjes idd! Nog iets lager dan ik had verwacht ook.Taro schreef op maandag 8 december 2025 @ 19:30:
[...]
De DXP480T Plus heeft een verbruik van 22-25 Watt incl.:En o.a. PiHole, Teslamate en aantal andere Dockers draaien.
- 4x Samsung 990 Pro 4 TB NVME
- 2x16 GB Crucial RAM
Netjes denk ik
[Afbeelding]
Ik heb een bluetooth dongle, deze vind ik wel lsusb commando.
Bus 003 Device 003: ID 2357:0604 TP-Link TP-Link UB500 Adapter.
Alleen in Home Assistant (geinstalleerd via docker) krijg ik de melding:
Failed setup, will retry: hci0 (E0:D3:62:D7:15:B3): hci0 (E0:D3:62:D7:15:B3): Failed to start Bluetooth: [org.freedesktop.DBus.Error.ServiceUnknown] The name org.bluez was not provided by any .service files; Try power cycling the Bluetooth hardware.
Dit lijkt erop dat BlueZ mist. Alleen ik weet niet goed hoe ik BlueZ op de UGREEN NAS OS installeer. Een apt-get install werkt (vrij logisch gezien) niet...
Mijn docker compose yml is opzich vrij voor de handliggend;
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
| services:
homeassistant:
image: homeassistant/home-assistant
container_name: Home-Assistant
mem_limit: 8g
cpu_shares: 768
security_opt:
- no-new-privileges:true
healthcheck:
test: curl -f http://localhost:8123/ || exit 1
network_mode: host
privileged: true
volumes:
- /volume2/docker/homeassistant:/config:rw
- /run/dbus:/run/dbus:ro
environment:
TZ: Europe/Amsterdam
restart: on-failure:5 |
[ Voor 5% gewijzigd door Chip. op 08-12-2025 22:16 ]
Die van mij wordt morgen geleverd, eerste NAS - wel zonder de SSDRA7 schreef op maandag 8 december 2025 @ 11:23:
Sinds kort een DXP2800 gekocht, met 2x 4TB Iron Wolf en 2x 2TB Samsung 990Pro SSD.
Bevalt prima, zeer noob vreindelijk. Ik gebruik het voornamelijk als backup en voor het streamen van series en films die op de hdd staan. Daarvoor gebruik ik gewoon de theater app van ugreen zelf. Werkt goed genog voor mij. Misschien dat ik emby gaat proberen, jellyfin installeren is voor mij even te moeilijk....
Was mooie deal op amazon, 498 EUR voor betaald
Mijn bedoeling is RAID1 doen met de twee HDD + externe backup nog
Misschien domme vraag maar: welke meerwaarde leveren de SSD nog? Puur extra ruimte?
Mijn gebruik is voor opslag en backups, geen streaming - eventueel beveiligingscamera naar de toekomst toe
Wel enorm veel zin ermee aan de slag te gaan en alle mogelijkheden te leren kennen
Ik gebruik het meer als netwerkschijf dus mijn noden zijn redelijk eenvoudig.
Nu nog even kijken of de gigabitsnelheid te benaderen is met een erg groot bestand, met foto's en PDF's was het sowieso wat trager aan 45 MB/s maar dat is te verwachten.
Mis je niet de drivers voor BlueZ? Dat zeg je zelf al, check https://www.reddit.com/r/...bluez_for_home_assistant/ pak van https://pkgs.org/download/bluez de juiste debian package.Chip. schreef op maandag 8 december 2025 @ 22:11:
Weet iemand hoe je BlueZ installeert op UGREEN NAS OS? Ik probeer mijn bluetooth dongle werkend te krijgen op de UGREEN NAS, zodat Home Assistant (die in een docker draait) hem kan gebruiken.
Ik heb een bluetooth dongle, deze vind ik wel lsusb commando.
Bus 003 Device 003: ID 2357:0604 TP-Link TP-Link UB500 Adapter.
Alleen in Home Assistant (geinstalleerd via docker) krijg ik de melding:
Failed setup, will retry: hci0 (E0:D3:62:D7:15:B3): hci0 (E0:D3:62:D7:15:B3): Failed to start Bluetooth: [org.freedesktop.DBus.Error.ServiceUnknown] The name org.bluez was not provided by any .service files; Try power cycling the Bluetooth hardware.
Dit lijkt erop dat BlueZ mist. Alleen ik weet niet goed hoe ik BlueZ op de UGREEN NAS OS installeer. Een apt-get install werkt (vrij logisch gezien) niet...
Mijn docker compose yml is opzich vrij voor de handliggend;
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18services: homeassistant: image: homeassistant/home-assistant container_name: Home-Assistant mem_limit: 8g cpu_shares: 768 security_opt: - no-new-privileges:true healthcheck: test: curl -f http://localhost:8123/ || exit 1 network_mode: host privileged: true volumes: - /volume2/docker/homeassistant:/config:rw - /run/dbus:/run/dbus:ro environment: TZ: Europe/Amsterdam restart: on-failure:5
Daarnaast lees ik her en der iets over dat USB passtrough naar een docker container nog niet werkt op ugos, misschien weet iemand anders hier meer over
[ Voor 8% gewijzigd door ProfaNe op 09-12-2025 10:03 ]
Zou dan evt. door kwaadwillenden of concurrentie kunnen worden misbruikt vermoed ik. Maar goed, dat komt de veiligheid uiteindelijk wel ten goede.Dagarkin schreef op donderdag 11 december 2025 @ 08:59:
Ter info via Ugreen support kan je een iso aanvragen voor hun os. Wat ze vragen is je type en je serial number. Ik heb nog wel de vraag open, waarom ze deze niet via hun website aanbieden.
iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV
Denk om te voor komen dat mensen met hun eigen hardware het OS gaan installeren en zo "gratis" mee leunen op UGREEN. terwijl een ander OS als unraid waar ze voor moeten betalen..Dagarkin schreef op donderdag 11 december 2025 @ 08:59:
Ter info via Ugreen support kan je een iso aanvragen voor hun os. Wat ze vragen is je type en je serial number. Ik heb nog wel de vraag open, waarom ze deze niet via hun website aanbieden.
Owner of DBIT Consultancy | DJ BassBrewer
Dat kan prima met een n100.DennusB schreef op vrijdag 12 december 2025 @ 09:00:
Ik zit te denken aan het kopen van een DXP4800 (niet de plus versie) ter vervanging van m'n Synology. Daar zit een N100 CPU in, kan ik met deze NAS video's (4k/1080p) via Plex transcoden of moet ik dan echt de plus hebben?
Taro schreef op donderdag 11 december 2025 @ 19:29:
[...]
Zou dan evt. door kwaadwillenden of concurrentie kunnen worden misbruikt vermoed ik. Maar goed, dat komt de veiligheid uiteindelijk wel ten goede.
Nu officieel reactie. Het is zegt idd weinig, maar goed ik ben blij dat ze wel de iso zelf geven.gert_jan schreef op donderdag 11 december 2025 @ 20:32:
[...]
Denk om te voor komen dat mensen met hun eigen hardware het OS gaan installeren en zo "gratis" mee leunen op UGREEN. terwijl een ander OS als unraid waar ze voor moeten betalen..
Ik heb zelf de iso voor mezelf wel op meerdere plekken gezet. Ik heb een 2800xp en de iso is zelf 1.67 GB
Because it involves technical issues such as different devices and servers in different regions, we are currently unable to release the ISO public availability.
Thank you for your support and understanding.😊️
Is dat een ISO specifiek voor jouw versie, of mogelijk ook voor andere versies en onafhankelijk van de hardware? Of onbekend?Dagarkin schreef op vrijdag 12 december 2025 @ 11:51:
[...]
[...]
Nu officieel reactie. Het is zegt idd weinig, maar goed ik ben blij dat ze wel de iso zelf geven.
Ik heb zelf de iso voor mezelf wel op meerdere plekken gezet. Ik heb een 2800xp en de iso is zelf 1.67 GB
[...]
iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV
Kan me niet voorstellen dat ze een hardware onafhankelijke ISO kunnen maken, dan zou er volledige "HAL" in de bios moeten zitten.
En dan zou het bijna onmogelijk zijn om iets als TrueNas te installeren.
[ Voor 16% gewijzigd door Ben(V) op 12-12-2025 16:30 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Denk dat ze een specieke img maken met je eigen serie nummer.Taro schreef op vrijdag 12 december 2025 @ 15:20:
[...]
Is dat een ISO specifiek voor jouw versie, of mogelijk ook voor andere versies en onafhankelijk van de hardware? Of onbekend?
Zag dit tenminste op reddit voorbij komen, dan is het opsich wel logisch waarom je geen iso van hun site kan downloaden.
Would be a bad idea to share that. They store not only the serial but also an authentication key in that ISO which is tied to your system.
4K transcode met een N100, ik vraag het me af. Zal best wel iets kunnen, maar valt en staat denk ik wel met het source -> destination. Ik denk dat die er toch wel veel moeite mee zal hebben.
Intel’s met QSV (zoals de N95/N100/N150) zijn juist enorm goed in hardware transcoding. De iGPU kan 4K content (HEVC) hardwarematig transcoden, meerdere streams tegelijk zelfs. Mediaservers worden juist vaak uitgekozen op Intel QSV.g00gle schreef op zondag 14 december 2025 @ 00:20:
[...]
4K transcode met een N100, ik vraag het me af. Zal best wel iets kunnen, maar valt en staat denk ik wel met het source -> destination. Ik denk dat die er toch wel veel moeite mee zal hebben.
Ik gebruik de ssd voornamelijk voor het streamen van video en audio.Jensdm schreef op dinsdag 9 december 2025 @ 09:02:
[...]
Die van mij wordt morgen geleverd, eerste NAS - wel zonder de SSD
Was mooie deal op amazon, 498 EUR voor betaald
Mijn bedoeling is RAID1 doen met de twee HDD + externe backup nog
Misschien domme vraag maar: welke meerwaarde leveren de SSD nog? Puur extra ruimte?
Mijn gebruik is voor opslag en backups, geen streaming - eventueel beveiligingscamera naar de toekomst toe
Wel enorm veel zin ermee aan de slag te gaan en alle mogelijkheden te leren kennen
Heb jij ook de DPX2800? want dan is 498 EUR wel vrij duur, ik had de mijne voor 279 EUR.
We are all accidents waiting to happen
Dat valt nog zat mee, vanaf een 4k blue-ray rip naar 1080P high quality in Plex kan met zo'n 3 streams tegelijk.g00gle schreef op zondag 14 december 2025 @ 00:20:
[...]
4K transcode met een N100, ik vraag het me af. Zal best wel iets kunnen, maar valt en staat denk ik wel met het source -> destination. Ik denk dat die er toch wel veel moeite mee zal hebben.
Steam: Brainfrz82 | PSN: Brainfrz | Discord: Brainfrz
Ik was wat onduidelijk: Inclusief 2x Seagate Ironwolf 4TB gerekend. Apart was die ook 279 EURRA7 schreef op zondag 14 december 2025 @ 11:40:
[...]
Ik gebruik de ssd voornamelijk voor het streamen van video en audio.
Heb jij ook de DPX2800? want dan is 498 EUR wel vrij duur, ik had de mijne voor 279 EUR.
Duidelijk, voor mij niet opportuun dan.
Gisteren eerste stappen gezet, mappenstructuur en foto opslag van de iphone alvast in orde. Nu de rest nog.
Succes dus. Wel irritant: de NAS blijft maar piepen tijdens stroomuitval, best luid. Ik heb de instellingen nagelopen, maar zo te zien kan je niet instellen dat je geen piep wil.
Het is dan ook niet de bedoeling dat UPS er voor zorgt dat je NAS blijft draaien afaik.upje schreef op maandag 15 december 2025 @ 18:48:
Vandaag heeft de Ugreen UPS zijn werk gedaan. De hele wijk zat zonder stroom. De UPS heeft gedurende 5 kwartier de stroom geleverd aan mijn nas, een DXP2800. Nadat de stroom weer terugkwam, stond de UPS op 55%. Het lijkt er dus op dat de UPS gedurende ongeveer 2-2,5 uur de stroom kan overnemen.
Succes dus. Wel irritant: de NAS blijft maar piepen tijdens stroomuitval, best luid. Ik heb de instellingen nagelopen, maar zo te zien kan je niet instellen dat je geen piep wil.
De bedoeling van een UPS is zodat je gecontroleerd kunt afsluiten.
Vandaar dat die ook hele tijd blijft piepen.
Het piepen heeft geen enkel nut, de NAS gaat sowieso netjes worden afgesloten zodra dat echt nodig is. Bovendien kan je de NAS niet meer handmatig afsluiten, je hebt immers geen werkend ander apparaat meer om dat mee te kunnen doen, want stroomuitval.
Laptop met een via USB gevoedde switch?upje schreef op maandag 15 december 2025 @ 21:43:
Beide varianten zijn instelbaar. Of meteen afsluiten bij stroomuitval, of eerst verder draaien op de UPS. Ik heb voor de laatste optie gekozen. Als je daarvoor kiest dan wordt de NAS alsnog afgesloten zodra de accu lading 15% bereikt.
Het piepen heeft geen enkel nut, de NAS gaat sowieso netjes worden afgesloten zodra dat echt nodig is. Bovendien kan je de NAS niet meer handmatig afsluiten, je hebt immers geen werkend ander apparaat meer om dat mee te kunnen doen, want stroomuitval.
Of een switch ook aan de UPS?
[ Voor 4% gewijzigd door RonJ op 16-12-2025 08:08 ]
All-electric.
Eerlijk zou ik voor de plus gaan gewoon dat klein beetje meer haal je er echt wel uit in de toekomst.DennusB schreef op vrijdag 12 december 2025 @ 09:00:
Ik zit te denken aan het kopen van een DXP4800 (niet de plus versie) ter vervanging van m'n Synology. Daar zit een N100 CPU in, kan ik met deze NAS video's (4k/1080p) via Plex transcoden of moet ik dan echt de plus hebben?
Anders zou ik voor de 4300 gaan die werkt net zo goed. De DXP4800 is een beetje in het wal en het schip als je het mij vraagt.
De Ugreen app blijft open, wifi verbinding is in orde, background refresh op iphone staat aan, ...
Tips?
Ik heb net de eaton ups aangesloten, werkt gelijk via de gui van de dxp2800.upje schreef op maandag 15 december 2025 @ 18:48:
Vandaag heeft de Ugreen UPS zijn werk gedaan. De hele wijk zat zonder stroom. De UPS heeft gedurende 5 kwartier de stroom geleverd aan mijn nas, een DXP2800. Nadat de stroom weer terugkwam, stond de UPS op 55%. Het lijkt er dus op dat de UPS gedurende ongeveer 2-2,5 uur de stroom kan overnemen.
Succes dus. Wel irritant: de NAS blijft maar piepen tijdens stroomuitval, best luid. Ik heb de instellingen nagelopen, maar zo te zien kan je niet instellen dat je geen piep wil.
Gelijk getest en gaat goed, bij mij piept de dxp2800 niet, maar de Eaton. Met ssh naar de nas kun je dat uitschakelen. (upscmd -u nut -p nut ups0 beeper.disable)
Robert Elsinga =8-) | IT security, Scouting, zendamateur (PC5E, WC5E) | www.elsinga.net/robert, www.pc5e.nl
https://ryansouthgate.com/systemd-timer/
[ Voor 28% gewijzigd door Ben(V) op 19-12-2025 09:20 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik draai versie 1.11.0.0053
/f/image/NGcAbbfgYSt0qSoAW6zkgBn4.png?f=fotoalbum_large)
:strip_exif()/f/image/ysBwBZT9zuJBsYvFHClsfnPM.jpg?f=fotoalbum_large)