• Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

Pietervs schreef op maandag 1 december 2025 @ 11:27:
Er is een nieuwe firmware beschikbaar, in ieder geval voor de 4800+ (want die heb ik :) ): versie 1.11.0.0053

In het verlengde daarvan worden ook wat apps geupdated: Docker, Downloads, Photos, Theater, Music en Sync&Backup (bij mij).

Zojuist geïnstalleerd, installatie ging vlekkeloos. Nog geen zaken gezien die problemen geven met deze versie.
Hier ook probleemloos binnen.

In de docker app is nu een "Management" tab, het lijkt er op dat je daar periodiek een update check voor je containers / images uit kunt laten voeren _/-\o_

Afbeeldingslocatie: https://tweakers.net/i/oo9FlRyBGUpTJjHE_iCd7YgT_Lo=/800x/filters:strip_exif()/f/image/NGcAbbfgYSt0qSoAW6zkgBn4.png?f=fotoalbum_large

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • Taro
  • Registratie: September 2000
  • Niet online

Taro

Moderator General Chat / Wonen & Mobiliteit

Kennis delen > DM

Steef schreef op maandag 1 december 2025 @ 14:46:
[...]


Hier ook probleemloos binnen.

In de docker app is nu een "Management" tab, het lijkt er op dat je daar periodiek een update check voor je containers / images uit kunt laten voeren _/-\o_

[Afbeelding]
Ik heb hiervoor al Portainer + Watchtower draaien, dan heb je daar ook geen omkijken naar. Maar wel mooi dat ze het nu standaard zelf ook ondersteunen, scheelt weer inrichten.

[ Voor 6% gewijzigd door Taro op 01-12-2025 14:49 ]

iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV


  • outlandos
  • Registratie: November 2001
  • Laatst online: 21:57
Zelfs een update van de native Jellyfin app, werd wel tijd na 8 maanden zonder update... ben wel benieuwd naar welke versie van de Jellyfin server de update gaat. Kan dat pas checken waneer ik thuis ben.

  • Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

outlandos schreef op maandag 1 december 2025 @ 15:52:
Zelfs een update van de native Jellyfin app, werd wel tijd na 8 maanden zonder update... ben wel benieuwd naar welke versie van de Jellyfin server de update gaat. Kan dat pas checken waneer ik thuis ben.
Ik geloof dat die niet native is, maar gewoon in docker draait.

Je bent beter af als je zelf jellyfin opzet via docker, denk ik.

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • outlandos
  • Registratie: November 2001
  • Laatst online: 21:57
Steef schreef op maandag 1 december 2025 @ 15:54:
[...]


Ik geloof dat die niet native is, maar gewoon in docker draait.

Je bent beter af als je zelf jellyfin opzet via docker, denk ik.
Met native bedoelde ik native vanuit Ugreen. Maar voor de rest heb je wel gelijk hoor.

Nieuwe versie is trouwens nog steeds gewoon de oude 10.10.3 8)7

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 18-12 14:20
*knip* offtopic

[ Voor 93% gewijzigd door br00ky op 02-12-2025 07:47 ]

aka pluim003


  • upje
  • Registratie: April 2001
  • Laatst online: 18:32
Steef schreef op maandag 1 december 2025 @ 14:46:
[...]


Hier ook probleemloos binnen.

In de docker app is nu een "Management" tab, het lijkt er op dat je daar periodiek een update check voor je containers / images uit kunt laten voeren _/-\o_

[Afbeelding]
Dat is apart. Ik heb ook net de update uitgevoerd; ik zie een management tab, en daar wordt “data migration” getoond, maar “image update” wordt niet getoond. Ik heb trouwens een DXP2800.

  • A_rjen
  • Registratie: December 2013
  • Laatst online: 11:48
@upje Dan moet je nog even in App Center je Docker bijwerken (dat was hier de oplossing)

[ Voor 8% gewijzigd door A_rjen op 02-12-2025 08:24 ]


  • TimDeAardappel
  • Registratie: November 2025
  • Laatst online: 06-12 15:02
Ik heb zelf ook een DXP2800, welke (extra) instellingen gebruiken jullie als het gaat om security, aangezien het toch een aparaat uit azie is?

  • daniel360gt
  • Registratie: Juni 2010
  • Laatst online: 18-12 14:36
TimDeAardappel schreef op dinsdag 2 december 2025 @ 08:32:
Ik heb zelf ook een DXP2800, welke (extra) instellingen gebruiken jullie als het gaat om security, aangezien het toch een aparaat uit azie is?
Ik blokkeer elke inkomende en uitgaande verbinding van/naar China (en een heel zooi andere landen) via Unifi.
UGOS heb ik na aanschaf een kleine 2 weken getest. In de logs zag ik regelmatig dat er pogingen gedaan werden om verbinding te leggen naar China, zie ook youtube link in OP. Voor aanschaf had ik min of meer al besloten dat ik niet op UGOS zou blijven, ze zijn nog niet zo bewezen als Synology bijvoorbeeld. Ik draai nu TrueNAS op de SSD die in de 4800+ zit. Het kost je een paar dagen om je goed in te lezen maar kan het je aanraden. Hierna 0 verbindingen naar China.

Een raadsel voor een lekker speciaal biertje o.i.d., plaats je antwoord in mijn profielreacties: 2447202 (Hint: startpunt)


  • scorpie
  • Registratie: Augustus 2001
  • Laatst online: 19:36

scorpie

Supra Addict

Hebben meer mensen last van een niet meer werkende iOS app van UGreen na de update van de NAS? Ik kan maar niet inloggen. Heb remote met UGreen ID geprobeerd, via het lokale netwerk, heb m'n telefoon opnieuw opgestart, gekeken of er updates zijn.. niks.. Iemand nog een idee wat ik kan proberen? Zijn er security settings gewijzigd na de update die ik weer moet terugzetten? Bijv. dat je enkel via het web interface mag inloggen en niet meer via de mobiele app?

wil een Toyota Supra mkIV!!!!! | wil een Yamaha YZF-R{1,6} | wil stiekem ook een Ducati
"Security is just a state of mind"
PSN: scorpie | Diablo 3: scorpie#2470


  • posttoast
  • Registratie: April 2000
  • Laatst online: 22:29
scorpie schreef op dinsdag 2 december 2025 @ 11:24:
Hebben meer mensen last van een niet meer werkende iOS app van UGreen na de update van de NAS? Ik kan maar niet inloggen. Heb remote met UGreen ID geprobeerd, via het lokale netwerk, heb m'n telefoon opnieuw opgestart, gekeken of er updates zijn.. niks.. Iemand nog een idee wat ik kan proberen? Zijn er security settings gewijzigd na de update die ik weer moet terugzetten? Bijv. dat je enkel via het web interface mag inloggen en niet meer via de mobiele app?
Nee, hier werkt het allemaal nog gewoon...

omniscale.nl


  • daniel360gt
  • Registratie: Juni 2010
  • Laatst online: 18-12 14:36
Nog even een tip over het verplaatsen van data. In verschillende posts zag ik vragen terug over het verplaatsen van data, van oude NAS (bv. Synology) naar Ugreen NAS. Er zijn al wat methodes genoemd maar wat voor mij uitstekend werkt is Syncthing. Syncthing is eenvoudig op te zetten met docker (UGOS / TrueNAS) en via Package Center binnen Synology.

https://docs.syncthing.net/index.html#
https://mariushosting.com...thing-on-your-ugreen-nas/

Daarnaast gebruik ik het nu als sync tool tussen verschillende apparaten en de NAS met versioning actief.

Een raadsel voor een lekker speciaal biertje o.i.d., plaats je antwoord in mijn profielreacties: 2447202 (Hint: startpunt)


  • Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

Iemand een idee hoe het zit met de ZFS support?

Op hun eigen website noemen ze wel ZFS features, dus ik vermoed dat het ooit onderdeel is geweest van de roadmap:
Leveraging capabilities like ZFS virtual storage pools lets you flexibly grow capacity while optimizing drive configurations behind the scenes.
Maar in hun roadmap vind ik ZFS niet terug.

Misschien een mailtje naar hun support waard - anders misschien toch overstappen naar TrueNAS.

Ik zie dat BTRFS wel ondersteund is, en ook features als zfs-scrub heeft middels btrfs-scrub, maar btrfs is nog niet zo mature.

*edit*

Zo, dat was snel - reactie van UGREEN - voorlopig geen ZFS dus, lijkt het:
Thank you for contacting us. At the moment, our NAS products do not support ZFS. Although our development team is aware of user requests for ZFS features such as scrub and advanced data integrity mechanisms, we currently do not have a confirmed timeline for ZFS integration.

For now, Btrfs is provided as an alternative offering snapshot capabilities, data checksums, and other reliability features, and we continue to improve its performance and stability through future updates.

Your feedback is valuable to us, and we have forwarded your suggestion to our product team for further evaluation in future developments.

[ Voor 48% gewijzigd door Steef op 02-12-2025 16:38 ]

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • raven22
  • Registratie: Januari 2004
  • Laatst online: 17:34
daniel360gt schreef op dinsdag 2 december 2025 @ 15:17:
Nog even een tip over het verplaatsen van data. In verschillende posts zag ik vragen terug over het verplaatsen van data, van oude NAS (bv. Synology) naar Ugreen NAS. Er zijn al wat methodes genoemd maar wat voor mij uitstekend werkt is Syncthing. Syncthing is eenvoudig op te zetten met docker (UGOS / TrueNAS) en via Package Center binnen Synology.

https://docs.syncthing.net/index.html#
https://mariushosting.com...thing-on-your-ugreen-nas/

Daarnaast gebruik ik het nu als sync tool tussen verschillende apparaten en de NAS met versioning actief.
Zelf gebruik ik Resilio Sync, werkt ook als een speer. https://www.resilio.com/sync/

  • breew
  • Registratie: April 2014
  • Laatst online: 22:29
nou, ik ga me er ook aan wagen,
Gisteren de 4800+ bundle gekocht met de 5% extra korting,
vandaag besteld
2 samsung EVO 990 4TB (voor de dockers)
2 WD Red 16TB (voor de data)


Geheugen uitbreiden (indien nodig) ga ik doen als de prijzen niet zo achterlijk exponentieel meet stijgen...
In eerste instantie ga ik toch vooral HA, sonarr/nzbd en Jellyfin draaien. Dat moet op 8 GB ook wel lukken.

Eerst maar weer even salaris erbij krijgen eind deze maand O-)

  • Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

@breew voor wat het waard is; hier vergelijkbare setup, enige extra app is momenteel Docker voor Jellyfin. Met Jellyfin draaiende en streamende zit ik op 1.1 Gb RAM in use.

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • elsinga
  • Registratie: Februari 2003
  • Laatst online: 08:34

elsinga

=8-)

elsinga schreef op maandag 1 december 2025 @ 08:17:
[...]
Dus ik moet nog even flink troubleshooten.... Ondertussen de port forward weer richting DS918+ en de websites en containers daar weer enabled. Maar dus niet blij...
Even een update. Het lijkt dat de oorzaak iets op mijn laptop of de route intern via de Unify Cloud Gateway is, want vanaf buiten werkt alles zoals verwacht. Paniek voor niks dus wellicht. #pfieuw #zucht

Robert Elsinga =8-) | IT security, Scouting, zendamateur (PC5E, WC5E) | www.elsinga.net/robert, www.pc5e.nl


  • Mokum
  • Registratie: April 2023
  • Laatst online: 20:58
Ik heb na een factory reset een corrupte folder, die als ik probeer te lezen of te openen ervoor zorgt dat het Volume in read-only modus gaat vanwege Btrfs die hiervoor zorgt (veiligheidsmechanisme).

Support van Ugreen is wel proactief en ben ik al enige tijd over en weer mee aan het sturen.

Nu sturen ze mij dit:
"Please first replace the memory with the original factory Samsung 8GB RAM and see if the issue is resolved. If the problem persists, you will need to repair Volume1 via the command line.

Before repair, please:

Use lsof to check if any processes are accessing /volume1 and /home.

Use kill to stop those processes.

Unmount the directories: umount /volume1 and umount /home.

Execute the repair command:

btrfs check --repair /dev/mapper/ug_75D533_1749137545_pool1-volume1"

Ik denk nu niet dat het aan het geheugen ligt. Dus ik probeer de repair, echter moet ik dan eerst alle processen stopppen en het volume unmounten. Ik probeer dit via "kill" maar de processen komen steeds terug. Iemand enig idee? Ben geen Linux (Debian) expert. Zeker niet via cmd.

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 18-12 14:20
Zo gisteren ook de 2800 binnen gekregen en mooi aan de slag gegaan. Paar van de Docker-containers werken als een zonnetje na migratie van de Raspberry Pi4 naar de 2800. Na downshutten boel op pi de volumes gekopieerd naar de 2800. Pihole werkt keurig en mijn vaultwarden, maar uiteraard de belangrijkste die over moet niet. HomeAssistant lijkt na kopiëren van alles heel veel dingen niet (meer) te kunnen. Integraties die niet meer werken of geladen kunnen worden. Dus die is voorlopig even weer terug naar de pi. En dan maar kijken waar het probleem zit en/of waarom ie de integraties niet kan laden. En ja, ik gebruik een ander image.

Vraag: zijn er meer die zo'n migratie hebben uitgevoerd?

aka pluim003


  • breew
  • Registratie: April 2014
  • Laatst online: 22:29
DikkieDick schreef op woensdag 3 december 2025 @ 09:18:
Zo gisteren ook de 2800 binnen gekregen en mooi aan de slag gegaan. Paar van de Docker-containers werken als een zonnetje na migratie van de Raspberry Pi4 naar de 2800. Na downshutten boel op pi de volumes gekopieerd naar de 2800. Pihole werkt keurig en mijn vaultwarden, maar uiteraard de belangrijkste die over moet niet. HomeAssistant lijkt na kopiëren van alles heel veel dingen niet (meer) te kunnen. Integraties die niet meer werken of geladen kunnen worden. Dus die is voorlopig even weer terug naar de pi. En dan maar kijken waar het probleem zit en/of waarom ie de integraties niet kan laden. En ja, ik gebruik een ander image.

Vraag: zijn er meer die zo'n migratie hebben uitgevoerd?
nog niet.

Ik denk dat ik mijn HA(draait nu nog HASSOS in virtualbox op een NUCje) opnieuw ga opbouwen/inrichten in een dockercontrainer, zodra mijn ugreen binnen is (en ik snap hoe docker werkt :henk )

  • RonJ
  • Registratie: December 2009
  • Laatst online: 22:09
Ik draai juist HA(OS) als enige in een VM ipv een container zodat ik op HAOS kan blijven. Dat is toch de main branch waar het meest op getest wordt, blijven je add-ons gewoon werken (want die draaien in een andere container binnen HAOS) en alles blijft dan gewoon one-click updatable vanuit HA.

Had wel grote moeite met de backup&restore in HA (kwam van native HAOS op een pi naar nu een VM). Elke keer gefaald met een unknown error. Uiteindelijk na tig pogingen eerst HAOS "geactiveerd", daarna alle HASS.io add-ons weer handmatig geïnstalleerd, daarna de add-ons uit de backup kunnen restoren en daarna pas de data & settings. Toen werkte het pas weer.

[ Voor 3% gewijzigd door RonJ op 03-12-2025 09:40 ]

All-electric.


  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 18-12 14:20
breew schreef op woensdag 3 december 2025 @ 09:31:
[...]

nog niet.

Ik denk dat ik mijn HA(draait nu nog HASSOS in virtualbox op een NUCje) opnieuw ga opbouwen/inrichten in een dockercontrainer, zodra mijn ugreen binnen is (en ik snap hoe docker werkt :henk )
Aha. Ja, ik had de complete volumes gekopieerd van pi naar NAS maar ergens schijnt ie het eea toch niet leuk te vinden (al dan niet onder water). Een volgend probleem waar ik tegen aan loop maar niet nas-gerelateerd is dat ik niet kan verbinden met ip-adres:8123, zowel op pi als NAS. Maar via nginx (en een URL) kan ik 'gewoon' de HA benaderen (op de pi dan nu, want daar de instelling maar weer teruggezet naar die op de pi). Overigens kreeg ik nginx in docker container ook (nog) niet werkend op 2800. Dus ook die voorlopig op de pi.

Update: na wat gepuzzel lukte het toch met poort 8123 op de HA in te loggen op de NAS en toen zag het er wel goed uit. Denk dat door die koppeling met nginx er onder water wellicht iets in de cache zat. Dus vervolgens downgebracht op de pi en de config-dir weer gekopieerd en wederom opgestart en nu lijkt het goed.
Dit was toch wel 1 van de belangrijkste (zo niet de belangrijkste) om van de pi af te krijgen. Maar wie weet stap ik in de toekomst ook af van HA in Docker.

Update 2: Denk dat mijn HA-problemen kwamen door een verkeerd image. Toen ie mekkerde over de pi-image en amd64 moest hebben pakte ik een amd64 maar zie nu dat ie 2 jaar oud was. Dat verklaart dan wel veel. Via andere repository (zelfde als voor pi) had ik inmiddels de 'goede'.

[ Voor 30% gewijzigd door DikkieDick op 03-12-2025 12:00 ]

aka pluim003


  • breew
  • Registratie: April 2014
  • Laatst online: 22:29
RonJ schreef op woensdag 3 december 2025 @ 09:39:
Ik draai juist HA(OS) als enige in een VM ipv een container zodat ik op HAOS kan blijven. Dat is toch de main branch waar het meest op getest wordt, blijven je add-ons gewoon werken (want die draaien in een andere container binnen HAOS) en alles blijft dan gewoon one-click updatable vanuit HA.

Had wel grote moeite met de backup&restore in HA (kwam van native HAOS op een pi naar nu een VM). Elke keer gefaald met een unknown error. Uiteindelijk na tig pogingen eerst HAOS "geactiveerd", daarna alle HASS.io add-ons weer handmatig geïnstalleerd, daarna de add-ons uit de backup kunnen restoren en daarna pas de data & settings. Toen werkte het pas weer.
Ik denk dat ik ook voor de HASSOS in een VM ga. Dan kan je (denk ik) ook makkelijk(er) add-ons installeren (als music assistant die hier vele gebruikt wordt).
Restoren uit de back-up van HA is inderdaad een crime... ik moest laatst restoren vanaf backups op de commandline interface (CLI) van de VM (virtualbox), en dat heeft wel een halve dag (en heel wat zweet) gekost voordat ik door had welke commando's (en wachtwoorden) ik daarvoor nodig had. Want blijkbaar heeft iemand ergens ineens besloten dat alle backups encrypted moeten worden (is ook niet uit te zetten).

  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 18-12 14:20
RonJ schreef op woensdag 3 december 2025 @ 09:39:
Ik draai juist HA(OS) als enige in een VM ipv een container zodat ik op HAOS kan blijven. Dat is toch de main branch waar het meest op getest wordt, blijven je add-ons gewoon werken (want die draaien in een andere container binnen HAOS) en alles blijft dan gewoon one-click updatable vanuit HA.

Had wel grote moeite met de backup&restore in HA (kwam van native HAOS op een pi naar nu een VM). Elke keer gefaald met een unknown error. Uiteindelijk na tig pogingen eerst HAOS "geactiveerd", daarna alle HASS.io add-ons weer handmatig geïnstalleerd, daarna de add-ons uit de backup kunnen restoren en daarna pas de data & settings. Toen werkte het pas weer.
Wellicht is dat ook nog een keer een optie om te doen. Nou ja, als ik wat meer tijd heb duik ik hier eens in. Het draait nu weer en dat vind ik het voornaamste voorlopig. En nu ff de NAS vullen met alle data. :-)

aka pluim003


  • Rammz
  • Registratie: Januari 2019
  • Laatst online: 20:06
Ik was juist verbaasd hoe makkelijk ik de VM HAOS gemigreerd had van mijn Synology naar Ugreen. VM installeren, cloud backup terugzetten en klaar, alles draaide zoals voorheen. Wellicht omdat HA op de Synology ook al in een VM draaide, maar het stelde iig niks voor.

  • Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

Hier toevallig mensen die naar TrueNAS zijn gegaan voor ZFS? Hoe zijn de ervaringen?

In mijn 4-bay 4800 gebruik ik momenteel 2x EXT4 in Raid 1 (Mirroring) met het idee beter beschermd te zijn tegen bitrot, maar dat werkt natuurlijk niet - worst case mirrort hij vrolijk de bitrot.

Ik wil dus eigenlijk naar een checksumming FS, zoals ZFS of BTRFS, om bitrot te detecteren en zo nodig te repareren. Binnen UGREEN OS lijkt BTRFS de enige optie te zijn, UGREEN heeft ook aangegeven dat ZFS op dit moment niet op de timeline staat.

Nu lees is her en der dat de stabilliteit / betrouwbaarheid van BTRFS - specifiek in combinatie met RAID - wat ter discussie staat. Is dat valide of zijn dat oude comments?

Het alternatief is overstappen op TrueNAS met ZFS, wat prima te doen is - kost gewoon tijd om alle data weer over te pompen.

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Raid van BTFRS is nog steeds niet stabiel betrouwbaar en zal dat waarschijnlijk ook nooit worden.
Dat is de reden waarom niemand dat gebruikt.
Dus ook Ugos niet, die gebruikt bovenop het filesysteem (Ext 4 of Btrfs) dus gewoon good old mdadm net als Synology.

En persoonlijk zie ik TrueNas gebruiken enkel omdat het op ZFS werkt niet als een valide argument, zoveel verschil met Btrfs is er niet.

Zfs en Btrfs zijn Cow filesystems, maar zelfs Ext4 gebruikt checksumming dus niet alleen die Cow systems doen dat.

Een waterdichte bescherming tegen bitrot bestaat niet, ook niet bij Cow file systems.
De beste bescherming tegen bitrot is de firmware van je disken die dan aan het filesystem signaleren dat er iets mis is (omdat hun interne checksum dat kan constateren) en als je dan een raid systeem gebruikt kan er recovered worden.
Met de moderne Nas disken in combinatie met een Raidset en regelmatig scrubben heb je op geen enkel filesystem last van bitrot.
Tijdens het scrubben wordt alle data gelezen en kan de disk zelf een interne checksum fout constateren.

[ Voor 5% gewijzigd door Ben(V) op 03-12-2025 12:52 ]

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

@Ben(V) RAID1 heeft geen parity - wat me bij BTRFS / ZFS bracht, waarbij ZFS de betere keuze lijkt. Als ik dat in RAID 1 doe heb ik een 2e kopie van de data en checksums op de data - dus kan het systeem uitsluiten welke data "juist" is. Zonder de checksums kan een RAID1 ook besluiten dat de corrupte data juist is, of mis ik hier iets?

Moet zeggen dat ik geen weet heb van eventuele checks in de firmware van de HDD, het zijn WD Red Pro schijven.

EXT4 checksums zitten alleen op de metadata, dacht ik - niet op de file data.

[ Voor 11% gewijzigd door Steef op 03-12-2025 13:11 ]

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Raid1:
Klopt wat je zegt over Raid 1, maar wat ik zeg is dat je op de disk firmware kunt vertrouwen en ook bij een
Raid 1 systeem zal de disk dan aangeven niet meer betrouwbaar te zijn en weet je OS welke disk niet betrouwbaar is en kan recoveren.
Maar het klopt dat Raid 5 veel beter daarin is welk filesysteem je ook gebruikt.

Firmware disken:
De firmware van een disk schrijft voor elk diskblok ook een checksum weg op de disk en die wordt door die firmware gecontroleerd tijdens het lezen en zal bij afwijkingen dat melden aan het OS.

Metadata:
De filesystem meta data van de files.
Dat is wat anders, dan wat jij denkt vermoed ik(chatgpt zeker?).

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

Ben(V) schreef op woensdag 3 december 2025 @ 13:20:
Raid1:
Klopt wat je zegt over Raid 1, maar wat ik zeg is dat je op de disk firmware kunt vertrouwen en ook bij een
Raid 1 systeem zal de disk dan aangeven niet meer betrouwbaar te zijn en weet je OS welke disk niet betrouwbaar is en kan recoveren.
Maar het klopt dat Raid 5 veel beter daarin is welk filesysteem je ook gebruikt.

Firmware disken:
De firmware van een disk schrijft voor elk diskblok ook een checksum weg op de disk en die wordt door die firmware gecontroleerd tijdens het lezen en zal bij afwijkingen dat melden aan het OS.

Metadata:
De filesystem meta data van de files.
Dat is wat anders, dan wat jij denkt vermoed ik(chatgpt zeker?).
Allright, dus feitelijk doet de hard drive firmware al waar ik naar op zoek ben. HDD firmware geeft aan dat de data niet bij zijn checksum past, meld het OS dat die data op die specifieke schijf niet goed meer is - met die informatie kan het OS de "goede" data van de andere schijf in de RAID 1 halen - klopt zover?

Betreffende de metadata - zover ik kan vinden (geen ChatGPT, gewoon google :P ) schrijft EXT4 geen checksum weg op de volledige data van een file. Alleen van de filesystem metadata (structuur van het FS):

https://archive.kernel.or...4_Metadata_Checksums.html
https://docs.kernel.org/filesystems/ext4/checksums.html

Maar zover ik je reactie begrijp levert de HDD firmware dus ook nog een block-level checksum check op de daadwerkelijke data - en is alles dus feitelijk gedekt?

Wat is dan de added value van ZFS / BTRFS?

Misschien moet ik maar gewoon een extra kopie ergens neer zetten, a la 1-2-3.

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Cow file systemen zijn zoals het woord al zeg Copy On Write.
Dus als je iets wijzigt aan een bestand zal de wijziging op een andere plek weggeschreven worden en de oude data blijft gewoon bestaan.
Ook blijft de data consistent gedurende het schrijven omdat eerst de nieuwe data ergens anders weggeschreven wordt voordat de pointer naar de oude data weggehaald wordt.
Dit is eigenlijk typisch gedrag van een database dat op een filesysteem wordt toegpast.

Maar aangezien in het gebruik bestanden maar zelden gewijzigd worden is dat relatief niet zo nuttig.

Waar COW filesystemen wel handig voor zijn is dat je makkelijk een snapshot van de data kunt maken.

En die meta data checksum zijn checksums op onder andere de iNodes van het ext4 bestand en dat zijn dus de datablokken waar de file uit bestaat.

[ Voor 10% gewijzigd door Ben(V) op 03-12-2025 15:02 ]

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • DikkieDick
  • Registratie: Maart 2004
  • Laatst online: 18-12 14:20
Greatsword schreef op woensdag 1 oktober 2025 @ 15:36:
[...]


Nee kan niet, dan heb je twee M.2's nodig.
Duidelijk. Ik zat idd ook te dubben en stuitte hierop omdat ik ook de cache wilde activeren en hij mekkerde dat ik een leeg volume (of lege schijf) voor nodig had.
Voor nu verbaas ik me toch over de mogelijkheden/snelheid. Nou ja, nu was mijn vorige NAS ook 1 uit 2009 of zo. :-)
Via de UGreen-app muziek streamen als ik niet thuis ben lijkt verbazingwekkend snel te gaan. Qua geheugen met nu 5 draaiende Dockercontainers gaat het ook goed. Van de 8 (hij zegt 7,5) GB zijn er maar 2 in gebruik.

aka pluim003


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Ssd's inzetten voor cache is niet erg zinvol in een Nas.
Dat is eigenlijk alleen nuttig voor grote databases.

Je kunt beter investeren in voldoende geheugen, als daar voldoende van aanwezig is zal linux die als cache gaan gebruiken en geheugen is veel sneller dan een ssd.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • breew
  • Registratie: April 2014
  • Laatst online: 22:29
Ben(V) schreef op donderdag 4 december 2025 @ 09:22:
Ssd's inzetten voor cache is niet erg zinvol in een Nas.
Dat is eigenlijk alleen nuttig voor grote databases.

Je kunt beter investeren in voldoende geheugen, als daar voldoende van aanwezig is zal linux die als cache gaan gebruiken en geheugen is veel sneller dan een ssd.
Duidelijk. Dus cache is eigenlijk enkel interessant als je met veel simultane users aan (veel) kleine bestandjes zit te werken, of juist met grote databases werkt?
Wat zou jij adviseren als je 2 M2 SSD's in je NAS hebt zitten, waar je VM en docker containers op draait. RAID0 of RAID1? Backup van de docker-containers en VM kan natuurlijk altijd naar de HDD storage pool, dus is RAID1 op de SSD pool dan nog nuttig?
(ik ben beginner in nas/raid land).

  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Raid 0 is nutteloos.
Raid 1 gebruik je om je data te beschermen tegen uitval van een disk.
ssd's zou ik persoonlijk nooit gebruiken in een Nas, ook hier is voldoende geheugen veel beter.
Linux laat namelijk applicaties die je afsluit gewoon in memory staan zolang er voldoende van is, waardoor ze heel snel weer opstarten als je ze nodig hebt.

Als je ervoor zorgt dat de applicaties binnen een container hun data naar Raid storage schrijven en je netjes backups maakt van je containers dan hebben die containers geen Raid nodig.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • robert357000
  • Registratie: Juli 2024
  • Laatst online: 17-12 21:07
CarpeVentum schreef op maandag 29 september 2025 @ 07:03:
@outlandos
Ik heb deze ram gekocht bij Amazon. uitvoering: Corsair Vengeance CMSX32GX5M1A4800C40

Amazon had ook nog €10 korting en 64,90 was een mooie prijs voor 32gb!
De prijzen nu zijn bizar... Maar vraagje wordt die 32GB wel aangesproken? of is het wat hij daadwerkelijk max gebruikt beperkt tot de 16GB?

  • Steef
  • Registratie: November 2004
  • Laatst online: 17-12 08:58

Steef

GoT's Most Eaten

Ben(V) schreef op donderdag 4 december 2025 @ 09:22:
Ssd's inzetten voor cache is niet erg zinvol in een Nas.
Dat is eigenlijk alleen nuttig voor grote databases.

Je kunt beter investeren in voldoende geheugen, als daar voldoende van aanwezig is zal linux die als cache gaan gebruiken en geheugen is veel sneller dan een ssd.
Ik gebruik de nas ook als media streamer, hij lijkt toch behoorlijk wat van de muziek te cachen op de ssd. Cache use is ~100 Gb (meer dan in geheugen zou passen), hitrate is iets van 25% momenteel.

....als ik de OS stats mag geloven.

Dank voor de toelichting op raid, dan blijf ik bij mijn ext4 mirror en maak ik een off-site backup aan.

[ Voor 9% gewijzigd door Steef op 04-12-2025 14:30 ]

Sony A7IV | Sony 24 - 105 G | Sigma 100 - 400 | Sigma 105 F2.8 MACRO


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Wat hij in de cache zit is van geen enkel belang, het systeem laat altijd zoveel mogelijk in de cache zitten als er ruimte is.
En als je bepaalde nummers een paar keer afspeelt schiet die hitrate omhoog, maar die zou bij een kleinere cache ineens veel hoger zijn.
Als je een cache hebt waar een nummer in past en je speelt dat nummer twee keer af dan heb je een 100% hitrate.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • upje
  • Registratie: April 2001
  • Laatst online: 18:32
Ik loop met docker tegen een probleem aan met meerder volumes. Ik wil voor een Plex container een shared folder op volume1 mounten, en een shared volume op volume2. Bijvoorbeeld:
* /volume1/Media/TV
* /volume2/Archive

In de docker GUI kan je shared folder selecteren, dus in bovenstaande voorbeeld selecteer ik Media/TV & Archief (zonder volume1 of 2 ervoor). Volume1 lukt prima, maar volume2 mislukt.

Het wijzigen van de container mislukt dan "Failed to edit container Plex. Error: UpdateContainer fail container name 'Plex': target volume mntPath /volume2/Archive not Found'

Iemand een idee hoe dit op te lossen is? Het is volgens mij geen permissie issue, dus wat dan wel?

[ Voor 3% gewijzigd door upje op 04-12-2025 16:02 ]


  • CarpeVentum
  • Registratie: November 2010
  • Laatst online: 20:53
upje schreef op donderdag 4 december 2025 @ 15:59:
Ik loop met docker tegen een probleem aan met meerder volumes. Ik wil voor een Plex container een shared folder op volume1 mounten, en een shared volume op volume2. Bijvoorbeeld:
* /volume1/Media/TV
* /volume2/Archive

In de docker GUI kan je shared folder selecteren, dus in bovenstaande voorbeeld selecteer ik Media/TV & Archief (zonder volume1 of 2 ervoor).

Het wijzigen van de container mislukt dan "Failed to edit container Plex. Error: UpdateContainer fail container name 'Plex': target volume mntPath /volume2/Archive not Found'

Iemand een idee hoe dit op te lossen is? Het is volgens mij geen permissie issue, dus wat dan wel?
Dit klinkt wederom als het mappen van paden in je docker configuratie. Is meerdere malen besproken in het topic. Zoek even op 'Docker' en 'Volume' in het topic. Dan zie je al snel dat je in je docker compose extra regels moet toevoegen om meerdere paden te binden/mounten wil Plex ze kunnen zien.

[ Voor 9% gewijzigd door CarpeVentum op 04-12-2025 16:04 ]


  • upje
  • Registratie: April 2001
  • Laatst online: 18:32
Ja dat begrijp ik; ik heb al een aantal dockers draaien met sommige meerdere mappen, maar dit is nou net de uitzondering omdat de ene folder op volume1 staat, en een andere op volume2. Dat lijkt de docker manager van Ugreen niet te snappen, terwijl dat wel zou moeten kunnen lijkt me.

Misschien is dit een beperking van de GUI, mag/kan dit alleen met een compose file?

[ Voor 13% gewijzigd door upje op 04-12-2025 16:08 ]


  • Dagarkin
  • Registratie: December 2020
  • Nu online
upje schreef op donderdag 4 december 2025 @ 16:06:
Ja dat begrijp ik; ik heb al een aantal dockers draaien met sommige meerdere mappen, maar dit is nou net de uitzondering omdat de ene folder op volume1 staat, en een andere op volume2. Dat lijkt de docker manager van Ugreen niet te snappen, terwijl dat wel zou moeten kunnen lijkt me.

Misschien is dit een beperking van de GUI, mag/kan dit alleen met een compose file?
Snel ff gekeken via chatGPT Chatgpt

De gui lijkt het idd niet te ondersteunen, werk zelf voornamelijk via portainer met stacks(docker composables), dan heb je sowieso bovenstaand probleem niet.

Via ssh kan je alsnog die docker aanmaken met de goede mounts en dan moet het ook werken.

  • upje
  • Registratie: April 2001
  • Laatst online: 18:32
Bedankt voor de hulp @Dagarkin Weet je nog dat ik zei dat het geen permissie issue was? Dat was het dus toch wel, op een of andere manier was de shared folder read-only geworden. Setup kan dus wel via de docker GUI, en in Plex wordt de shared folder op volume2 nu toch getoond.

Je bent een rund als je met docker stunt ;)

  • barellron
  • Registratie: April 2012
  • Laatst online: 22:42
upje schreef op donderdag 4 december 2025 @ 15:59:
Ik loop met docker tegen een probleem aan met meerder volumes. Ik wil voor een Plex container een shared folder op volume1 mounten, en een shared volume op volume2. Bijvoorbeeld:
* /volume1/Media/TV
* /volume2/Archive

In de docker GUI kan je shared folder selecteren, dus in bovenstaande voorbeeld selecteer ik Media/TV & Archief (zonder volume1 of 2 ervoor). Volume1 lukt prima, maar volume2 mislukt.

Het wijzigen van de container mislukt dan "Failed to edit container Plex. Error: UpdateContainer fail container name 'Plex': target volume mntPath /volume2/Archive not Found'

Iemand een idee hoe dit op te lossen is? Het is volgens mij geen permissie issue, dus wat dan wel?
Ik heb gewoon dit staan in mijn compose:
code:
1
2
3
4
5
volumes:
      - /volume2/appdata/plex:/config
      - /volume1/series:/tv
      - /volume1/movies:/movies
      - /volume1/videos:/videos


Ook als ik via GUI container aanmaak, kan ik shared folders kiezen van beide volume's.

Dit loopt gewoon en werkt goed. Bestaat Archive wel?

[ Voor 4% gewijzigd door barellron op 04-12-2025 20:09 ]


  • breew
  • Registratie: April 2014
  • Laatst online: 22:29
nou.. het wachten is begonnen.....
Afbeeldingslocatie: https://tweakers.net/i/pV_cUQNrGUIjSEPTUm7dPpq59D4=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/ys82wEqt6mzAM9aAZR87Tyqx.png?f=user_large

  • breew
  • Registratie: April 2014
  • Laatst online: 22:29
ook lekker automatisch AI naar NL vertaald.. 8)7

Afbeeldingslocatie: https://tweakers.net/i/Q4wL_-_3H0xl1OBzJZavO4xXMMA=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/TRbB7o2UKrxNFk9kezjnOqDH.png?f=user_large

  • Magic
  • Registratie: September 2001
  • Niet online
Ik (zoals velen van jullie) ben van plan over te stappen van Synology naar een Ugreen Nas.

Ik heb nu een DS723+ die ik gunstig kwijt kan, en wil deze vervangen voor een DXP2800.

Voornaamste redenen zijn meer performance voor enkele VM's als Home-Assistant, en hardwarematige transcoding voor Plex.

Het enige waar ik nog een antwoord op zoek: Ik maak nu backups naar Synology C2 storage waar ik zeer tevreden over ben. Wat voor opties heb je daartoe binnen de Nasync software? Welke BaaS providers gebruiken jullie en zijn jullie daar tevreden over?

Steam: Brainfrz82 | PSN: Brainfrz | Discord: Brainfrz


  • daniel360gt
  • Registratie: Juni 2010
  • Laatst online: 18-12 14:36
Ik maak een encrypted backup naar Google drive maar enkel omdat ik daar achterlijk veel storage beschikbaar heb. Uiteindelijk ga ik mijn oude Synology bij mijn ouders neerzetten regel ik via die weg de backup.

Het hangt af van hoeveel storage je voor je backup nodig hebt, maar het is misschien het overwegen waard om jouw Synology op dezelfde wijze in te zetten vs. maandelijks/jaarlijks te betalen voor een externe cloud.

Een raadsel voor een lekker speciaal biertje o.i.d., plaats je antwoord in mijn profielreacties: 2447202 (Hint: startpunt)


  • Magic
  • Registratie: September 2001
  • Niet online
daniel360gt schreef op vrijdag 5 december 2025 @ 09:38:
Ik maak een encrypted backup naar Google drive maar enkel omdat ik daar achterlijk veel storage beschikbaar heb. Uiteindelijk ga ik mijn oude Synology bij mijn ouders neerzetten regel ik via die weg de backup.

Het hangt af van hoeveel storage je voor je backup nodig hebt, maar het is misschien het overwegen waard om jouw Synology op dezelfde wijze in te zetten vs. maandelijks/jaarlijks te betalen voor een externe cloud.
Dat zijn precies de 2 opties die ik nou net niet wil :P

Ik heb ongeveer 500GB aan data die ik wil backuppen met voldoende retentie. De data wijzigt niet veel (+- 10GB per week), en groeit met 1GB per week, maar ik wil dat hij immutable is en alleen veranderingen meeneemt (op file-niveau, block niveau is niet nodig).

Ik wil ook geen anderen opzadelen met mijn NAS in huis en daar dan alsnog actief beheer op voeren. Ik vind het niet erg om te betalen voor de dienst als deze goed werkt. De kosten moeten wel vooraf bekend zijn (dus niet als AWS met kosten per API call, up/download, enzovoort)

Steam: Brainfrz82 | PSN: Brainfrz | Discord: Brainfrz


  • Greatsword
  • Registratie: Februari 2010
  • Niet online
@Magic Ik heb ook jarenlang C2 naar tevredenheid gebruikt.

Gebruik nu Sync & Backup en een externe oude Synology via RSYNC als vervanger.

  • RonJ
  • Registratie: December 2009
  • Laatst online: 22:09
Met duplicati kan je vrijwel elke cloud storage dienst gebruiken. Denk aan wasabi of backblaze. Ik ga zelf denk ik toch voor google drive omdat deze het minste kost voor 2TB.

Dit zijn de standaard opties:
Afbeeldingslocatie: https://tweakers.net/i/EaQR4p1PlGTYZ-PkM3UfxEFdDG8=/x800/filters:strip_icc():strip_exif()/f/image/ysBwBZT9zuJBsYvFHClsfnPM.jpg?f=fotoalbum_large

All-electric.


  • Magic
  • Registratie: September 2001
  • Niet online
RonJ schreef op vrijdag 5 december 2025 @ 10:09:
Met duplicati kan je vrijwel elke cloud storage dienst gebruiken. Denk aan wasabi of backblaze. Ik ga zelf denk ik toch voor google drive omdat deze het minste kost voor 2TB.

Dit zijn de standaard opties:
[Afbeelding]
Oh, duplicati ken ik, die heb ik in het verleden jaren gebruikt icm een webdav storage. Dat kan wel een goede optie zijn inderdaad.

Steam: Brainfrz82 | PSN: Brainfrz | Discord: Brainfrz


  • Mokum
  • Registratie: April 2023
  • Laatst online: 20:58
Heeft er iemand al ooit is een btrfs check --repair voor elkaar gekregen via ssh?

Ik krijg het volume voor geen enkele mogelijkheid unmount, waardoor de repair niet wil werken want moet geunmount zijn. Elk proces stoppen, werkt ook niet want die komen steeds terug.

Uiteindelijk geprobeerd om te booten via Ventoy en dan SystemRescue te starten om zo een btrfs check -- repair uit te voeren. Maar dan krijg ik weer en andere fout.

Idee iemand?

Afbeeldingslocatie: https://tweakers.net/i/DNgSixvJ8Tv-zzi8PGPrR4fUXbM=/800x/filters:strip_icc():strip_exif()/f/image/2qKme5J2Siv0c5svS3ifO7k2.jpg?f=fotoalbum_large

  • breew
  • Registratie: April 2014
  • Laatst online: 22:29
zo.. inmiddels draaien de eerste twee docker containers; portainer en jellyfin.
Day lijkt allemaal te werken als bedoeld, althans: op het lokale netwerk.

Nu wil ik natuurlijk ook film/serie/muziek kunnen kijken buitenshuis, en daarvoor ben ik op zoek naar een oplossing.
Mijn huidige oplossing is een wireguiard VPN verbinding met het fritzbox modem/router in de meterkast. Met passepartout als client op de iphone kan ik dan rechtstreeks verbinding leggen met jellyfin... werkt top.

Echter, ik heb op het netwerk ook andere servers (en shares) draaien die "openbaar" zijn op het LAN. Ik wik nite dat 'mensen van buitenaf' daar bij kunnen (bijvoorbeeld mijn moeder), en dan lopen rotzooien. Uiteraard zijn de shares/servers user/pass protected.. maar ik heb liever dat ze ze uberhaupt niet kunnen zien.
Ik heb behalve de fritzbox (7590) geen extra firewall draaien.

Eigenlijk zoek ik een oplossing om van buitenaf, op een vpn-achtige wijze, een verbinding te kunnen n aken met het LAN, maar dan de interne servers user-based beschikbaar te maken. (slaat dat ergens op?)

Volgens mij 'moet' ik dan als oplossing in de richting van tailscale denken...toch?

  • Quad
  • Registratie: Mei 2009
  • Laatst online: 22:25

Quad

Doof

Tailscale is idd wat je zoekt.
Of als je open poorten geen issue vindt, wireguard container.

Alles went behalve een Twent.
nggyu nglyd


  • Dagarkin
  • Registratie: December 2020
  • Nu online
breew schreef op zaterdag 6 december 2025 @ 11:51:
zo.. inmiddels draaien de eerste twee docker containers; portainer en jellyfin.
Day lijkt allemaal te werken als bedoeld, althans: op het lokale netwerk.

Nu wil ik natuurlijk ook film/serie/muziek kunnen kijken buitenshuis, en daarvoor ben ik op zoek naar een oplossing.
Mijn huidige oplossing is een wireguiard VPN verbinding met het fritzbox modem/router in de meterkast. Met passepartout als client op de iphone kan ik dan rechtstreeks verbinding leggen met jellyfin... werkt top.

Echter, ik heb op het netwerk ook andere servers (en shares) draaien die "openbaar" zijn op het LAN. Ik wik nite dat 'mensen van buitenaf' daar bij kunnen (bijvoorbeeld mijn moeder), en dan lopen rotzooien. Uiteraard zijn de shares/servers user/pass protected.. maar ik heb liever dat ze ze uberhaupt niet kunnen zien.
Ik heb behalve de fritzbox (7590) geen extra firewall draaien.

Eigenlijk zoek ik een oplossing om van buitenaf, op een vpn-achtige wijze, een verbinding te kunnen n aken met het LAN, maar dan de interne servers user-based beschikbaar te maken. (slaat dat ergens op?)

Volgens mij 'moet' ik dan als oplossing in de richting van tailscale denken...toch?
Gebruik zelf traefik container icm eigen domain naam via cloudflare.
Dan kan ik de containers die ik open stel bereiken op jellyfin.eigendomein.nl

Werkt perfect. Lokaal heb ik via de router adguard. Welke een dns rewrite doet op dit domein, waardoor ik lokaal alle containers kan bereiken op containernaam.eigendomein.nl.

Een ander voordeel is dat ik nu overal geldige ssl heb en hierdoor altijd https kan gebruiken.

  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
breew schreef op zaterdag 6 december 2025 @ 11:51:

Echter, ik heb op het netwerk ook andere servers (en shares) draaien die "openbaar" zijn op het LAN. Ik wik nite dat 'mensen van buitenaf' daar bij kunnen (bijvoorbeeld mijn moeder), en dan lopen rotzooien. Uiteraard zijn de shares/servers user/pass protected.. maar ik heb liever dat ze ze uberhaupt niet kunnen zien.
Ik heb behalve de fritzbox (7590) geen extra firewall draaien.
Je kunt ook gewoon UgreenLink gebruiken in combinatie met gebruikersrechten, dan kun je alles voor die gebruikers afschermen. (zo kun je de porno voor je moeder verborgen houden O-) )

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • breew
  • Registratie: April 2014
  • Laatst online: 22:29
Ben(V) schreef op zaterdag 6 december 2025 @ 13:33:
[...]

Je kunt ook gewoon UgreenLink gebruiken in combinatie met gebruikersrechten, dan kun je alles voor die gebruikers afschermen. (zo kun je de porno voor je moeder verborgen houden O-) )
Ik heb een beetje gemengde gevoelens over de ugreenlink.. die heb ik meteen uitgezet.
Om één of andere reden voelt het niet fijn om via een directe URL via elke willekeurige browser toegang te kunnen krijgen tot de NAS. En volgens mij loopt die link dan toch ook via de eigen (Chinese?) servers van UGreen? hmmmmm (jaja.. ik weet het, waarom je druk maken daarover als je zelf die Chinese NAS hebt gekocht met custom (closed) kernel ;-) ).

Porno staat hier niet op de NAS trouwens. Veel te gevaarlijk met al die pubers hier in huis. Ze zoeken hun eigen porno maar (zo naïef ban ik dan ook weer niet ;-) )

  • breew
  • Registratie: April 2014
  • Laatst online: 22:29
Even een vraagje over docker containers op de ugreen.
Aangezien in een docker-n00b ben, was/is eea me niet duidelijk.

In ene hoop standaard tutorials wordt in een compose file de UIG/GID van een user met admin privileges gebruikt. Dat lijkt me een security-issue, toch? Want mogelijk kan de container (indien gecompromitteerd) dan uitbreken en allerlei andere nare zaken doen op het systeem.
Checkvraag: Klopt dat?

Ik heb nu, bijvoorbeeld voor de jellyfin-docker-container, een user 'jellyfin' aangemaakt, en deze lid gemaakt van de group 'docker-users'. Deze user heeft enkel read/write access op de folder van zijn eigen docker-container (config files etc..), en op de media-folder (ik wilde eigenlijk read-only optie hierop, maar dan lukt denk ik de metadata en subtitle download niet goed.. toch?).

Na inloggen met ssh (kan enkel met admin account) en dan het commando
id jellyfin
krijg ik dan de gegevens die ik in de compose file van jellyfin kan gebruiken.

vraag 1:
Klopt mijn denkwijze een beetje, of sla ik de plank mbt docker (of security) helemaal mis nu?

vraag 2:
mis ik nog iets? (jaja, veel te algemeen, i know)

jellyfin stack
services:
  jellyfin:
    image: jellyfin/jellyfin:latest
    container_name: Jellyfin-HT
    # user: 1000:10 # oud
    user: 1000:1000 #user=jellyfin : group = docker-users
    group_add:
      - 105
    environment:
      TZ: Europe/Amsterdam
    volumes:
      - /volume1/docker/jellyfinht/config:/config:rw
      - /volume1/docker/jellyfinht/cache:/cache:rw
      - /volume1/docker/jellyfinht/logs:/logs:rw
      - /volume2/media/:/media:rw
    devices:
      - /dev/dri/renderD128:/dev/dri/renderD128
      - /dev/dri/card0:/dev/dri/card0
      - /dev/dri:/dev/dri
    # restart: on-failure:5
    restart: unless-stopped
    network_mode: host


en op de ugreen staan de premissies als volgt
Afbeeldingslocatie: https://tweakers.net/i/vsZDYGTVqgrJo3JvTbHvnSmpkGk=/800x/filters:strip_exif()/f/image/g3EEEntAeFTBgHnfznLfk4VP.png?f=fotoalbum_large

  • RA7
  • Registratie: Januari 2003
  • Laatst online: 17-12 16:02

RA7

Sinds kort een DXP2800 gekocht, met 2x 4TB Iron Wolf en 2x 2TB Samsung 990Pro SSD.
Bevalt prima, zeer noob vreindelijk. Ik gebruik het voornamelijk als backup en voor het streamen van series en films die op de hdd staan. Daarvoor gebruik ik gewoon de theater app van ugreen zelf. Werkt goed genog voor mij. Misschien dat ik emby gaat proberen, jellyfin installeren is voor mij even te moeilijk....

We are all accidents waiting to happen


  • scorpie
  • Registratie: Augustus 2001
  • Laatst online: 19:36

scorpie

Supra Addict

Jellyfin staat ook in de app center van UGreen, Emby niet, dus lijkt mij dat Jellyfin juist makkelijker is?

@breew je hebt gelijk voor wat betreft de user met admin privileges. Vaak wordt dat gedaan vanwege de eenvoud; Max rechten geven = minste issues die gerelateerd zouden kunnen zijn met permissions. Als je bewust een user (aanmaakt en) gebruikt die in zo min mogelijk linux groups zitten en die zelf zo min mogelijk rechten krijgt, dan zit je qua gedachten op het juiste spoor.

wil een Toyota Supra mkIV!!!!! | wil een Yamaha YZF-R{1,6} | wil stiekem ook een Ducati
"Security is just a state of mind"
PSN: scorpie | Diablo 3: scorpie#2470


  • RonJ
  • Registratie: December 2009
  • Laatst online: 22:09
breew schreef op maandag 8 december 2025 @ 10:58:
Even een vraagje over docker containers op de ugreen.
Aangezien in een docker-n00b ben, was/is eea me niet duidelijk.

In ene hoop standaard tutorials wordt in een compose file de UIG/GID van een user met admin privileges gebruikt. Dat lijkt me een security-issue, toch? Want mogelijk kan de container (indien gecompromitteerd) dan uitbreken en allerlei andere nare zaken doen op het systeem.
Checkvraag: Klopt dat?

Ik heb nu, bijvoorbeeld voor de jellyfin-docker-container, een user 'jellyfin' aangemaakt, en deze lid gemaakt van de group 'docker-users'. Deze user heeft enkel read/write access op de folder van zijn eigen docker-container (config files etc..), en op de media-folder (ik wilde eigenlijk read-only optie hierop, maar dan lukt denk ik de metadata en subtitle download niet goed.. toch?).

Na inloggen met ssh (kan enkel met admin account) en dan het commando
id jellyfin
krijg ik dan de gegevens die ik in de compose file van jellyfin kan gebruiken.

vraag 1:
Klopt mijn denkwijze een beetje, of sla ik de plank mbt docker (of security) helemaal mis nu?

vraag 2:
mis ik nog iets? (jaja, veel te algemeen, i know)

jellyfin stack
services:
  jellyfin:
    image: jellyfin/jellyfin:latest
    container_name: Jellyfin-HT
    # user: 1000:10 # oud
    user: 1000:1000 #user=jellyfin : group = docker-users
    group_add:
      - 105
    environment:
      TZ: Europe/Amsterdam
    volumes:
      - /volume1/docker/jellyfinht/config:/config:rw
      - /volume1/docker/jellyfinht/cache:/cache:rw
      - /volume1/docker/jellyfinht/logs:/logs:rw
      - /volume2/media/:/media:rw
    devices:
      - /dev/dri/renderD128:/dev/dri/renderD128
      - /dev/dri/card0:/dev/dri/card0
      - /dev/dri:/dev/dri
    # restart: on-failure:5
    restart: unless-stopped
    network_mode: host


en op de ugreen staan de premissies als volgt
[Afbeelding]
Klopt, ik zou dan alleen 1 "mediauser" oid username maken voor jellyfin en evt. gerelateerde *arr/nzb/torrent containers. Of zorg iig dat evt. aparte users dan in dezelfde groep zitten. Maar dat is weer lastiger omdat je dan de toegangsrechten niet in de GUI van UGOS kan regelen (die doet alleen permissies voor users, geen groepen). Dan moet je dat dus via SSH/CLI regelen.

Ik zie dit overigens vooral als een reëel issue als je enige services op je nas open aan het internet hangt.

All-electric.


  • posttoast
  • Registratie: April 2000
  • Laatst online: 22:29
RonJ schreef op maandag 8 december 2025 @ 11:36:
[...]


Klopt, ik zou dan alleen 1 "mediauser" oid username maken voor jellyfin en evt. gerelateerde *arr/nzb/torrent containers. Of zorg iig dat evt. aparte users dan in dezelfde groep zitten. Maar dat is weer lastiger omdat je dan de toegangsrechten niet in de GUI van UGOS kan regelen (die doet alleen permissies voor users, geen groepen). Dan moet je dat dus via SSH/CLI regelen.

Ik zie dit overigens vooral als een reëel issue als je enige services op je nas open aan het internet hangt.
Ik heb hier nginx/php draaien in een Docker container die onder mijn user draait. Da's geen strak plan dus? :D

omniscale.nl


  • breew
  • Registratie: April 2014
  • Laatst online: 22:29
RonJ schreef op maandag 8 december 2025 @ 11:36:
[...]


Klopt, ik zou dan alleen 1 "mediauser" oid username maken voor jellyfin en evt. gerelateerde *arr/nzb/torrent containers. Of zorg iig dat evt. aparte users dan in dezelfde groep zitten. Maar dat is weer lastiger omdat je dan de toegangsrechten niet in de GUI van UGOS kan regelen (die doet alleen permissies voor users, geen groepen). Dan moet je dat dus via SSH/CLI regelen.

Ik zie dit overigens vooral als een reëel issue als je enige services op je nas open aan het internet hangt.
Groepsrechten kan je via de GUI opgeven, toch?
Afbeeldingslocatie: https://tweakers.net/i/kydCFc6pjvXeOA_4NxfO3HPidIc=/800x/filters:strip_exif()/f/image/nfbsUxHYPUyzd4Vz5yel6M68.png?f=fotoalbum_large

  • RonJ
  • Registratie: December 2009
  • Laatst online: 22:09
posttoast schreef op maandag 8 december 2025 @ 11:45:
[...]

Ik heb hier nginx/php draaien in een Docker container die onder mijn user draait. Da's geen strak plan dus? :D
onder je main/admin user? nee niet echt nee. ;)

All-electric.


  • Dagarkin
  • Registratie: December 2020
  • Nu online
RA7 schreef op maandag 8 december 2025 @ 11:23:
Sinds kort een DXP2800 gekocht, met 2x 4TB Iron Wolf en 2x 2TB Samsung 990Pro SSD.
Bevalt prima, zeer noob vreindelijk. Ik gebruik het voornamelijk als backup en voor het streamen van series en films die op de hdd staan. Daarvoor gebruik ik gewoon de theater app van ugreen zelf. Werkt goed genog voor mij. Misschien dat ik emby gaat proberen, jellyfin installeren is voor mij even te moeilijk....
Waar loop je tegen aan met Jellyfin?

Er is sinds kort een Jellyfin topic https://gathering.tweakers.net/forum/list_messages/2314428
posttoast schreef op maandag 8 december 2025 @ 11:45:
[...]

Ik heb hier nginx/php draaien in een Docker container die onder mijn user draait. Da's geen strak plan dus? :D
Als je de container niet in privileged mode hebt draaien, dan zou ik mij geen zorgen maken.

  • Bananeman
  • Registratie: Juli 2000
  • Niet online
Taro schreef op vrijdag 21 november 2025 @ 19:52:
Ik denk erover een Synology NAS, Windows NAS, Raspberry Pi 5 en Intel NUC te vervangen door een UGreen DXP480T met om te starten 2x 4TB Samsung 990 Pro.

3 vragen:
  1. Weet iemand wat een gemiddeld stroomverbruik van de DXP480T is? De TDP van de CPU is volgens mij 15-55 Watt.
  2. Kan ik er later makkelijk een 3e en 4e SSD bij plaatsen om die op te nemen in een RAID array? Of moet ik er eigenlijk direct 4 plaatsen?
  3. Past de SSD versie mét heatsink ook? Neem aan van wel?
Edit: Inmiddels besteld met 2x SSD, benieuwd :)
Hoe zit je qua energieverbruik nu?

Ik heb een 5-bay Synology, die trekt gemiddeld 45W maar op zich zie ik een upgrade naar full SSD ook wel zitten ;)

Motor-forum.nl


  • Taro
  • Registratie: September 2000
  • Niet online

Taro

Moderator General Chat / Wonen & Mobiliteit

Kennis delen > DM

Bananeman schreef op maandag 8 december 2025 @ 18:56:
[...]

Hoe zit je qua energieverbruik nu?

Ik heb een 5-bay Synology, die trekt gemiddeld 45W maar op zich zie ik een upgrade naar full SSD ook wel zitten ;)
De DXP480T Plus heeft een verbruik van 22-25 Watt incl.:
  • 4x Samsung 990 Pro 4 TB NVME
  • 2x16 GB Crucial RAM
En o.a. PiHole, Teslamate en aantal andere Dockers draaien.

Netjes denk ik :)

Afbeeldingslocatie: https://tweakers.net/i/MLX7-M8xLMk0VciKwIH_sv57BvM=/800x/filters:strip_exif()/f/image/8N246WHaYpbtkCsu3tmh5YoU.png?f=fotoalbum_large

iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV


  • Bananeman
  • Registratie: Juli 2000
  • Niet online
Taro schreef op maandag 8 december 2025 @ 19:30:
[...]

De DXP480T Plus heeft een verbruik van 22-25 Watt incl.:
  • 4x Samsung 990 Pro 4 TB NVME
  • 2x16 GB Crucial RAM
En o.a. PiHole, Teslamate en aantal andere Dockers draaien.

Netjes denk ik :)

[Afbeelding]
Dank voor de info, zeer netjes idd! Nog iets lager dan ik had verwacht ook.

Motor-forum.nl


  • Chip.
  • Registratie: Mei 2006
  • Niet online
Weet iemand hoe je BlueZ installeert op UGREEN NAS OS? Ik probeer mijn bluetooth dongle werkend te krijgen op de UGREEN NAS, zodat Home Assistant (die in een docker draait) hem kan gebruiken.

Ik heb een bluetooth dongle, deze vind ik wel lsusb commando.
Bus 003 Device 003: ID 2357:0604 TP-Link TP-Link UB500 Adapter.

Alleen in Home Assistant (geinstalleerd via docker) krijg ik de melding:
Failed setup, will retry: hci0 (E0:D3:62:D7:15:B3): hci0 (E0:D3:62:D7:15:B3): Failed to start Bluetooth: [org.freedesktop.DBus.Error.ServiceUnknown] The name org.bluez was not provided by any .service files; Try power cycling the Bluetooth hardware.

Dit lijkt erop dat BlueZ mist. Alleen ik weet niet goed hoe ik BlueZ op de UGREEN NAS OS installeer. Een apt-get install werkt (vrij logisch gezien) niet...

Mijn docker compose yml is opzich vrij voor de handliggend;
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
services:
  homeassistant:
    image: homeassistant/home-assistant
    container_name: Home-Assistant
    mem_limit: 8g
    cpu_shares: 768
    security_opt:
      - no-new-privileges:true
    healthcheck:
     test: curl -f http://localhost:8123/ || exit 1
    network_mode: host
    privileged: true
    volumes:
      - /volume2/docker/homeassistant:/config:rw
      - /run/dbus:/run/dbus:ro
    environment:
      TZ: Europe/Amsterdam
    restart: on-failure:5

[ Voor 5% gewijzigd door Chip. op 08-12-2025 22:16 ]


  • Jensdm
  • Registratie: Januari 2025
  • Laatst online: 12:00
RA7 schreef op maandag 8 december 2025 @ 11:23:
Sinds kort een DXP2800 gekocht, met 2x 4TB Iron Wolf en 2x 2TB Samsung 990Pro SSD.
Bevalt prima, zeer noob vreindelijk. Ik gebruik het voornamelijk als backup en voor het streamen van series en films die op de hdd staan. Daarvoor gebruik ik gewoon de theater app van ugreen zelf. Werkt goed genog voor mij. Misschien dat ik emby gaat proberen, jellyfin installeren is voor mij even te moeilijk....
Die van mij wordt morgen geleverd, eerste NAS - wel zonder de SSD
Was mooie deal op amazon, 498 EUR voor betaald

Mijn bedoeling is RAID1 doen met de twee HDD + externe backup nog

Misschien domme vraag maar: welke meerwaarde leveren de SSD nog? Puur extra ruimte?
Mijn gebruik is voor opslag en backups, geen streaming - eventueel beveiligingscamera naar de toekomst toe

Wel enorm veel zin ermee aan de slag te gaan en alle mogelijkheden te leren kennen

  • algalid
  • Registratie: Juli 2012
  • Laatst online: 13:26
Ik heb het instapmodel DH2300 geïnstalleerd en het draait erg goed. Reviewers hadden wel een andere versie gekregen met 8GB RAM (die in China te koop is) maar de 4GB versie heeft minder apps van UGreen (oa geen Docker of Jellyfin).

Ik gebruik het meer als netwerkschijf dus mijn noden zijn redelijk eenvoudig.

Nu nog even kijken of de gigabitsnelheid te benaderen is met een erg groot bestand, met foto's en PDF's was het sowieso wat trager aan 45 MB/s maar dat is te verwachten.

  • ProfaNe
  • Registratie: Oktober 2012
  • Niet online
Chip. schreef op maandag 8 december 2025 @ 22:11:
Weet iemand hoe je BlueZ installeert op UGREEN NAS OS? Ik probeer mijn bluetooth dongle werkend te krijgen op de UGREEN NAS, zodat Home Assistant (die in een docker draait) hem kan gebruiken.

Ik heb een bluetooth dongle, deze vind ik wel lsusb commando.
Bus 003 Device 003: ID 2357:0604 TP-Link TP-Link UB500 Adapter.

Alleen in Home Assistant (geinstalleerd via docker) krijg ik de melding:
Failed setup, will retry: hci0 (E0:D3:62:D7:15:B3): hci0 (E0:D3:62:D7:15:B3): Failed to start Bluetooth: [org.freedesktop.DBus.Error.ServiceUnknown] The name org.bluez was not provided by any .service files; Try power cycling the Bluetooth hardware.

Dit lijkt erop dat BlueZ mist. Alleen ik weet niet goed hoe ik BlueZ op de UGREEN NAS OS installeer. Een apt-get install werkt (vrij logisch gezien) niet...

Mijn docker compose yml is opzich vrij voor de handliggend;
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
services:
  homeassistant:
    image: homeassistant/home-assistant
    container_name: Home-Assistant
    mem_limit: 8g
    cpu_shares: 768
    security_opt:
      - no-new-privileges:true
    healthcheck:
     test: curl -f http://localhost:8123/ || exit 1
    network_mode: host
    privileged: true
    volumes:
      - /volume2/docker/homeassistant:/config:rw
      - /run/dbus:/run/dbus:ro
    environment:
      TZ: Europe/Amsterdam
    restart: on-failure:5
Mis je niet de drivers voor BlueZ? Dat zeg je zelf al, check https://www.reddit.com/r/...bluez_for_home_assistant/ pak van https://pkgs.org/download/bluez de juiste debian package.

Daarnaast lees ik her en der iets over dat USB passtrough naar een docker container nog niet werkt op ugos, misschien weet iemand anders hier meer over :)

[ Voor 8% gewijzigd door ProfaNe op 09-12-2025 10:03 ]


  • Dagarkin
  • Registratie: December 2020
  • Nu online
Ter info via Ugreen support kan je een iso aanvragen voor hun os. Wat ze vragen is je type en je serial number. Ik heb nog wel de vraag open, waarom ze deze niet via hun website aanbieden.

  • Taro
  • Registratie: September 2000
  • Niet online

Taro

Moderator General Chat / Wonen & Mobiliteit

Kennis delen > DM

Dagarkin schreef op donderdag 11 december 2025 @ 08:59:
Ter info via Ugreen support kan je een iso aanvragen voor hun os. Wat ze vragen is je type en je serial number. Ik heb nog wel de vraag open, waarom ze deze niet via hun website aanbieden.
Zou dan evt. door kwaadwillenden of concurrentie kunnen worden misbruikt vermoed ik. Maar goed, dat komt de veiligheid uiteindelijk wel ten goede.

iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV


  • gert_jan
  • Registratie: Januari 2005
  • Laatst online: 18:09
Dagarkin schreef op donderdag 11 december 2025 @ 08:59:
Ter info via Ugreen support kan je een iso aanvragen voor hun os. Wat ze vragen is je type en je serial number. Ik heb nog wel de vraag open, waarom ze deze niet via hun website aanbieden.
Denk om te voor komen dat mensen met hun eigen hardware het OS gaan installeren en zo "gratis" mee leunen op UGREEN. terwijl een ander OS als unraid waar ze voor moeten betalen..

  • DennusB
  • Registratie: Mei 2006
  • Niet online
Ik zit te denken aan het kopen van een DXP4800 (niet de plus versie) ter vervanging van m'n Synology. Daar zit een N100 CPU in, kan ik met deze NAS video's (4k/1080p) via Plex transcoden of moet ik dan echt de plus hebben?

Owner of DBIT Consultancy | DJ BassBrewer


  • Dagarkin
  • Registratie: December 2020
  • Nu online
DennusB schreef op vrijdag 12 december 2025 @ 09:00:
Ik zit te denken aan het kopen van een DXP4800 (niet de plus versie) ter vervanging van m'n Synology. Daar zit een N100 CPU in, kan ik met deze NAS video's (4k/1080p) via Plex transcoden of moet ik dan echt de plus hebben?
Dat kan prima met een n100.

  • Dagarkin
  • Registratie: December 2020
  • Nu online
Taro schreef op donderdag 11 december 2025 @ 19:29:
[...]

Zou dan evt. door kwaadwillenden of concurrentie kunnen worden misbruikt vermoed ik. Maar goed, dat komt de veiligheid uiteindelijk wel ten goede.
gert_jan schreef op donderdag 11 december 2025 @ 20:32:
[...]

Denk om te voor komen dat mensen met hun eigen hardware het OS gaan installeren en zo "gratis" mee leunen op UGREEN. terwijl een ander OS als unraid waar ze voor moeten betalen..
Nu officieel reactie. Het is zegt idd weinig, maar goed ik ben blij dat ze wel de iso zelf geven.
Ik heb zelf de iso voor mezelf wel op meerdere plekken gezet. Ik heb een 2800xp en de iso is zelf 1.67 GB
Because it involves technical issues such as different devices and servers in different regions, we are currently unable to release the ISO public availability.

Thank you for your support and understanding.😊️

  • Taro
  • Registratie: September 2000
  • Niet online

Taro

Moderator General Chat / Wonen & Mobiliteit

Kennis delen > DM

Dagarkin schreef op vrijdag 12 december 2025 @ 11:51:
[...]


[...]


Nu officieel reactie. Het is zegt idd weinig, maar goed ik ben blij dat ze wel de iso zelf geven.
Ik heb zelf de iso voor mezelf wel op meerdere plekken gezet. Ik heb een 2800xp en de iso is zelf 1.67 GB


[...]
Is dat een ISO specifiek voor jouw versie, of mogelijk ook voor andere versies en onafhankelijk van de hardware? Of onbekend?

iotdomotica.nl | Replace fear of the unknown with curiosity | 76 kWh thuisaccu | Tesla Model Y LR & Model 3 SR+ | 11.460 Wp PV


  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Zal wel specifiek voor een model zijn, dus van de hardware.
Kan me niet voorstellen dat ze een hardware onafhankelijke ISO kunnen maken, dan zou er volledige "HAL" in de bios moeten zitten.
En dan zou het bijna onmogelijk zijn om iets als TrueNas te installeren.

[ Voor 16% gewijzigd door Ben(V) op 12-12-2025 16:30 ]

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • Dagarkin
  • Registratie: December 2020
  • Nu online
Taro schreef op vrijdag 12 december 2025 @ 15:20:
[...]

Is dat een ISO specifiek voor jouw versie, of mogelijk ook voor andere versies en onafhankelijk van de hardware? Of onbekend?
Denk dat ze een specieke img maken met je eigen serie nummer.

Zag dit tenminste op reddit voorbij komen, dan is het opsich wel logisch waarom je geen iso van hun site kan downloaden.
Would be a bad idea to share that. They store not only the serial but also an authentication key in that ISO which is tied to your system.

  • g00gle
  • Registratie: September 2016
  • Laatst online: 07:50
Dagarkin schreef op vrijdag 12 december 2025 @ 09:07:
[...]


Dat kan prima met een n100.
4K transcode met een N100, ik vraag het me af. Zal best wel iets kunnen, maar valt en staat denk ik wel met het source -> destination. Ik denk dat die er toch wel veel moeite mee zal hebben.

  • thaan
  • Registratie: Oktober 2004
  • Laatst online: 15:54
g00gle schreef op zondag 14 december 2025 @ 00:20:
[...]


4K transcode met een N100, ik vraag het me af. Zal best wel iets kunnen, maar valt en staat denk ik wel met het source -> destination. Ik denk dat die er toch wel veel moeite mee zal hebben.
Intel’s met QSV (zoals de N95/N100/N150) zijn juist enorm goed in hardware transcoding. De iGPU kan 4K content (HEVC) hardwarematig transcoden, meerdere streams tegelijk zelfs. Mediaservers worden juist vaak uitgekozen op Intel QSV.

  • RA7
  • Registratie: Januari 2003
  • Laatst online: 17-12 16:02

RA7

Jensdm schreef op dinsdag 9 december 2025 @ 09:02:
[...]


Die van mij wordt morgen geleverd, eerste NAS - wel zonder de SSD
Was mooie deal op amazon, 498 EUR voor betaald

Mijn bedoeling is RAID1 doen met de twee HDD + externe backup nog

Misschien domme vraag maar: welke meerwaarde leveren de SSD nog? Puur extra ruimte?
Mijn gebruik is voor opslag en backups, geen streaming - eventueel beveiligingscamera naar de toekomst toe

Wel enorm veel zin ermee aan de slag te gaan en alle mogelijkheden te leren kennen
Ik gebruik de ssd voornamelijk voor het streamen van video en audio.
Heb jij ook de DPX2800? want dan is 498 EUR wel vrij duur, ik had de mijne voor 279 EUR.

We are all accidents waiting to happen


  • Magic
  • Registratie: September 2001
  • Niet online
g00gle schreef op zondag 14 december 2025 @ 00:20:
[...]


4K transcode met een N100, ik vraag het me af. Zal best wel iets kunnen, maar valt en staat denk ik wel met het source -> destination. Ik denk dat die er toch wel veel moeite mee zal hebben.
Dat valt nog zat mee, vanaf een 4k blue-ray rip naar 1080P high quality in Plex kan met zo'n 3 streams tegelijk.

Steam: Brainfrz82 | PSN: Brainfrz | Discord: Brainfrz


  • Jensdm
  • Registratie: Januari 2025
  • Laatst online: 12:00
RA7 schreef op zondag 14 december 2025 @ 11:40:
[...]


Ik gebruik de ssd voornamelijk voor het streamen van video en audio.
Heb jij ook de DPX2800? want dan is 498 EUR wel vrij duur, ik had de mijne voor 279 EUR.
Ik was wat onduidelijk: Inclusief 2x Seagate Ironwolf 4TB gerekend. Apart was die ook 279 EUR

Duidelijk, voor mij niet opportuun dan.
Gisteren eerste stappen gezet, mappenstructuur en foto opslag van de iphone alvast in orde. Nu de rest nog.

  • upje
  • Registratie: April 2001
  • Laatst online: 18:32
Vandaag heeft de Ugreen UPS zijn werk gedaan. De hele wijk zat zonder stroom. De UPS heeft gedurende 5 kwartier de stroom geleverd aan mijn nas, een DXP2800. Nadat de stroom weer terugkwam, stond de UPS op 55%. Het lijkt er dus op dat de UPS gedurende ongeveer 2-2,5 uur de stroom kan overnemen.

Succes dus. Wel irritant: de NAS blijft maar piepen tijdens stroomuitval, best luid. Ik heb de instellingen nagelopen, maar zo te zien kan je niet instellen dat je geen piep wil.

  • this
  • Registratie: Maart 2020
  • Laatst online: 19:48
upje schreef op maandag 15 december 2025 @ 18:48:
Vandaag heeft de Ugreen UPS zijn werk gedaan. De hele wijk zat zonder stroom. De UPS heeft gedurende 5 kwartier de stroom geleverd aan mijn nas, een DXP2800. Nadat de stroom weer terugkwam, stond de UPS op 55%. Het lijkt er dus op dat de UPS gedurende ongeveer 2-2,5 uur de stroom kan overnemen.

Succes dus. Wel irritant: de NAS blijft maar piepen tijdens stroomuitval, best luid. Ik heb de instellingen nagelopen, maar zo te zien kan je niet instellen dat je geen piep wil.
Het is dan ook niet de bedoeling dat UPS er voor zorgt dat je NAS blijft draaien afaik.
De bedoeling van een UPS is zodat je gecontroleerd kunt afsluiten.
Vandaar dat die ook hele tijd blijft piepen.

  • upje
  • Registratie: April 2001
  • Laatst online: 18:32
Beide varianten zijn instelbaar. Of meteen afsluiten bij stroomuitval, of eerst verder draaien op de UPS. Ik heb voor de laatste optie gekozen. Als je daarvoor kiest dan wordt de NAS alsnog afgesloten zodra de accu lading 15% bereikt.

Het piepen heeft geen enkel nut, de NAS gaat sowieso netjes worden afgesloten zodra dat echt nodig is. Bovendien kan je de NAS niet meer handmatig afsluiten, je hebt immers geen werkend ander apparaat meer om dat mee te kunnen doen, want stroomuitval.

  • babbelbox
  • Registratie: Maart 2003
  • Laatst online: 21:36
upje schreef op maandag 15 december 2025 @ 21:43:
Beide varianten zijn instelbaar. Of meteen afsluiten bij stroomuitval, of eerst verder draaien op de UPS. Ik heb voor de laatste optie gekozen. Als je daarvoor kiest dan wordt de NAS alsnog afgesloten zodra de accu lading 15% bereikt.

Het piepen heeft geen enkel nut, de NAS gaat sowieso netjes worden afgesloten zodra dat echt nodig is. Bovendien kan je de NAS niet meer handmatig afsluiten, je hebt immers geen werkend ander apparaat meer om dat mee te kunnen doen, want stroomuitval.
Laptop met een via USB gevoedde switch?
Of een switch ook aan de UPS?

  • RonJ
  • Registratie: December 2009
  • Laatst online: 22:09
Daarom heb ik dus liever een "echte" UPS, zodat het netwerk e.d. ook in de lucht blijft. En de piep instelbaar is. >:) Moest hem wel met de hand als NUT-client configureren over SSH, dat werkt nog niet via de GUI, dat is vooralsnog alleen bedoeld voor een andere Ugreen NAS die dan de UPS heeft aangesloten en als NUT-server fungeert.

[ Voor 4% gewijzigd door RonJ op 16-12-2025 08:08 ]

All-electric.


  • maniace
  • Registratie: December 2011
  • Laatst online: 18-12 09:37
DennusB schreef op vrijdag 12 december 2025 @ 09:00:
Ik zit te denken aan het kopen van een DXP4800 (niet de plus versie) ter vervanging van m'n Synology. Daar zit een N100 CPU in, kan ik met deze NAS video's (4k/1080p) via Plex transcoden of moet ik dan echt de plus hebben?
Eerlijk zou ik voor de plus gaan gewoon dat klein beetje meer haal je er echt wel uit in de toekomst.
Anders zou ik voor de 4300 gaan die werkt net zo goed. De DXP4800 is een beetje in het wal en het schip als je het mij vraagt.

  • Jensdm
  • Registratie: Januari 2025
  • Laatst online: 12:00
Bij sync via de Ugreen app van foto's iphone --> NAS krijg ik 'getting resource...' waarbij de sync vast loopt

De Ugreen app blijft open, wifi verbinding is in orde, background refresh op iphone staat aan, ...

Tips?

  • raven22
  • Registratie: Januari 2004
  • Laatst online: 17:34
upje schreef op maandag 15 december 2025 @ 18:48:
Vandaag heeft de Ugreen UPS zijn werk gedaan. De hele wijk zat zonder stroom. De UPS heeft gedurende 5 kwartier de stroom geleverd aan mijn nas, een DXP2800. Nadat de stroom weer terugkwam, stond de UPS op 55%. Het lijkt er dus op dat de UPS gedurende ongeveer 2-2,5 uur de stroom kan overnemen.

Succes dus. Wel irritant: de NAS blijft maar piepen tijdens stroomuitval, best luid. Ik heb de instellingen nagelopen, maar zo te zien kan je niet instellen dat je geen piep wil.
Ik heb net de eaton ups aangesloten, werkt gelijk via de gui van de dxp2800.
Gelijk getest en gaat goed, bij mij piept de dxp2800 niet, maar de Eaton. Met ssh naar de nas kun je dat uitschakelen. (upscmd -u nut -p nut ups0 beeper.disable)

  • elsinga
  • Registratie: Februari 2003
  • Laatst online: 08:34

elsinga

=8-)

Iemand een goede suggestie voor een Cron job manager? Cronicle zie ik vaak voorbij komen, maar ik heb er inmiddels een handvol van geprobeerd en ze werken allemaal niet goed (of er is op de Docker Hub niets te vinden over de te gebruiken mappings, poorten en dergelijke).

Robert Elsinga =8-) | IT security, Scouting, zendamateur (PC5E, WC5E) | www.elsinga.net/robert, www.pc5e.nl


  • g00gle
  • Registratie: September 2016
  • Laatst online: 07:50
vim en /etc/cron.d/cronnaam
Ssh direct op je nas. Dat werkt het makkelijkste vind ik

  • Ben(V)
  • Registratie: December 2013
  • Laatst online: 16:15
Je kunt systemd in plaats van Cron gebruiken.
https://ryansouthgate.com/systemd-timer/

[ Voor 28% gewijzigd door Ben(V) op 19-12-2025 09:20 ]

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


  • celshof
  • Registratie: December 2009
  • Laatst online: 01:31
Probeerde net een Portainer/Docker stack opnieuw te deployen, maar kreeg foutmeldingen. Na wat onderzoek blijkt iptables alle uitgaande internetverkeer te blokkeren. Firewall in de GUI staat uit. Ik kan me niet herinneren dat ik dit aangepast heb. Iemand ook zo iets meegemaakt?
Ik draai versie 1.11.0.0053
Pagina: 1 ... 7 8 Laatste