Robert Elsinga =8-) | IT security, Scouting, zendamateur (PC5E, WC5E) | www.elsinga.net/robert, www.pc5e.nl
Wel een onprettig gevoel om in bash foutmeldingen in het Chinees te zien langskomen
'Multiple exclamation marks,' he went on, shaking his head, 'are a sure sign of a diseased mind' (Terry Pratchett, Eric)
Gefeliciteerd met je aankoop, heb je er geen NVME's in zitten? Lijkt me echt een top combo met die Thunderbolt 4 poorten om snel data over te zetten.F_J_K schreef op maandag 13 oktober 2025 @ 13:58:
Ik heb bij de korting afgelopen week een 6800 Pro gekocht, met nu 4 schijven, ouderwetsch in RAID5. So far so good. Later kan ik er wel zeg 2x 15 of 20TB bij plaatsen in een JBOD of RAID1 pool. Zou zat moeten zijn, tegen de tijd dat ook dat uit z'n voegen loopt ben ik wel weer toe aan een nieuwe NAS.
Wel een onprettig gevoel om in bash foutmeldingen in het Chinees te zien langskomen(bij chmod op mijn hele foto-verzameling)
DAS=Direct attachted storage
[ Voor 11% gewijzigd door DaveFlash op 13-10-2025 17:27 ]
Ah inderdaad, ook een M.2, ook voor de (Docker en native) apps. In de hoop dat dan de HDSs in rust kunnen blijven.Greatsword schreef op maandag 13 oktober 2025 @ 14:06:
[...] heb je er geen NVME's in zitten? Lijkt me echt een top combo met die Thunderbolt 4 poorten om snel data over te zetten.
'Multiple exclamation marks,' he went on, shaking his head, 'are a sure sign of a diseased mind' (Terry Pratchett, Eric)
Voor het laden van de backup kon ik wel in Medusa op de Ugreen.
Tja, wat zullen we daar nou op zeggen!
Ik heb ook jarenlang Medusa gedraaid op mijn Synology, maar ik kan je echt Sonarr aanbevelen, 10x beter.Boedha schreef op maandag 13 oktober 2025 @ 20:52:
Ik heb in een Docker, Medusa draaien. Nu heb ik vanaf mijn Synology NAS een backup gedraaid van Medusa en deze geladen in de Medusa op de Ugreen. Alleen na het herstarten van Meduse kan ik deze niet meer openen op de Ugreen. Aangezien de poorten op de beide NASSEN anders zijn heb ik die ook allebei geprobeerd http://IP:8081 of 8897.
Voor het laden van de backup kon ik wel in Medusa op de Ugreen.
Ga dan ook gelijk voor de volledige Arr stack zou ik zeggen met behulp van deze guide.
https://trash-guides.info...e/How-to-set-up/Synology/
In die guide zie ik dat reclyclarr ontbreekt?Greatsword schreef op maandag 13 oktober 2025 @ 21:10:
[...]
Ik heb ook jarenlang Medusa gedraaid op mijn Synology, maar ik kan je echt Sonarr aanbevelen, 10x beter.
Ga dan ook gelijk voor de volledige Arr stack zou ik zeggen met behulp van deze guide.
https://trash-guides.info...e/How-to-set-up/Synology/
Deze synchroniseert de kwaliteitsprofielen van trash guide naar Sonarr en Raddar.
Zelf media stack aangemaakt via portainer, wel erg fijn werken een online docker beheerder.
Als andere toevoeging wellicht iets zoals traefik, zodat je bv sonarr.jedomein of sonarr.localhost kunt doen ipv altijd via die diverse poorten en doordat ik eigen domein + cloudflare + letsencrypt ondersteuning zit in traefik heb je altijd ssl.
[ Voor 6% gewijzigd door Dagarkin op 13-10-2025 23:06 ]
Zelf nog niet gebruikt, aangezien ik al die profielen, formats etc. al had aangemaakt volgens de instructies https://trash-guides.info...ality-Settings-File-Size/ is maar net wat je fijn vindt natuurlijk, mogelijkheden zat.
Hopelijk komt er een mooie deal tijdens Black Friday.
| # | Categorie | Product | Prijs | Subtotaal |
|---|---|---|---|---|
| 2 | Interne harde schijven | WD Red Pro (2020) (512MB cache), 10TB | € 276,- | € 552,- |
| 1 | Geheugen intern | Corsair Vengeance CMSX32GX5M1A4800C40 | € 100,13 | € 100,13 |
| 2 | Interne SSD's | Crucial P310 M.2 2280, met heatsink 2TB | € 132,91 | € 265,82 |
| 1 | NAS | Ugreen NASync DXP2800 | € 295,- | € 295,- |
| Bekijk collectie Importeer producten | Totaal | € 1.212,95 | ||
Op dit moment is de 12TB maar een paar euro duurder. Zou dat met een schuin oog in de gaten houden rond Black Friday!Chip. schreef op dinsdag 14 oktober 2025 @ 22:44:
Nou laatste keer dat ik een NAS had was het QNAP en waren de grootste hard schijven nog 1 TB. En nu UGREEN een goeie NAS heeft met UPS denk ik dat dit mijn lijstje word, heb genoeg aan 10TB in Raid1 (om het simpel te houden). Ga het vooral gebruiken voor de opslag van documenten, media (foto's, films, series), webserver.
Hopelijk komt er een mooie deal tijdens Black Friday.
# Categorie Product Prijs Subtotaal 2 Interne harde schijven WD Red Pro (2020) (512MB cache), 10TB € 276,- € 552,- 1 Geheugen intern Corsair Vengeance CMSX32GX5M1A4800C40 € 100,13 € 100,13 2 Interne SSD's Crucial P310 M.2 2280, met heatsink 2TB € 132,91 € 265,82 1 NAS Ugreen NASync DXP2800 € 295,- € 295,- Bekijk collectie
Importeer productenTotaal € 1.212,95
Ik heb deze handleiding gebruikt.Greatsword schreef op zondag 12 oktober 2025 @ 10:45:
@Pietervs Ik kan deze guide aanbevelen voor de arr stack in docker. Je hoeft dan alleen nog qbittorrent toe te voegen aan de yml.
Dit is een zeer efficiënte manier voor downloaden etc door de hardlinks.
Is voor Synology maar werkt ook op Ugreen, pullio mag je dan weglaten en dat kan je eventueel later vervangen voor Dockwatch voor het updaten van je containers.
https://trash-guides.info...e/How-to-set-up/Synology/
En het uiteindelijke commando moet je aanpassen naar:
code:
1 sudo docker compose up
Het werkt niet helemaal vlekkeloos (ik kreeg iedere keer een foutmelding van het yaml bestand, waardoor ik die per aparte docker aangepast en geimporteerd heb), maar het is me wel gelukt
Dank voor de gids!
Pvoutput 3.190 Wp Zuid; Marstek Venus 5.12 kWh; HW P1; BMW i4 eDrive40
Hoe zag je yaml met foutmeldingen er uit?Pietervs schreef op woensdag 15 oktober 2025 @ 09:13:
[...]
Ik heb deze handleiding gebruikt.
Het werkt niet helemaal vlekkeloos (ik kreeg iedere keer een foutmelding van het yaml bestand, waardoor ik die per aparte docker aangepast en geimporteerd heb), maar het is me wel gelukt
Dank voor de gids!
Fijn dat het in ieder geval gelukt is.
Heb ik niet helder meer voor de geest. Iets met een loglevel wat verkeerd stond? Maar de yaml bevatte alle hosts die ik aan wilde maken. Die heb ik toen opgeknipt in 4 losse stukken en per onderdeel geïmporteerd, waarna het wel werkte.Greatsword schreef op woensdag 15 oktober 2025 @ 09:51:
[...]
Hoe zag je yaml met foutmeldingen er uit?
Fijn dat het in ieder geval gelukt is.
Nu door naar de volgende stap: leren hoe alles werkt
Pvoutput 3.190 Wp Zuid; Marstek Venus 5.12 kWh; HW P1; BMW i4 eDrive40
Ik niet… al is het alleen maar omdat je dan nooit weet wie er nog meer tussen zit. Zelf heb ik een VM er op gezet om zo remote inlog te regelen.Stalensnuitje schreef op donderdag 16 oktober 2025 @ 14:31:
Gebruiken jullie ook de Ugreen Link (of hoe noemen ze het) t.b.v. remote access eigenlijk? Ik vond de Quickconnect van Synology toch altijd wel handig om even vanaf een andere locatie in te loggen om even snel een bepaalde job aan te zetten, of een status te checken oid.
[ Voor 5% gewijzigd door renegrunn op 16-10-2025 15:13 ]
Ik heb sinds kort Tailscale draaien en ga dat van UGREEN uitzetten.Stalensnuitje schreef op donderdag 16 oktober 2025 @ 14:31:
Gebruiken jullie ook de Ugreen Link (of hoe noemen ze het) t.b.v. remote access eigenlijk? Ik vond de Quickconnect van Synology toch altijd wel handig om even vanaf een andere locatie in te loggen om even snel een bepaalde job aan te zetten, of een status te checken oid.
Als je vanaf het internet wilt verbinden naar je Nas, maak je eerst een connectie naar die cloud server en dan wordt als het ware die bestaande connectie overgedragen zodat je die link kunt gebruiken naar je Nas.
Er is weinig verschil tussen deze methoden, dus de ene is niet beter of slechter dan de anderen.
Kortom alles staat of valt met het feit of je die bedrijven wilt vertrouwen.
Een betere methode is gewoon zelf een VPN server op je Nas draaien en daarheen verbinden vanaf het internet, dan heb je echt alles zelf in de hand.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Heb je ook een goede router?Stalensnuitje schreef op donderdag 16 oktober 2025 @ 16:36:
Thanks voor de feedback, ik probeer het even te visualiseren: dus ik verbind naar mijn private IP:poort, die zet ik open naar de VPN die al draait op m’n NAS, en dan? Verbinden met UN/PW en waar gaat de verbinding dan naartoe? (VPN-n00b hier)
Heb zelf de gli.net flint 1 rond de 80 euro soms te krijgen.
Hierbij kan je openvpn server of wireguard opzetten.
Voorkeur wireguard, maar dit is super simpel op te zetten. Zeker als je het via de gui doet van de router en zelf met config bestanden is wireguard erg simpel. Wireguard is veel sneller tov openvpn.
Gli.net ondersteunt ook tailscale, maar voorkeur zelf altijd zelf in beheer.
Ik wilde eerst vragen "wat versta je onder goed", maar gezien het het standaard exemplaar van Delta is, is het antwoord sowieso eigenlijk al "nee"Dagarkin schreef op donderdag 16 oktober 2025 @ 18:17:
[...]
Heb je ook een goede router?
Heb zelf de gli.net flint 1 rond de 80 euro soms te krijgen.
Hierbij kan je openvpn server of wireguard opzetten.
Voorkeur wireguard, maar dit is super simpel op te zetten. Zeker als je het via de gui doet van de router en zelf met config bestanden is wireguard erg simpel. Wireguard is veel sneller tov openvpn.
Gli.net ondersteunt ook tailscale, maar voorkeur zelf altijd zelf in beheer.
Maarreh, wat maakt dat dan nog uit als je de VPN op de NAS draait?
Ik heb al mijn apps zoals docker op de SSD's staan. Enkel mijn multi media staat op de 8tb hardeschijven in een raid 1 config.
Moet ik nog ergens rekening mee houden? In principe gewoon formatteren, dan de raid verwijderen (of eerst de raid verwijderen en worden ze dan automatisch geformatteerd?) en vervolgens de harde schijven swappen lijkt me?
Het is meer het idee, de router is voor mij hetgene wat alles rond het netwerk regelt. Voordeel van gli.net is dat er aangepaste versie van open wrt op staat.Stalensnuitje schreef op donderdag 16 oktober 2025 @ 19:29:
[...]
Ik wilde eerst vragen "wat versta je onder goed", maar gezien het het standaard exemplaar van Delta is, is het antwoord sowieso eigenlijk al "nee"
Maarreh, wat maakt dat dan nog uit als je de VPN op de NAS draait?
Uiteindelijk zal het prima kunnen met een nas, maar pers vind ik het meer een taak voor de router.
De HDD heb ik bij twee shops besteld en morgen wordt de andere helft bezorgd (levertijd van 1 dag is 3 dagen geworden). Ook maar gelijk 64GB geheugen er bij, maar over de NVME twijfel ik nog.
De NAS is opslag en media server. Ik bewerk geen video's en denk niet dat de toevoeging van NVME drives voor read/write cache heel veel toevoegt in mijn situatie. De rest van het netwerk is ook maar 1GB en zie ik voorlopig nog niet zo snel veranderen. Wij hebben hier laptops om op te werken en mijn laptop is bijvoorbeeld de enige die met een ethernet kabel is aangesloten.
Het jeukt wel om in mijn kantoor 10GB te realiseren en niks aan de rest van het huis te doen.
PV: 27kWp | WP: Adlar Aurora II 6kw
Het is redelijk simpel, neem bijvoorbeeld OpenVpnStalensnuitje schreef op donderdag 16 oktober 2025 @ 16:36:
Thanks voor de feedback, ik probeer het even te visualiseren: dus ik verbind naar mijn private IP:poort, die zet ik open naar de VPN die al draait op m’n NAS, en dan? Verbinden met UN/PW en waar gaat de verbinding dan naartoe? (VPN-n00b hier)
- Start de VPN server op je Nas en activeert OpenVpn.
- Exporteert een .ovp bestand dat je nodig gaat hebben op je client.
- Kijkt wat het Wan iPadres van je router is en zet dat in het .ovp bestand
- Forward de VPN poort(1194) in je router naar het IP adres van je Nas.
- Start een OpenVPN client op bijvoorbeeld je telefoon
- Importeer het .ovp bestand in die OpenVpn client.
- Kies verbinden en voer je credentials van je Nas in
PS Een router gebruiken als VPN server is bijna nooit een goed idee, die hebben over het algemeen veel te weing rresouces (cpu /memory) om fatsoenlijk een Vpn verbinding te kunnen onderhouden.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
https://www.gl-inet.com/products/gl-ax1800/Ben(V) schreef op vrijdag 17 oktober 2025 @ 09:32:
[...]
PS Een router gebruiken als VPN server is bijna nooit een goed idee, die hebben over het algemeen veel te weing rresouces (cpu /memory) om fatsoenlijk een Vpn verbinding te kunnen onderhouden.
Je statement ivm vpn verbinding qua resources bovenstaande router bij diverse mensen opgezet en onderlinge verbindingdie gewoon 24/7 draaien zonder tegenslag. Heb meerdere wireguards servers op mijn router, waaronder 1 die 24/7 verbinding heeft met een andere netwerk en 1 wireguard om sporadisch een verbinding op te zetten, zoals het checken van mijn ugreen wanneer ik aan het werk ben.
Die routers die je nu benoemd, daar hebben tegenwoordig moderne routers geen last van.
De taak van vpn kan je veel beter plaatsen bij een router tov een nas.
Uiteindelijk wel ironisch als ik je onderstaande reactie lees, snap ik niet hoe je dan van mening kunt zijn, dat een nas verantwoordelijk is voor je vpn verbinding.
Ben(V) schreef op dinsdag 7 oktober 2025 @ 16:17:
Een Nas zonder een vorm van redundantie in de vorm van een raid set gebruiken is in mijn ogen onzinnig.
Dan kun je net zo goed een USB disk nemen.
[ Voor 9% gewijzigd door Dagarkin op 17-10-2025 09:45 ]
Maar als je een beetje data gaat oversturen is het niet meer vooruit te branden en loop je de kans dat de echte functionaliteit (het router) daar last van krijgt.
Probeer maar eens een videofile via die Vpn van jouw te kopiëren van of naar een laptop op het internet, dan zul je het zelf wel zien.
Een VPN onderhouden kost nu eenmaal behoorlijk wat resources.
En router worden nu eenmaal op maat ontworpen om de taak die ze hebben namelijk router en meestal wifi AP zijn, aan te kunnen.
Een fabrikant zou wel gek zijn om heel veel meer resources (en dus meer kosten) in die dingen te stoppen
Ik snap niet wat het gebruik van een Nas zonder raid iets te maken zou hebben met het draaien van een VPN server op die Nas?
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Je zei: "Zowel Tailscale als Ugreen Link als Synology QuickConnect zijn systemen waarbij je vanuit je Nas een link opzet naar de Cloudservers van die bedrijven."
Klopt dat wel met Tailscale? Tailscale is toch een wireguard (en dus VPN) implementatie? Ik heb niet perse het idee dat ik via een Tailscale cloud connect als ik in mijn tailnet m'n NAS benader? Althans, zo toont traceroute het bijvoorbeeld niet.
Waarom op 10Gbit aangesloten als je er niks mee doet?kiddyl schreef op donderdag 16 oktober 2025 @ 22:11:
Hier de eerste stappen gedaan om de DXP8800 in gebruik te nemen. Uiteindelijk uitgekomen op een SFP+ adapter naar RJ45 om 10GB te realiseren met de switch en het lijkt te werken.
De NAS is opslag en media server. Ik bewerk geen video's
De rest van het netwerk is ook maar 1GB en zie ik voorlopig nog niet zo snel veranderen. Wij hebben hier laptops om op te werken en mijn laptop is bijvoorbeeld de enige die met een ethernet kabel is aangesloten.
Het jeukt wel om in mijn kantoor 10GB te realiseren en niks aan de rest van het huis te doen.
Alleen de initiële verbinding loopt via de tailscale servers. Vervolgens heb je een directe peer-to-peer (met wireguard) verbinding tussen je twee devices. Je data loopt dus niet via tailscale, alleen het opzetten van je verbinding.CarpeVentum schreef op vrijdag 17 oktober 2025 @ 10:44:
@BenV
Je zei: "Zowel Tailscale als Ugreen Link als Synology QuickConnect zijn systemen waarbij je vanuit je Nas een link opzet naar de Cloudservers van die bedrijven."
Klopt dat wel met Tailscale? Tailscale is toch een wireguard (en dus VPN) implementatie? Ik heb niet perse het idee dat ik via een Tailscale cloud connect als ik in mijn tailnet m'n NAS benader? Althans, zo toont traceroute het bijvoorbeeld niet.
De opzet van je verbinding moet ook wel via tailscale gezien je geen poorten open hoeft te zetten en de devices op een of andere manier van elkaar moeten weten waar ze zijn
Ik heb nu alleen ervaring met gli.net flint 1 maar deze ondersteunen openvpn en wireguard en werkt supersnel. Vorige post een link naar de product site. openvpn met een snelheid van 112Mbps en wireguard 500 Mbps, dus deel je mening hierover niet. Er zijn fabrikanten die wel hun router goed indelen.Ben(V) schreef op vrijdag 17 oktober 2025 @ 09:58:
Een verbinding en dan wat web pagina's gebruiken is meestal niet het probleem.
Maar als je een beetje data gaat oversturen is het niet meer vooruit te branden en loop je de kans dat de echte functionaliteit (het router) daar last van krijgt.
Probeer maar eens een videofile via die Vpn van jouw te kopiëren van of naar een laptop op het internet, dan zul je het zelf wel zien.
Een VPN onderhouden kost nu eenmaal behoorlijk wat resources.
En router worden nu eenmaal op maat ontworpen om de taak die ze hebben namelijk router en meestal wifi AP zijn, aan te kunnen.
Een fabrikant zou wel gek zijn om heel veel meer resources (en dus meer kosten) in die dingen te stoppen
Ik snap niet wat het gebruik van een Nas zonder raid iets te maken zou hebben met het draaien van een VPN server op die Nas?
Zoals ik eerder zijn heb ik met 1 wireguard continue verbinding en draai jellyfin server en kan prima vanuit het andere netwerk wat verloopt via wireguard 4k hdr streamen. Sowieso las ik jou advies openvpn, maar dit protocol is inmiddels allang door wireguard ingehaald.
Die opmerking met die raid was ironisch bedoeld, had je verkeerde bericht gequote,
vandaar ik zie dat de taak van vpn, meer bij dat van een router past, dan een nas.
Mijn router draait zelf ook adguard en zo kan ik nog tal van andere applicaties hierop draaien.
Ben(V) schreef op dinsdag 7 oktober 2025 @ 16:46:
Normaal gesproken kan een Nas dat ook niet.
Nas is Network Attached Storage.
Iedereen gaat die dingen als een Sever voor andere doelen gebruiken
En dan maar de primaire taak van een Nas vergeten lijkt me niet handig.
Een Nas is voor veilige opslag van data en daar hoort een raid set bij in mijn ogen.
Ja precies, in hoeverre is dit dan een veiligere implementatie dan Ugreen Link of Synology's Quickconnect? Mijn aanname is dat het veiliger is...ProfaNe schreef op vrijdag 17 oktober 2025 @ 11:37:
[...]
Alleen de initiële verbinding loopt via de tailscale servers. Vervolgens heb je een directe peer-to-peer (met wireguard) verbinding tussen je twee devices. Je data loopt dus niet via tailscale, alleen het opzetten van je verbinding.
De opzet van je verbinding moet ook wel via tailscale gezien je geen poorten open hoeft te zetten en de devices op een of andere manier van elkaar moeten weten waar ze zijn
Voor nu omdat het kan. Bij meerdere gebruikers kan je misschien ook beven de 1GB komen.Greatsword schreef op vrijdag 17 oktober 2025 @ 10:52:
[...]
Waarom op 10Gbit aangesloten als je er niks mee doet?
Ik heb de bekabeling in mijn huis al wel gecontroleerd op 10GB en dat werkt. Om 10GB in het hele huis te hebben is een andere switch voldoende. De enige bottleneck is de prijs van zulke switches.
PV: 27kWp | WP: Adlar Aurora II 6kw
Bijna Black Fridaykiddyl schreef op vrijdag 17 oktober 2025 @ 12:17:
[...]
De enige bottleneck is de prijs van zulke switches.
PV: 27kWp | WP: Adlar Aurora II 6kw
Dat is allemaal een kwestie dat je derde partijen moet vertrouwen of dat nu Tailscale, Ugreen of Synology is.CarpeVentum schreef op vrijdag 17 oktober 2025 @ 12:12:
[...]
Ja precies, in hoeverre is dit dan een veiligere implementatie dan Ugreen Link of Synology's Quickconnect? Mijn aanname is dat het veiliger is...
Als je zelf een VPN server opzet hoef je niemand te vertrouwen.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Je kan ook zelf Headscale draaien. Wordt aan gewerkt door mensen die in dienst zijn van Tailscale en ook uren krijgen hiervoor. Verbinding maken met Headscale wordt door de officiële Tailscale-clients ondersteund. Dus als je bereid bent om zelf de overhead van maintenance te dragen dan is dat een optie.Ben(V) schreef op vrijdag 17 oktober 2025 @ 12:56:
[...]Dat is allemaal een kwestie dat je derde partijen moet vertrouwen of dat nu Tailscale, Ugreen of Synology is.
Als je zelf een VPN server opzet hoef je niemand te vertrouwen.
Even voor mijn beeldvorming, want ik ben hier nu ook voor het eerst mee bezig: is dat iets wat je "gewoon" aan of uit kunt zetten in de yaml, of heb je daar ook weer specifieke extra hardware op usb ofzo voor nodig?Dagarkin schreef op donderdag 9 oktober 2025 @ 20:14:
[...]
Zo te zien heb je geen hardware transcoding voor video en ontbreekt hardware acceleration voor machine learning scheelt ook weer, dat je hiervoor de cpu niet hoeft te gebruiken.
de yaml aanpassen volstaat en in immich moet je volgens mij het voor video aanzetten. Die link die ik gaf moet het volgens mij allemaal wel in staanStalensnuitje schreef op vrijdag 17 oktober 2025 @ 13:34:
[...]
Even voor mijn beeldvorming, want ik ben hier nu ook voor het eerst mee bezig: is dat iets wat je "gewoon" aan of uit kunt zetten in de yaml, of heb je daar ook weer specifieke extra hardware op usb ofzo voor nodig?
ugreen dx 2800 is altijd intel quick syncIn the Admin page under Video transcoding settings, change the hardware acceleration setting to the appropriate option and save.
[ Voor 15% gewijzigd door Dagarkin op 17-10-2025 14:27 ]
Oe, da's wel interessant. De DXP2800 is op de Duitse site sowieso al een stuk goedkoper, namelijk 280 euro, tegenover 320 euro op de EU site. De DE-site levert zonder problemen/gedoe in NL?Phyc schreef op vrijdag 17 oktober 2025 @ 15:47:
Voor de twijfelaars, met deze code: UGREENNAS5 is de DXP2800 nu EUR 266,-.
(de goedkoopste leverancier in de PW is 285 euro, de goedkoopste leverancier in de PW die genoeg sterren heeft levert voor 310 euro)
Helaas... alleen levering in Duitsland & Oostenrijk voor die prijs.
[ Voor 17% gewijzigd door upje op 17-10-2025 16:24 ]
Thanks!Dagarkin schreef op vrijdag 17 oktober 2025 @ 14:21:
[...]
de yaml aanpassen volstaat en in immich moet je volgens mij het voor video aanzetten. Die link die ik gaf moet het volgens mij allemaal wel in staan
[...]
ugreen dx 2800 is altijd intel quick sync
Het draait inmiddels, nu nog zonder HW coding, dat pak ik later nog wel een keer op. Ik vraag me nu alleen af of mijn setup klopt. Ik ging er op basis van de verschillende user guides vanuit dat je de Immich-folder in de docker-map gebruikt voor (a) het draaien van de app en (b) als soort van temp-map voor uploads. Ik heb die namelijk op mijn SSD staan. Maar, mijn grote bult met foto's staat natuurlijk op de HDDs. Ik kan alleen niet vinden hoe ik díe nu toevoeg in Immich. T is vast reuze simpel, maar volgens mij heb ik de basics niet goed begrepen, of ik zie iets grandioos over het hoofd
Je kunt wel andere mappings toevoegen van de foto’s op hdd’s en deze dan via Immich als externe bibliotheek inladen. Zie https://docs.immich.app/guides/external-library/Stalensnuitje schreef op vrijdag 17 oktober 2025 @ 16:51:
[...]
Thanks!
Het draait inmiddels, nu nog zonder HW coding, dat pak ik later nog wel een keer op. Ik vraag me nu alleen af of mijn setup klopt. Ik ging er op basis van de verschillende user guides vanuit dat je de Immich-folder in de docker-map gebruikt voor (a) het draaien van de app en (b) als soort van temp-map voor uploads. Ik heb die namelijk op mijn SSD staan. Maar, mijn grote bult met foto's staat natuurlijk op de HDDs. Ik kan alleen niet vinden hoe ik díe nu toevoeg in Immich. T is vast reuze simpel, maar volgens mij heb ik de basics niet goed begrepen, of ik zie iets grandioos over het hoofd
Je kunt trouwens altijd de volume bind via de ugreen file explorer bekijken hoe Immich dit indeelt. Volgens mij heb je dan een subfolder van upload, en library en ook diverse anderen.
Ik ben zelf ook nieuw, maar nieuwe uploads komen nu altijd in de collectie te staan van Immich dus op je ssd en volgens mij kan je deze nog niet kopieren naar de andere bibliotheken. Zag wel topics hierover dus grote kans dat deze features alsnog gaan komen.
Anders zou je het moet hermappen volgens https://docs.immich.app/guides/custom-locations/
Hier zijn upload en library altijd gekoppeld aan dezelfde schijf, maar die overige kan je bv dan wel op een ssd mounten, maar je upload en library staan dan op de hdd.
[ Voor 9% gewijzigd door Dagarkin op 17-10-2025 18:05 ]
Ja die zag ik, maar als ik gewoon in UGOS het path van die (shared) folder kopieer geeft ie aan dat ie daar niet bij kan. Of moet ik dat path dan op een of andere manier nog beschikbaar maken in/voor de Docker container?Dagarkin schreef op vrijdag 17 oktober 2025 @ 18:00:
[...]
Je kunt wel andere mappings toevoegen van de foto’s op hdd’s en deze dan via Immich als externe bibliotheek inladen. Zie https://docs.immich.app/guides/external-library/
Hoe ziet je path eruit?Stalensnuitje schreef op vrijdag 17 oktober 2025 @ 18:09:
[...]
Ja die zag ik, maar als ik gewoon in UGOS het path van die (shared) folder kopieer geeft ie aan dat ie daar niet bij kan. Of moet ik dat path dan op een of andere manier nog beschikbaar maken in/voor de Docker container?
Zelf via ugos heb ik photos en in de docker composable /volume1/Photos, ik weet niet of daar ook de storage pool pad wordt meegenomen of niet.
Heb je trouwens ook ssh toegang, dan kan je ook heel makkelijk zien hoe de directory structuur zit opgebouwd.
Ja, idem: "/volume1/Photos". Maar in de docker-compose heb ik "/volume2/docker/album" aangegeven volgens een tutorial. En aangezien ik dus dacht dat dat meer als "temp" wordt gebruikt leek me dat wel logisch. Maar goed, anders pas ik m gewoon aan in de composable idd.Dagarkin schreef op vrijdag 17 oktober 2025 @ 18:16:
[...]
Hoe ziet je path eruit?
Zelf via ugos heb ik photos en in de docker composable /volume1/Photos, ik weet niet of daar ook de storage pool pad wordt meegenomen of niet.
Heb je trouwens ook ssh toegang, dan kan je ook help makkelijk leren hoe de directory structuur zit opgebouwd.
Ja situatie 1, zoals je het nu hebt.Stalensnuitje schreef op vrijdag 17 oktober 2025 @ 18:36:
[...]
Ja, idem: "/volume1/Photos". Maar in de docker-compose heb ik "/volume2/docker/album" aangegeven volgens een tutorial. En aangezien ik dus dacht dat dat meer als "temp" wordt gebruikt leek me dat wel logisch. Maar goed, anders pas ik m gewoon aan in de composable idd.
De mapping op ssd.
Dan kan je zelf die externe toevoegen
Locatie op hdd - naar bv library/extern1
Je kunt zoveel mounts aanmaken als je wilt.
Bovenstaande mount library/extern1 kan je dan op Immich instellen als externe library.
Situatie 2 is een soort reset, waarbij je het opnieuw instelt, door de map te verwijderen en dan opnieuw te mounten naar de hdd.
Dus uploaddir isde hdd lokatie en die andere mount je dan naar de ssd.
Plus net zoals bovenstaande situatie met externe en die als externe library toevoegen
services:
immich-server:
volumes:
- ${UPLOAD_LOCATION}:/data
+ - ${THUMB_LOCATION}:/data/thumbs
+ - ${ENCODED_VIDEO_LOCATION}:/data/encoded-video
+ - ${PROFILE_LOCATION}:/data/profile
+ - ${BACKUP_LOCATION}:/data/backups
- /etc/localtime:/etc/localtime:ro
[ Voor 3% gewijzigd door Dagarkin op 17-10-2025 20:03 ]
Thanks, erg behulpzaam allemaal. Ik merk dat ik gewoon die terminologie rondom Docker ook nog niet helemaal snapDagarkin schreef op vrijdag 17 oktober 2025 @ 19:59:
[...]
Ja situatie 1, zoals je het nu hebt.
De mapping op ssd.
Dan kan je zelf die externe toevoegen
Locatie op hdd - naar bv library/extern1
Je kunt zoveel mounts aanmaken als je wilt.
Bovenstaande mount library/extern1 kan je dan op Immich instellen als externe library.
Situatie 2 is een soort reset, waarbij je het opnieuw instelt, door de map te verwijderen en dan opnieuw te mounten naar de hdd.
Dus uploaddir isde hdd lokatie en die andere mount je dan naar de ssd.
Plus net zoals bovenstaande situatie met externe en die als externe library toevoegen
[...]
Zelfde voor die HW encoding, daar staat dan bij dat je die hwaccel.*.yml "in dezelfde folder moet plaatsen als als de docker-compose.yml". Dan denk ik dus, waar staat die yml nu überhaupt op de NAS?
[ Voor 46% gewijzigd door Stalensnuitje op 17-10-2025 21:50 ]
Dit werkt dus gewoon, als je de config maar goed hebt. Een deel van de clou is een netwerk defineren met IPv6 ondersteuning in je docker-compose file.
[ Voor 102% gewijzigd door storeman op 17-10-2025 22:12 ]
"Chaos kan niet uit de hand lopen"
Gebruik je toevallig ook portainer?Stalensnuitje schreef op vrijdag 17 oktober 2025 @ 21:49:
[...]
Thanks, erg behulpzaam allemaal. Ik merk dat ik gewoon die terminologie rondom Docker ook nog niet helemaal snap![]()
Zelfde voor die HW encoding, daar staat dan bij dat je die hwaccel.*.yml "in dezelfde folder moet plaatsen als als de docker-compose.yml". Dan denk ik dus, waar staat die yml nu überhaupt op de NAS?Of moet ik die "acceleration-yaml" files ook in een container composen?
Hier een vriendelijke guide.
https://mariushosting.com...ainer-on-your-ugreen-nas/
Hieronder een screenshot. Ik werk nu altijd via de laptop en portainer doet moeilijk om via safari de yml te kopieren. Dit is dan het stukje van de Immich server en het extenden kan je helemaal overslaan, zoals je ziet heb ik het extend hierin geplakt. Als laatste ook machine learning.
:strip_exif()/f/image/5SkMXlrUqUThc2UmHAAQoyRv.jpg?f=fotoalbum_large)
Die g mag volgens mij niet is geen hexdecimaalstoreman schreef op vrijdag 17 oktober 2025 @ 22:02:
Iemand al ervaring met IPv6 op de NAS? Het lukt mij nog niet om IPv6 op docker aan de praat te krijgen.
"Chaos kan niet uit de hand lopen"
Ugreen is in Chinese handen. Tailscale zit in Canada. Alleen al om die reden gebruik ik liever TailscaleCarpeVentum schreef op vrijdag 17 oktober 2025 @ 12:12:
[...]
Ja precies, in hoeverre is dit dan een veiligere implementatie dan Ugreen Link of Synology's Quickconnect? Mijn aanname is dat het veiliger is...
Vraagje hierover, want ik ga met Trash/Arr stack aan de gang: is het nodig / nuttig genoeg om dit achter een VPN client te zetten? En, die Hardlinks kunnen niet over volumes heen staat in de Trash guide... Kun je dan wel de apps op het ene volume hebben (SSD) en de rest op het 2e volume (HDD)? Dan komt de hele folder structuur voor de media dus allemaal op het HDD volume? Hoe heb jij dit?Greatsword schreef op zondag 12 oktober 2025 @ 10:45:
@Pietervs Ik kan deze guide aanbevelen voor de arr stack in docker. Je hoeft dan alleen nog qbittorrent toe te voegen aan de yml.
Dit is een zeer efficiënte manier voor downloaden etc door de hardlinks.
Is voor Synology maar werkt ook op Ugreen, pullio mag je dan weglaten en dat kan je eventueel later vervangen voor Dockwatch voor het updaten van je containers.
https://trash-guides.info...e/How-to-set-up/Synology/
En het uiteindelijke commando moet je aanpassen naar:
code:
1 sudo docker compose up
Mijn eigen stack momenteel gebruik de vpn container niet(glue), maar als je vie nieuwsgroepen download heb je geen vpn nodig. als je via torrent dan altijd via vpn.CarpeVentum schreef op zondag 19 oktober 2025 @ 12:22:
[...]
Vraagje hierover, want ik ga met Trash/Arr stack aan de gang: is het nodig / nuttig genoeg om dit achter een VPN client te zetten? En, die Hardlinks kunnen niet over volumes heen staat in de Trash guide... Kun je dan wel de apps op het ene volume hebben (SSD) en de rest op het 2e volume (HDD)? Dan komt de hele folder structuur voor de media dus allemaal op het HDD volume? Hoe heb jij dit?
Ik had eerst wel via glue, maar vaak genoeg problemen en feitelijk is het protocol van usenet veilig en kan dit zonder vpn.
Je kunt zoveel directories mounten zoals je wilt. mijn configs dir is de ssd en de media dirs zijn de hdds.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
| version: '3.7' services: sabnzbdvpn: container_name: sabnzbdvpn image: lscr.io/linuxserver/sabnzbd:latest #network_mode: "service:gluetun" networks: - nas volumes: - '${CONFIGS_DIR}/sabnzbdvpn/:/config' - '${DOWNLOAD_DIR}:/downloads' - '${COMPLETED_DIR}:/completed' - '/etc/localtime:/etc/localtime:ro' env_file: stack.env environment: - PUID= ${PUID} - PGID= ${PGID} - TZ= ${TIMEZONE} labels: - traefik.enable=true - traefik.http.routers.sabnzbdvpn.rule=Host(`nzb.${HOSTNAME}`) - traefik.http.services.sabnzbdvpn.loadbalancer.server.port=8080 - traefik.http.routers.sabnzbdvpn.entrypoints=https - traefik.http.routers.sabnzbdvpn.tls=true - traefik.http.routers.sabnzbdvpn.tls.certresolver=cloudflare radarr: env_file: stack.env container_name: radarr image: lscr.io/linuxserver/radarr:latest ports: - 7878:7878 networks: - nas volumes: - '${CONFIGS_DIR}/radarr/:/config' - '${MOVIES_DIR}:/media/movies' - '${COMPLETED_DIR}:/completed' - '/etc/localtime:/etc/localtime:ro' environment: - PUID=${PUID} - PGID=${PGID} - TZ=${TIMEZONE} labels: - traefik.enable=true - traefik.http.routers.radarr.rule=Host(`radarr.${HOSTNAME}`) - traefik.http.services.radarr.loadbalancer.server.port=7878 - traefik.http.routers.radarr.entrypoints=https - traefik.http.routers.radarr.tls=true - traefik.http.routers.radarr.tls.certresolver=cloudflare sonarr: image: lscr.io/linuxserver/sonarr:latest container_name: sonarr environment: - PUID=${PUID} - PGID=${PGID} - TZ=${TIMEZONE} ports: - 8989:8989 networks: - nas volumes: - ${CONFIGS_DIR}/sonarr:/config - ${SERIES_DIR}/:/media/series - ${COMPLETED_DIR}/:/completed restart: unless-stopped labels: - traefik.enable=true - traefik.http.routers.sonarr.rule=Host(`sonarr.${HOSTNAME}`) - traefik.http.services.sonarr.loadbalancer.server.port=8989 - traefik.http.routers.sonarr.entrypoints=https - traefik.http.routers.sonarr.tls=true - traefik.http.routers.sonarr.tls.certresolver=cloudflare bazarr: image: 'lscr.io/linuxserver/bazarr:latest' container_name: bazarr environment: - PUID= ${PUID} - PGID= ${PGID} - TZ=${TIMEZONE} ports: - 6767:6767 networks: - nas volumes: - '${CONFIGS_DIR}/bazarr/:/config' - '${MOVIES_DIR}:/media/movies' - '${SERIES_DIR}:/media/series' labels: - traefik.enable=true - traefik.http.routers.bazarr.rule=Host(`bazarr.${HOSTNAME}`) - traefik.http.services.bazarr.loadbalancer.server.port=6767 - traefik.http.routers.bazarr.entrypoints=https - traefik.http.routers.bazarr.tls=true - traefik.http.routers.bazarr.tls.certresolver=cloudflare prowlarr: image: 'lscr.io/linuxserver/prowlarr:latest' container_name: prowlarr environment: PUID: '${PUID}' PGID: '${PGID}' ports: - 9696:9696 networks: - nas volumes: - '${CONFIGS_DIR}/prowlarr/:/config' - '/etc/localtime:/etc/localtime:ro' labels: - traefik.enable=true - traefik.http.routers.prowlarr.rule=Host(`prowlarr.${HOSTNAME}`) - traefik.http.services.prowlarr.loadbalancer.server.port=9696 - traefik.http.routers.prowlarr.entrypoints=https - traefik.http.routers.prowlarr.tls=true - traefik.http.routers.prowlarr.tls.certresolver=cloudflare recyclarr: image: ghcr.io/recyclarr/recyclarr container_name: recyclarr user: ${PUID}:${PGID} networks: - nas volumes: - ${CONFIGS_DIR}/recyclarr/:/config environment: - TZ=${TIMEZONE} gluetun: container_name: gluetun image: qmcgaw/gluetun cap_add: - NET_ADMIN networks: - nas devices: - /dev/net/tun:/dev/net/tun environment: - VPN_SERVICE_PROVIDER=custom - VPN_TYPE=wireguard - WIREGUARD_ENDPOINT_IP=${WG_ENDPOINT} - WIREGUARD_ENDPOINT_PORT=${WG_ENDPOINT_PORT} - WIREGUARD_PUBLIC_KEY=${WG_PUBLIC_KEY} - WIREGUARD_PRIVATE_KEY=${WG_PRIVATE_KEY} - WIREGUARD_ADDRESSES=${WG_ADDRESS} networks: nas: driver: bridge |
Ja, die guide had ik gevolgd tot ik z'n Donate-to-complete knop zag en toen sloeg de zuinige Nederlandermodus weer toeDagarkin schreef op vrijdag 17 oktober 2025 @ 22:02:
[...]
Gebruik je toevallig ook portainer?
Hier een vriendelijke guide.
https://mariushosting.com...ainer-on-your-ugreen-nas/
Hieronder een screenshot. Ik werk nu altijd via de laptop en portainer doet moeilijk om via safari de yml te kopieren. Dit is dan het stukje van de Immich server en het extenden kan je helemaal overslaan, zoals je ziet heb ik het extend hierin geplakt. Als laatste ook machine learning.
[Afbeelding]
[Afbeelding]
En voor mijn begrip van die { } in jouw code: verwijs je daarmee naar de .env?
Ja herkenbaar op een gegeven moment ook gedaan en uiteindelijk op onderstaande resultaat gekomen.Stalensnuitje schreef op zondag 19 oktober 2025 @ 14:26:
[...]
Ja, die guide had ik gevolgd tot ik z'n Donate-to-complete knop zag en toen sloeg de zuinige Nederlandermodus weer toeDoe ik zo nog wel even, want de originele Immich-env die je van hun site kunt downloaden bevat volgens mij veel minder info dan in die tutorial.
En voor mijn begrip van die { } in jouw code: verwijs je daarmee naar de .env?
Traefik met labels evt verwijderen en de .env hostname heb ik op **** gezet, aangezien dit puur is voor traefik
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
| services: immich-redis: image: redis container_name: Immich-REDIS hostname: immich-redis security_opt: - no-new-privileges:true healthcheck: test: ["CMD-SHELL", "redis-cli ping || exit 1"] environment: - TZ=Europe/Amsterdam volumes: - ${CONFIGS_DIR}/immich/redis:/data:rw restart: on-failure:5 immich-db: image: ghcr.io/immich-app/postgres:16-vectorchord0.4.3-pgvectors0.2.0 container_name: Immich-DB hostname: database security_opt: - no-new-privileges:true healthcheck: test: ["CMD", "pg_isready", "-q", "-d", "immich", "-U", "immichuser"] interval: 10s timeout: 5s retries: 5 shm_size: 128mb volumes: - ${DB_DATA_LOCATION}:/var/lib/postgresql/data:rw environment: - TZ=Europe/Amsterdam - POSTGRES_DB=${DB_DATABASE_NAME} - POSTGRES_USER=${DB_USERNAME} - POSTGRES_PASSWORD=${DB_PASSWORD} #- DB_STORAGE_TYPE=HDD #Remove the red # in front of the – DB_STORAGE_TYPE=HDD if your database isn’t stored on SSDs. restart: on-failure:5 immich-server: image: ghcr.io/immich-app/immich-server:release container_name: Immich-SERVER hostname: immich-server security_opt: - no-new-privileges:true env_file: - stack.env ports: - 8212:2283 devices: - /dev/dri:/dev/dri volumes: - ${UPLOAD_LOCATION}:/data:rw restart: on-failure:5 depends_on: immich-redis: condition: service_healthy immich-db: condition: service_started labels: - traefik.enable=true - traefik.http.routers.immich-server.rule=Host(`immich.${HOSTNAME}`) - traefik.http.services.immich-server.loadbalancer.server.port=2283 - traefik.http.routers.immich-server.entrypoints=https - traefik.http.routers.immich-server.tls=true - traefik.http.routers.immich-server.tls.certresolver=cloudflare immich-machine-learning: image: ghcr.io/immich-app/immich-machine-learning:release-openvino container_name: Immich-LEARNING hostname: immich-machine-learning env_file: - stack.env device_cgroup_rules: - 'c 189:* rmw' devices: - /dev/dri:/dev/dri volumes: - ${UPLOAD_LOCATION}:/data:rw - ${CONFIGS_DIR}/immich/cache:/cache:rw - ${CONFIGS_DIR}/immich/cache:/.cache:rw - ${CONFIGS_DIR}/immich/cache:/.config:rw - ${CONFIGS_DIR}/immich/matplotlib:/matplotlib:rw - /dev/bus/usb:/dev/bus/usb environment: - MPLCONFIGDIR=/matplotlib restart: on-failure:5 depends_on: immich-db: condition: service_started |
.env vanuit portainer
Onderstaande hoe portainer het opslaat.UPLOAD_LOCATION=/volume1/Photos
CONFIGS_DIR=/volume1/docker/configs
IMMICH_VERSION=release
DB_PASSWORD=postgres
DB_USERNAME=postgres
DB_DATABASE_NAME=immich
HOSTNAME=****
DB_DATA_LOCATION=/volume1/docker/configs/immich/db
REDIS_HOSTNAME=immich-redis
[ Voor 5% gewijzigd door Dagarkin op 20-10-2025 18:59 ]
En minimaal 5 euro doneren, anders accepteert hij het niet en stort hij de donatie weer terug...Stalensnuitje schreef op zondag 19 oktober 2025 @ 14:26:
[...]
Ja, die guide had ik gevolgd tot ik z'n Donate-to-complete knop zag en toen sloeg de zuinige Nederlandermodus weer toe
VPN zou je kunnen doen, zelf nog nooit gedaan en gaat al 25 jaar goed met torrent (ik kijk ook geen DFW troep) Recent wel bezig geweest met nieuwsservers en Sabnzbd en dat is echt helemaal top als maximale downloadsnelheid belangrijk is en je echt veel (grote bestanden) van vroeger wilt binnen halen en dan heb je zoals @Dagarkin zegt al helemaal geen VPN nodig. Gebruik zelf de combinatie van nzbgeek en Eweka en dan Qbittorrent nog als backup.CarpeVentum schreef op zondag 19 oktober 2025 @ 12:22:
[...]
Vraagje hierover, want ik ga met Trash/Arr stack aan de gang: is het nodig / nuttig genoeg om dit achter een VPN client te zetten? En, die Hardlinks kunnen niet over volumes heen staat in de Trash guide... Kun je dan wel de apps op het ene volume hebben (SSD) en de rest op het 2e volume (HDD)? Dan komt de hele folder structuur voor de media dus allemaal op het HDD volume? Hoe heb jij dit?
Als ik opnieuw zou beginnen had ik het waarschijnlijk ook zo geprobeerd zoals jij het voor ogen hebt, maar Ik heb verder de volledige guide gevolgd dus bij mij staat en draait alles inderdaad op de harde schijven (volume1). Het werkt echt als een trein en alles is super responsief dus zie voor nu in ieder geval geen noodzaak om alles weer opnieuw te gaan doen.
Nog even ter info/lering en vermaak:Greatsword schreef op woensdag 15 oktober 2025 @ 09:51:
[...]
Hoe zag je yaml met foutmeldingen er uit?
Fijn dat het in ieder geval gelukt is.
Ik ben bezig met het toevoegen van de mappings naar de directories met films en zo.
En nu kom ik de melding weer tegen:
validating /volume1/docker/appdata/docker-compose.yml: (root) Additional property 3 logging is not allowed
Dat was voor mij reden om de diverse onderdelen eruit te slopen en vervolgens 1 voor 1 te importeren.
Maar daarna hou je een docker-compose.yml over met maar 1 VM, dus dan zit hij over de rest te zeuren dat er orphans aangetroffen zijn.
Dus nu ik met die mappings bezig was dacht ik: laat ik dat eens rechttrekken. En kom ik natuurlijk deze foutmelding weer tegen.
En ik ben er inmiddels achter wat het is: ik heb plex even met # uitgeschakeld (want dat gebruik ik niet), maar ik heb 1x een 3 getypt in plaats van het hekje
Pvoutput 3.190 Wp Zuid; Marstek Venus 5.12 kWh; HW P1; BMW i4 eDrive40
Ik ben mij aan het verdiepen om mijn huidige Synology te vervangen.
Dat zal of door weer een Synology zijn, maar ben ook verder aan het kijken naar een totaal ander merk, eventueel een UGREEN.
Ik heb alleen een aantal vragen;
Bij Synology ben ik “gehecht” aan de Photos app.
Is er bij UGREEN ook iets gelijkwaardigs? (Ook IOS apps etc)?
Bij Synology gebruik Hyper-backup mét versiebeheer naar een andere Synology.
Kan dat met een UGREEN ook? Versiebeheer over rsync naar een Synology oid?
Bij Synology gebruik ik de drive app op Windows, om files te synchroniseren naar de Synology mét versiebeheer. Kan dat bij UGREEN ook?
Ja, je hebt de Photos applicatie en als alternatief zou je Immich kunnen draaien in docker, daar is hier al veel over gesproken in dit topic.
Ook heb je de backup & sync applicatie, vergelijkbaar aan Hyperbackup en Synology Drive.
Heb zelf een oude Synology als remote backup ingesteld via rsync.
Heeft de backup functie ook versiebeheer?
Ik zou graag vanaf de UGREEN NAS backups met versiebeheer willen maken naar bijv een Synology.
Optioneel in te stellen.Niekniek89 schreef op dinsdag 21 oktober 2025 @ 15:33:
Thanks @Greatsword.
Heeft de backup functie ook versiebeheer?
Ik zou graag vanaf de UGREEN NAS backups met versiebeheer willen maken naar bijv een Synology.
Dank voor je hulp, dat ziet er goed uit en iets wat ik zoek.
Dat zou anders voor mij een showstopper zijn, maar nu gaat het twijfelen toch echt beginnen… zat te denken aan een DS225+.. maar als ik nu zie dat de UGREEN by default dit ook kan…
Kan ik in de Photo app ook albums in albums maken?
Dit kan volgens mij binnen Immich niet…
Sorry voor de vragen 😅
[ Voor 19% gewijzigd door Niekniek89 op 21-10-2025 15:56 ]
Lees vooral het topic door zou ik zeggen. Ben zelf ook van meer dan 10 jaar Synology naar Ugreen overgestapt en geen moment spijt van gehad.Niekniek89 schreef op dinsdag 21 oktober 2025 @ 15:50:
@Greatsword
Dank voor je hulp, dat ziet er goed uit en iets wat ik zoek.
Dat zou anders voor mij een showstopper zijn, maar nu gaat het twijfelen toch echt beginnen… zat te denken aan een DS225+.. maar als ik nu zie dat de UGREEN by default dit ook kan…
Albums kan bij allebei.
Nou, gelukt met deployen dacht ik, maar nu zie ik dat de Immich-SERVER container "Exited - CODE 1" aangeeeft. So far not so goodDagarkin schreef op zondag 19 oktober 2025 @ 14:50:
[...]
Ja herkenbaar op een gegeven moment ook gedaan en uiteindelijk op onderstaande resultaat gekomen.
Hoe ziet je yaml er uit van de immich-SERVER?Stalensnuitje schreef op dinsdag 21 oktober 2025 @ 23:08:
[...]
Nou, gelukt met deployen dacht ik, maar nu zie ik dat de Immich-SERVER container "Exited - CODE 1" aangeeeft. So far not so good
Identiek aan die van Marius' tutorial (Step 7), met uitzondering natuurlijk van de UserID en TZ. Daarnaast heb ik het path voor de upload folder (staat er 2x in) aangepast omdat ík die juist op volume2 wil hebben draaien.ProfaNe schreef op woensdag 22 oktober 2025 @ 09:18:
[...]
Hoe ziet je yaml er uit van de immich-SERVER?
Dat vind ik toch weer het nadeel van zulke gedetailleerde tutorials: als je 1-op-1 kopieert zal het wel werken, maar ik begrijp eigenlijk dan nog steeds niet precies wat ik aan het doen ben
[ Voor 17% gewijzigd door Stalensnuitje op 22-10-2025 10:11 ]
Volgens mij kreeg ik daar destijds juist de problemen mee. Iets met permission errors etc. Wat zeggen je logs?Stalensnuitje schreef op woensdag 22 oktober 2025 @ 10:10:
[...]
Daarnaast heb ik het path voor de upload folder (staat er 2x in) aangepast omdat ík die juist op volume2 wil hebben draaien.
Nog ff een (stomme?) vraag.Dagarkin schreef op zondag 19 oktober 2025 @ 12:44:
[...]
Mijn eigen stack momenteel gebruik de vpn container niet(glue), maar als je vie nieuwsgroepen download heb je geen vpn nodig. als je via torrent dan altijd via vpn.
Ik had eerst wel via glue, maar vaak genoeg problemen en feitelijk is het protocol van usenet veilig en kan dit zonder vpn.
Je kunt zoveel directories mounten zoals je wilt. mijn configs dir is de ssd en de media dirs zijn de hdds.
YAML:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 version: '3.7' services: sabnzbdvpn: container_name: sabnzbdvpn image: lscr.io/linuxserver/sabnzbd:latest #network_mode: "service:gluetun" networks: - nas volumes: - '${CONFIGS_DIR}/sabnzbdvpn/:/config' - '${DOWNLOAD_DIR}:/downloads' - '${COMPLETED_DIR}:/completed' - '/etc/localtime:/etc/localtime:ro' env_file: stack.env environment: - PUID= ${PUID} - PGID= ${PGID} - TZ= ${TIMEZONE} labels: - traefik.enable=true - traefik.http.routers.sabnzbdvpn.rule=Host(`nzb.${HOSTNAME}`) - traefik.http.services.sabnzbdvpn.loadbalancer.server.port=8080 - traefik.http.routers.sabnzbdvpn.entrypoints=https - traefik.http.routers.sabnzbdvpn.tls=true - traefik.http.routers.sabnzbdvpn.tls.certresolver=cloudflare radarr: env_file: stack.env container_name: radarr image: lscr.io/linuxserver/radarr:latest ports: - 7878:7878 networks: - nas volumes: - '${CONFIGS_DIR}/radarr/:/config' - '${MOVIES_DIR}:/media/movies' - '${COMPLETED_DIR}:/completed' - '/etc/localtime:/etc/localtime:ro' environment: - PUID=${PUID} - PGID=${PGID} - TZ=${TIMEZONE} labels: - traefik.enable=true - traefik.http.routers.radarr.rule=Host(`radarr.${HOSTNAME}`) - traefik.http.services.radarr.loadbalancer.server.port=7878 - traefik.http.routers.radarr.entrypoints=https - traefik.http.routers.radarr.tls=true - traefik.http.routers.radarr.tls.certresolver=cloudflare sonarr: image: lscr.io/linuxserver/sonarr:latest container_name: sonarr environment: - PUID=${PUID} - PGID=${PGID} - TZ=${TIMEZONE} ports: - 8989:8989 networks: - nas volumes: - ${CONFIGS_DIR}/sonarr:/config - ${SERIES_DIR}/:/media/series - ${COMPLETED_DIR}/:/completed restart: unless-stopped labels: - traefik.enable=true - traefik.http.routers.sonarr.rule=Host(`sonarr.${HOSTNAME}`) - traefik.http.services.sonarr.loadbalancer.server.port=8989 - traefik.http.routers.sonarr.entrypoints=https - traefik.http.routers.sonarr.tls=true - traefik.http.routers.sonarr.tls.certresolver=cloudflare bazarr: image: 'lscr.io/linuxserver/bazarr:latest' container_name: bazarr environment: - PUID= ${PUID} - PGID= ${PGID} - TZ=${TIMEZONE} ports: - 6767:6767 networks: - nas volumes: - '${CONFIGS_DIR}/bazarr/:/config' - '${MOVIES_DIR}:/media/movies' - '${SERIES_DIR}:/media/series' labels: - traefik.enable=true - traefik.http.routers.bazarr.rule=Host(`bazarr.${HOSTNAME}`) - traefik.http.services.bazarr.loadbalancer.server.port=6767 - traefik.http.routers.bazarr.entrypoints=https - traefik.http.routers.bazarr.tls=true - traefik.http.routers.bazarr.tls.certresolver=cloudflare prowlarr: image: 'lscr.io/linuxserver/prowlarr:latest' container_name: prowlarr environment: PUID: '${PUID}' PGID: '${PGID}' ports: - 9696:9696 networks: - nas volumes: - '${CONFIGS_DIR}/prowlarr/:/config' - '/etc/localtime:/etc/localtime:ro' labels: - traefik.enable=true - traefik.http.routers.prowlarr.rule=Host(`prowlarr.${HOSTNAME}`) - traefik.http.services.prowlarr.loadbalancer.server.port=9696 - traefik.http.routers.prowlarr.entrypoints=https - traefik.http.routers.prowlarr.tls=true - traefik.http.routers.prowlarr.tls.certresolver=cloudflare recyclarr: image: ghcr.io/recyclarr/recyclarr container_name: recyclarr user: ${PUID}:${PGID} networks: - nas volumes: - ${CONFIGS_DIR}/recyclarr/:/config environment: - TZ=${TIMEZONE} gluetun: container_name: gluetun image: qmcgaw/gluetun cap_add: - NET_ADMIN networks: - nas devices: - /dev/net/tun:/dev/net/tun environment: - VPN_SERVICE_PROVIDER=custom - VPN_TYPE=wireguard - WIREGUARD_ENDPOINT_IP=${WG_ENDPOINT} - WIREGUARD_ENDPOINT_PORT=${WG_ENDPOINT_PORT} - WIREGUARD_PUBLIC_KEY=${WG_PUBLIC_KEY} - WIREGUARD_PRIVATE_KEY=${WG_PRIVATE_KEY} - WIREGUARD_ADDRESSES=${WG_ADDRESS} networks: nas: driver: bridge
ik zit namelijk te vechten met de rechten: ik wil een Shared Folder (bijvoorbeeld /volume1/Series) mounten in Sonarr, dus ik maak een mountpoint aan in Sonarr en dan zet ik docker-compose.yml de regel
- /volume1/Series:/media/Series
Leuk, dat werkt: ik zie de directory en de inhoud ervan vanuit de Docker Terminal. Maar op het moment dat ik iets wil dan krijg ik de melding dat user 'hotio' niet de rechten heeft op die schijf om daar te mogen schrijven.
Nui neem ik aan dat dat iets te maken heeft met de regels
- PUID= ${PUID}
- PGID= ${PGID}
uit jouw configuratie. Maar is het echt zo simpel of heb je die PUID en PGID nog ergens benoemd (PUID = Jantje, bijvoorbeeld)?
Overigens krijg ik ook de melding dat de regel "version" overbodig is, dus die heb ik maar gedisabled
Pvoutput 3.190 Wp Zuid; Marstek Venus 5.12 kWh; HW P1; BMW i4 eDrive40
Gebruik je portainer? Dan kan je eenvouding deze variabelen instellen en anders via een .env bestand.Pietervs schreef op woensdag 22 oktober 2025 @ 14:32:
[...]
Nog ff een (stomme?) vraag.
ik zit namelijk te vechten met de rechten: ik wil een Shared Folder (bijvoorbeeld /volume1/Series) mounten in Sonarr, dus ik maak een mountpoint aan in Sonarr en dan zet ik docker-compose.yml de regel
- /volume1/Series:/media/Series
Leuk, dat werkt: ik zie de directory en de inhoud ervan vanuit de Docker Terminal. Maar op het moment dat ik iets wil dan krijg ik de melding dat user 'hotio' niet de rechten heeft op die schijf om daar te mogen schrijven.
Nui neem ik aan dat dat iets te maken heeft met de regels
- PUID= ${PUID}
- PGID= ${PGID}
uit jouw configuratie. Maar is het echt zo simpel of heb je die PUID en PGID nog ergens benoemd (PUID = Jantje, bijvoorbeeld)?
Overigens krijg ik ook de melding dat de regel "version" overbodig is, dus die heb ik maar gedisabled
Dat zijn variabelen. Die geef je normaal mee de .env bij mij staan beiden oo 1000 ingesteld.PUID=1000
Om dit te vinden is normaal verbinding met ssh en dan id enter. Of uitgebreid via deze guide. https://mariushosting.com...gid-groupid-in-5-seconds/
Je kunt deze waarden ook meegeven aan de hotio sonarr image. Neem aan dat je onderstaande gebruikt?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
| services: sonarr: container_name: sonarr image: ghcr.io/hotio/sonarr ports: - "8989:8989" environment: - PUID=1000 - PGID=1000 - UMASK=002 - TZ=Etc/UTC volumes: - /<host_folder_config>:/config - /<host_folder_data>:/data |
[ Voor 15% gewijzigd door Dagarkin op 22-10-2025 15:01 ]
Wellicht wat laat, maar waarom anno 2025 nog RAID gebruiken? Ik zou dan eerder partitionering in ZFS of BTRFS doen? De details van BTRFS ken ik niet helemaal, maar bij ZFS heb je ook soort van RAID mogelijkheden. ZFS houdt zichzelf ook gezond, waar dat met RAID niet het geval is, dat alleen het hardware falen ondervangt. Als een deel van de data zelf corrupt gaat, gaat dat met RAID1 net zo goed ook naar de andere disk. ZFS kan dat dus wel repareren, zodat de kans op dit soort fouten/zaken veel kleiner is.CarpeVentum schreef op woensdag 1 oktober 2025 @ 18:46:
- 2x 8TB HDD voor opslag in raid 1
Als je Traefik als reverse proxy gebruikt, hoef je niet per se de poorten te forwarden van de host naar de container. Het enige wat je dan hoeft te doen, is in de labels van de container het volgende bijvoorbeeld op te geven:Dagarkin schreef op zondag 19 oktober 2025 @ 14:50:
[...]
Ja herkenbaar op een gegeven moment ook gedaan en uiteindelijk op onderstaande resultaat gekomen.
Traefik met labels evt verwijderen en de .env hostname heb ik op **** gezet, aangezien dit puur is voor traefik
YAML:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 services: immich-redis: image: redis container_name: Immich-REDIS hostname: immich-redis security_opt: - no-new-privileges:true healthcheck: test: ["CMD-SHELL", "redis-cli ping || exit 1"] environment: - TZ=Europe/Amsterdam volumes: - ${CONFIGS_DIR}/immich/redis:/data:rw restart: on-failure:5 immich-db: image: ghcr.io/immich-app/postgres:16-vectorchord0.4.3-pgvectors0.2.0 container_name: Immich-DB hostname: database security_opt: - no-new-privileges:true healthcheck: test: ["CMD", "pg_isready", "-q", "-d", "immich", "-U", "immichuser"] interval: 10s timeout: 5s retries: 5 shm_size: 128mb volumes: - ${DB_DATA_LOCATION}:/var/lib/postgresql/data:rw environment: - TZ=Europe/Amsterdam - POSTGRES_DB=${DB_DATABASE_NAME} - POSTGRES_USER=${DB_USERNAME} - POSTGRES_PASSWORD=${DB_PASSWORD} #- DB_STORAGE_TYPE=HDD #Remove the red # in front of the – DB_STORAGE_TYPE=HDD if your database isn’t stored on SSDs. restart: on-failure:5 immich-server: image: ghcr.io/immich-app/immich-server:release container_name: Immich-SERVER hostname: immich-server security_opt: - no-new-privileges:true env_file: - stack.env ports: - 8212:2283 devices: - /dev/dri:/dev/dri volumes: - ${UPLOAD_LOCATION}:/data:rw restart: on-failure:5 depends_on: immich-redis: condition: service_healthy immich-db: condition: service_started labels: - traefik.enable=true - traefik.http.routers.immich-server.rule=Host(`immich.${HOSTNAME}`) - traefik.http.services.immich-server.loadbalancer.server.port=2283 - traefik.http.routers.immich-server.entrypoints=https - traefik.http.routers.immich-server.tls=true - traefik.http.routers.immich-server.tls.certresolver=cloudflare immich-machine-learning: image: ghcr.io/immich-app/immich-machine-learning:release-openvino container_name: Immich-LEARNING hostname: immich-machine-learning env_file: - stack.env device_cgroup_rules: - 'c 189:* rmw' devices: - /dev/dri:/dev/dri volumes: - ${UPLOAD_LOCATION}:/data:rw - ${CONFIGS_DIR}/immich/cache:/cache:rw - ${CONFIGS_DIR}/immich/cache:/.cache:rw - ${CONFIGS_DIR}/immich/cache:/.config:rw - ${CONFIGS_DIR}/immich/matplotlib:/matplotlib:rw - /dev/bus/usb:/dev/bus/usb environment: - MPLCONFIGDIR=/matplotlib restart: on-failure:5 depends_on: immich-db: condition: service_started
.env vanuit portainer
[...]
Onderstaande hoe portainer het opslaat.
[Afbeelding]
1
| - "traefik.http.services.<naam_van_service>.loadbalancer.server.port=<poortnummer>" |
Wat alle Nas fabrikanten(Synology, Qnap, Ugreen etc) doen is mdadm gebruiken voor Raid.
Zfs heeft wel naive raid (Raid-Z1, Raid-Z2 en Raid-Z3)
En geen raid betekent dat je data kwijt bent als er een disk defect gaat ook op Zfs (zonder raid-zx).
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Daarom dat je zowel backups als RAID achtige functionaliteit wilt.Ben(V) schreef op woensdag 22 oktober 2025 @ 15:16:
En geen raid betekent dat je data kwijt bent als er een disk defect gaat ook op Zfs (zonder raid-zx).
Bij diskuitval een volledige backup terugzetten duurt erg lang en je bent nog steeds alles kwijt wat van na de laatste backup is.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik gebruik nog geen portainer, daar ga ik ook nog eens induiken.Dagarkin schreef op woensdag 22 oktober 2025 @ 14:54:
[...]
Gebruik je portainer? Dan kan je eenvouding deze variabelen instellen en anders via een .env bestand.
[...]
Dat zijn variabelen. Die geef je normaal mee de .env bij mij staan beiden oo 1000 ingesteld.
Om dit te vinden is normaal verbinding met ssh en dan id enter. Of uitgebreid via deze guide. https://mariushosting.com...gid-groupid-in-5-seconds/
Je kunt deze waarden ook meegeven aan de hotio sonarr image. Neem aan dat je onderstaande gebruikt?
YAML:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 services: sonarr: container_name: sonarr image: ghcr.io/hotio/sonarr ports: - "8989:8989" environment: - PUID=1000 - PGID=1000 - UMASK=002 - TZ=Etc/UTC volumes: - /<host_folder_config>:/config - /<host_folder_data>:/data
Maar ik hoor dat ik vanavond weg moet, dus hoop ik morgen een beter idee te hebben hoe ik dit aanpak
Dank voor je input in ieder geval!
Pvoutput 3.190 Wp Zuid; Marstek Venus 5.12 kWh; HW P1; BMW i4 eDrive40
Oh kak, ik heb de volumes omgedraaidjj85 schreef op woensdag 22 oktober 2025 @ 10:21:
[...]
Volgens mij kreeg ik daar destijds juist de problemen mee. Iets met permission errors etc. Wat zeggen je logs?
Maar goed, nu krijg ik m'n externe drives alsnog niet toegevoegd, dus ff graven waar dat dan nu weer moet
[ Voor 15% gewijzigd door Stalensnuitje op 22-10-2025 20:40 ]
Momenteel niet, wellicht in de toekomst.CheopsChefren schreef op woensdag 22 oktober 2025 @ 23:17:
Weet iemand of er - zoals op de synolgy nas - een task scheduler is voor de ugreen dxp2800? Ik kan er nergens iets over vinden, of het zou moeten via ssh en een cron job. Maar ik vind de task scheduler van synology toch we heel erg prettig werken.
Zelf via ssh is toch ook geen probleem of evt via een docker container zoals onderstaan https://hub.docker.com/r/akorn/scheduler
Zelf geen ervaring met bovenstaande pakket.
- Ik zal mijn storage pool (SHR) moeten wissen en omzetten naar RAID5. Dus een extra harddisk als tijdelijke opslag (gelukkig hoeft niet alles bewaard te worden). Heeft iemand nog tips hiervoor?
- Ik wil er ook extra geheugen inprikken, neem ik dan nog een 8GB of kan een 16GB ook? En welk geheugen is het meest compatibel?
- En neem ik een extra SSD (of twee in RAID1) voor apps, dockers, etc. Want dat kan neem ik aan niet op de OS disk?
iAR schreef op zaterdag 25 oktober 2025 @ 13:32:
Ik heb momenteel een Synology DS918+ 12GB, geen SSD). Prima ding maar sinds ik ondertussen 25 dockers heb draaien loop ik een beetje tegen de max aan. Samba is tergend traag. Ik wil geen Synology meer maar een Ugreen. En wel de UGREEN DXP4800 Plus.En hebben mensen nog waardevolle migratie tips?
- Ik zal mijn storage pool (SHR) moeten wissen en omzetten naar RAID5. Dus een extra harddisk als tijdelijke opslag (gelukkig hoeft niet alles bewaard te worden). Heeft iemand nog tips hiervoor?
- Ik wil er ook extra geheugen inprikken, neem ik dan nog een 8GB of kan een 16GB ook? En welk geheugen is het meest compatibel?
- En neem ik een extra SSD (of twee in RAID1) voor apps, dockers, etc. Want dat kan neem ik aan niet op de OS disk?
- Zorg uiteraard dat je eerst een backup hebt/maakt voor je aan alles begint. Een voorlopig externe HDD/SSD of Cloud combinatie is prima.
- 8 of 16GB RAM erbij kan beide, in de OP staat de website van Ugreen met compatibiliteit, op MP hebben veel mensen het originele Samsung RAM van de Ugreen NAS te koop staan.
- SSD Configuratie is een persoonlijke voorkeur, je kan in principe docker e.d. op het SSD installeren, maar alles is nu echt al super responsief en een flinke vooruit gang t.o.v. je Synology.
- Als je verder DSM gewend bent zal UGOS een eitje voor je zijn aangezien het voor 80% een kopie is.
Net als bij Synology staat het OS op elke disk in een eigen systeem partitie met elkaar in een mirror en daar kun je geen applicaties bijzetten.
Het nut van SSD's voor applicaties zie ik persoonlijk niet zo zitten, dat geld kun je beter besteden aan veel geheugen.
Als je voldoende geheugen hebt (zodat hij niet gaat swappen) draait elke applicatie gewoon vanuit het geheugen (DDR5) en dat is echt veel sneller dan een SSD.
Linux gooit namelijk applicaties niet uit het geheugen als die gestopt wordt, maar laat hem gewoon staan voor het geval hij nogmaals gebruikt gaat worden.
Pas als het geheugen vol raakt, gaat hij niet draaiende applicaties eruit gooien.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Nu blijkt deze rsync-backup dus ongeveer 7 uur in beslag te nemen, elke dag weer. Het verbaast mij nogal hoeveel tijd het in beslag neemt. rsync in de storage-box zal niet geweldig zijn, maar ik vind dit tamelijk extreem. Wat is jullie ervaring? Momenteel is de back-up grootte ca 420GB, waarvan zeker 300GB aan foto's en filmpjes.
"Chaos kan niet uit de hand lopen"
Als het zo lang duurt, denk ik dat je wellicht elke nacht een volledige back-up draait in plaats van een incremental (met alleen de wijzigingen).
Robert Elsinga =8-) | IT security, Scouting, zendamateur (PC5E, WC5E) | www.elsinga.net/robert, www.pc5e.nl
Wow, 32 GB is wel veel ja. Nog een specifieke reden waarom je het originele geheugen er uit hebt gedaan? 8 + 16 zou ook kunnen toch, of is het performance wise beter om 2 even grote en/of zelfde merk en type reepjes te gebruiken.Ben(V) schreef op zaterdag 25 oktober 2025 @ 15:25:
Ik heb een DXP4800 plus en heb het geheugen vervangen door twee reepjes van 16GB (crucial CT16G48C40S5.M8A1), met veel dockers wel handig maar eigenlijk wat overkill.
Net als bij Synology staat het OS op elke disk in een eigen systeem partitie met elkaar in een mirror en daar kun je geen applicaties bijzetten.
Het nut van SSD's voor applicaties zie ik persoonlijk niet zo zitten, dat geld kun je beter besteden aan veel geheugen.
Als je voldoende geheugen hebt (zodat hij niet gaat swappen) draait elke applicatie gewoon vanuit het geheugen (DDR5) en dat is echt veel sneller dan een SSD.
Linux gooit namelijk applicaties niet uit het geheugen als die gestopt wordt, maar laat hem gewoon staan voor het geval hij nogmaals gebruikt gaat worden.
Pas als het geheugen vol raakt, gaat hij niet draaiende applicaties eruit gooien.
En SSD’s voor caching? Anders dan een normale storage pool?
Ik wilde het in een keer goed doen en geheugen is niet erg duur meer.
En veel geheugen is meer applicatie die erin kunnen, maar ook meet cache voor disken.
Caching is alleen nuttige voor applicaties die daar wat aan hebben en dat geld maar voor weinig applicaties.
Als je bijvoorbeeld een database gebruikt met veel grote en/of ingewikkelde queries kan dat zinvol zijn.
Voor de meeste applicaties voegt het weinig toe mede doordat Linux een deel van het geheugen als cache gebruikt.
De hoeveelheid geheugen die hij als cache gebruikt is weer afhankelijk van hoeveel geheugen hij heeft
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik heb de mazzel dat ik de Google for Non-Profits omgeving van mijn Scoutinggroep beheer. Daar zit 100TB aan Drive ruimte bij en die benutten we nauwelijks voor Scouting. Dus daar staat die 16TB aan gesyncte data. Dus normaal zou dat prijzig zijn, in mijn specifieke geval niet.Quad schreef op zondag 26 oktober 2025 @ 08:39:
@elsinga Is Google drive voor zulke grote hoeveelheid opslag niet erg prijzig? Ik lees bedragen als 100 euro pm namelijk.
Nu heb ik zelf ook nog een Google Workspace die gratis is (want ik had ook een non-profit versie voor mezelf), maar daar krijg je maar een beperkt aantal GB's per aangemaakte user. Gelukkig kun je die ook importeren, dus ik heb een hele lading aan ongebruikte users actief, maar daardoor wel 7.5TB ruimte. Daar loopt een Synology Hyperbackup naartoe, waarin alleen app instellingen en zo zitten.
Robert Elsinga =8-) | IT security, Scouting, zendamateur (PC5E, WC5E) | www.elsinga.net/robert, www.pc5e.nl
Alles went behalve een Twent.
⏩ PVOutput☀️
Vandaag klaar in 1 minuut. Of het nu de update of reboot was... Een stuk beter in ieder geval.
"Chaos kan niet uit de hand lopen"
Dit werkt inderdaadDagarkin schreef op woensdag 22 oktober 2025 @ 14:54:
Je kunt deze waarden ook meegeven aan de hotio sonarr image. Neem aan dat je onderstaande gebruikt?
YAML:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 services: sonarr: container_name: sonarr image: ghcr.io/hotio/sonarr ports: - "8989:8989" environment: - PUID=1000 - PGID=1000 - UMASK=002 - TZ=Etc/UTC volumes: - /<host_folder_config>:/config - /<host_folder_data>:/data
En zo komen we stapje voor stapje verder. Ik download niet zo gek veel, dus het had niet zoveel prioriteit. Maar wel fijn dat het nu geregeld is.
Dank @Dagarkin
Pvoutput 3.190 Wp Zuid; Marstek Venus 5.12 kWh; HW P1; BMW i4 eDrive40
Het enige waar ik tegen aan loop is de detector. Als ik hier CPU voor gebruik, dan draait het prima, maar gebruikt de docker vrij veel cpu capaciteit.
Als ik het goed begrijp beschikt de N100 processor die in de dxp2800 zit ook over openvino ondersteuning. Op het moment dat ik dit in de config file aanpas, dan heb ik geen beeld en draait Frigate niet meer soepel. Zijn er hier mensen die Frigate op de ugreen nas hebben draaien met openvino? Is dit uberhaubt mogelijk?
Het kan zonder zoals je gemerkt hebt, maar dan pakt de CPU dus een hoog verbruik.
Je kan dit iets verbeteren door de detectiestreams op zo'n laag mogelijke resolutie en FPS te zetten.
[ Voor 62% gewijzigd door Quad op 27-10-2025 12:26 ]
Alles went behalve een Twent.
⏩ PVOutput☀️
Ik zit zelf ook te kijken om mijn Syno DS918+ zo zoetjes aan te gaan vervangen maar gebruik de NVR functie best veel. Nu zat ik te twijfelen tussen een Ugreen NAS of een aoostar NAS.
Maar lees hier dus dat het draaien van frigate niet aan te raden is zonder een TPU?
Ook als ik geen gebruik maak van "detecties" behalve bewegingsdetectie dan natuurlijk.
AMD Ryzen 5800X3D, Gigabyte Aorus B550 ITX, AMD RX6900XT, 32GB Corsair DDR4
Het enige dat ik zo snel bedacht krijg:
- Via Docker een VM met TrueNAS starten
- In TrueNAS maak je de raid array aan. Alternatief is om dit wel in OS van de nas te doen en dan gewoon koppelen aan Docker.
- In TrueNAS pas je vervolgens encryptie toe op je opslag
- Via andere docker vm's en SMB share kan je vervolgens deze partities weer mappen etc.
Ander alternatief dat mogelijk nog eenvoudiger is, is om TrueNAS direct op de nas te installeren. Dan boot het OS van UGREEN al helemaal niet en heb je alleen nog de BIOS om "bang" voor te wezen.
[ Voor 9% gewijzigd door Alaksandus op 28-10-2025 19:35 ]
Als een god in Nijmegen.
Gasloos huis 9kW Panasonic WH-MDC09J3E5 | Atlantic Explorer V4 270L | 8715Wp @ SMA Tripower 6.0-3AV-40 (4150Wp NO, 4565Wp ZW)