Hier zou een handtekening kunnen staan.
Je kunt de Migratie Assistent gebruiken..... https://www.synology.com/nl-nl/dsm/feature/migrationWildfire schreef op vrijdag 17 oktober 2025 @ 21:19:
Ik zit midden in de overstap van een "oude" Synology NAS (DS1522+) naar een nieuwe (DS1525+), beetje onzinnig, I know, daar aub geen vragen over stellen, het is wat het is.
In de nieuwe NAS heb ik grotere schijven geplaatst en ik wil nu alle data van de oude naar de nieuwe NAS kopiëren.
Ik kan de mappen via File Station delen en dan zo kopiëren maar dat lijkt echt erg traag te gaan. Idem dito via FTP via File Station.
Nou heb ik dan wel een 10 gigabit netwerk en beide NAS'en hebben ook 10 gigabit, maar ik weet dat harde schijven natuurlijk geen 10 gigabit kunnen volpompen. Maar als ik nu kijk, ben een bepaalde map met ca. 135 gigabyte via gekoppelde map aan het kopiëren in FileStation. Duurt meer dan een dag volgens de verwachting van File Station... laat staan een andere map waar 13.5 terabyte in staat. Dat zou dan richting twee weken gaan...
Wie o wie heeft de gouden tip voor de snelste manier om alle data van de ene Synology NAS naar de andere over te zetten?
Volgens mij kan dat wel, maar je kunt ook de standaardlokatie gebruiken en vervolgens de te syncen mappen naar deze map verplaatsen. Bijvoorbeeld de map Documenten met de rechtermuis, kiezen voor verplaatsen en in de drive-map plaatsen. Zo werkt in de basis OneDrive ook.Patrick_6369 schreef op woensdag 22 oktober 2025 @ 13:59:
@Ben(V)
Als je het per bestand bekijkt niet. Maar je moet wel beginnen met een map of share op je NAS en die wordt vervolgens aan een nieuwe map op je apparaat gehangen. Als ik mij de installatie van Drive goed herinner kun je niet een bestaande map van je PC kiezen om naar de NAS te syncen.
Geloof niet dat jij Drive helemaal begrijpt.Patrick_6369 schreef op woensdag 22 oktober 2025 @ 13:59:
@Ben(V)
Als je het per bestand bekijkt niet. Maar je moet wel beginnen met een map of share op je NAS en die wordt vervolgens aan een nieuwe map op je apparaat gehangen. Als ik mij de installatie van Drive goed herinner kun je niet een bestaande map van je PC kiezen om naar de NAS te syncen.
Uiteraard moet je een map op je Nas aanmaken die door drive gebruikt wordt, maar die kan gewoon leeg zijn.
Het is echt niet zo dat je met bestanden vanuit je Nas moet beginnen.
Sterker nog, de eerste versie van drive deed alleen een sync van PC naar Nas.
Pas later is de twee weg sync erbij gekomen die ook van Nas naar PC kon syncen.
[ Voor 7% gewijzigd door Ben(V) op 22-10-2025 14:27 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Backup maak ik handmatig vanaf de pc, minstens 1x per maand. De Synology is puur om een eigen "cloud" te hebben maar eentje die wel altijd in sync is met mijn pc.Patrick_6369 schreef op woensdag 22 oktober 2025 @ 13:12:
[...]
De NAS is de basis en daar staan alle bestanden. Door de Synology Drive app op meerdere apparaten te gebruiken kun je die bestanden vanaf die apparaten benaderen als stonden ze op je apparaat zelf. Eventueel kun je SMB gebruiken voor binnen je thuisnetwerk.
En zoals @Ben(V) aangeeft is Drive geen backup. Dus je maakt periodiek van de NAS een backup op een externe USB-schijf, een andere NAS of een Cloud-locatie.
2-weg is dan wat ik zoek. Want als ik onderweg op mijn laptop iets verander aan de bestanden op de NAS wil ik dat deze gewijzigde bestanden dan direct op de pc worden gewijzigd.Ben(V) schreef op woensdag 22 oktober 2025 @ 13:26:
@Patrick_6369
Er is helemaal geen bepaalde basis voor de bestanden.
Als je de bestanden op je PC hebt staan zal drive ze syncen naar je Nas, dat doet de Windows drive client.
Als je tweeweg sync hebt aanstaan zullen bestanden op je Nas die niet op je PC staan naar de PC "gesynct" worden.
Heb je nog een device met een drive client dan zullen die bestanden ook naar die PC gestuurd worden.
Het is dus afhankelijk van welk type sync je kiest (twee weg of eenweg).
Niet eens aan gedachtRieverst schreef op woensdag 22 oktober 2025 @ 14:17:
[...]
Je kunt de Migratie Assistent gebruiken..... https://www.synology.com/nl-nl/dsm/feature/migration
Maar met Syncthing heb ik alle data kunnen overzetten. Waren heel wat terabytes maar the job is done
Waarom makkelijk doen als het moeilijk kan.....Wildfire schreef op woensdag 22 oktober 2025 @ 16:57:
[...]
Niet eens aan gedacht
Maar met Syncthing heb ik alle data kunnen overzetten. Waren heel wat terabytes maar the job is done
Ik heb een gedeelde folder / link naar een folder op mijn tweede NAS gemaakt. Hierdoor kan ik vanuit inloggen in DSM bestanden kopieren / verplaatsen en dat gaat makkelijk met 500-600MB/s. Zou dit instellen en niet via FTP.Wildfire schreef op vrijdag 17 oktober 2025 @ 21:19:
Ik zit midden in de overstap van een "oude" Synology NAS (DS1522+) naar een nieuwe (DS1525+), beetje onzinnig, I know, daar aub geen vragen over stellen, het is wat het is.
In de nieuwe NAS heb ik grotere schijven geplaatst en ik wil nu alle data van de oude naar de nieuwe NAS kopiëren.
Ik kan de mappen via File Station delen en dan zo kopiëren maar dat lijkt echt erg traag te gaan. Idem dito via FTP via File Station.
Nou heb ik dan wel een 10 gigabit netwerk en beide NAS'en hebben ook 10 gigabit, maar ik weet dat harde schijven natuurlijk geen 10 gigabit kunnen volpompen. Maar als ik nu kijk, ben een bepaalde map met ca. 135 gigabyte via gekoppelde map aan het kopiëren in FileStation. Duurt meer dan een dag volgens de verwachting van File Station... laat staan een andere map waar 13.5 terabyte in staat. Dat zou dan richting twee weken gaan...
Wie o wie heeft de gouden tip voor de snelste manier om alle data van de ene Synology NAS naar de andere over te zetten?
EDIT: Voor de volledigheid; mijn beide NASsen hebben een 10Gbe kaart en de 923 heeft alleen SSD's en de 1817+ krijgt nu zijn derde 20TB MG10 met 512MB cache. Dat laatste is wel te merken.
Als de bestanden dan op de nieuwe NAS staan, verplaats je ze naar de folder met encryptie als het nodig is.
[ Voor 6% gewijzigd door Mk23 op 23-10-2025 23:46 ]
DS1817+& DS923+ DX513 & DX517
Ik probeer zelf ook Hyper backup weer werkend te krijgen. Vroeger had ik het altijd goed werken, tegenwoordig niet meer.Robin! schreef op dinsdag 28 januari 2025 @ 19:39:
Er is ongetwijfeld een antwoord te vinden op mijn vraag maar ik zie door de bomen het bos niet meer. Vandaar toch hier mijn vraag. Ik heb een DS118 en mijn ouders hebben een DS118. We gebruiken hem beiden voornamelijk om er fotos en bestanden op te bewaren. Om ons te beschermen tegen dataverlies gebruiken we hyper backup en hyperbackup vault om een backup van NAS A op NAS B te zetten en visa versa. Mijn vraag is: Ben ik veilig bezig? (dan heb ik het vooral over cybersecurity). De situatie is als volgt:
Settings op beide DS118's:Settings in de routers:
- Laatste DSM versie
- Quickconnect staat aan
- Firewall staat aan
- Antivirus essential geinstaleerd
- Eigen account om de andere NAS in te laten loggen. Alleen toegang tot hyperbackup vault en map waarin de backup staat
- 2FA voor alle logins behalve "backup login" van Hyperbackup (volgens mij kan deze niet met 2FA)
- DDNS aangemaakt om NAS remote te kunnen vinden
- Auto block, Account Protection, en DoS protection staan aan
FYI: Dit is niet mijn kennis gebied. Heb alles naar ere en geweten uitgezocht met tutorials en lezen. Zou fijn zijn als er bij het antwoorden niet te moeilijke taal wordt gebruikt
- Port 6281 forwareded (nodig om remote hyperbackup te vinden)
- Port 5001 forwareded (hier twijfel ik over. maar zonder kan de NAS niet zelfstandig inloggen)
Ik probeer van mijn Synology naar een remote Synology te backuppen.
Stappen die ik heb ondernomen:
- DDNS geconfigureerd op vault-nas. Hiermee creeer je een hostnaam (xxx.synology.me) en een extern adres.
Vraag: moet ik dan ook nog binnen DSM iets doen in 'Routerconfiguratie'?
- Op zendende NAS: stel ik creeer een backup-taak, moet ik de hostnaam (xxx.synology.me) dan gebruiken bij 'Servernaam of IP-adres'?
Ik weet niet waar het fout gaat.....
Hier intern werkt Tailscale al wel, maar de hypersync van de NAS van mijn zus gaat nog via quick connect.
DS1817+& DS923+ DX513 & DX517
Laatst gedaan, is vrij simpel en rechtaan.
Alles went behalve een Twent.
⏩ PVOutput☀️
nggyu nglyd
Wat bedoel je hiermee?Quad schreef op zaterdag 1 november 2025 @ 17:50:
Tailscale gebruiken. Wel even via ssh zorgen dat hyperbackup open staat naar tailscale intern.
Laatst gedaan, is vrij simpel en rechtaan.
DS1817+& DS923+ DX513 & DX517
https://tailscale.com/kb/...able-outbound-connections
Outbound instellen, anders kan Hyper Backup geen gebruik maken van je tailscale netwerk.
Alles went behalve een Twent.
⏩ PVOutput☀️
nggyu nglyd
Quickconnect heb ik nooit werkend gezien voor backups via hyper backup van nas naar nas voor mappen. Dan werkt tailscale wel goed.GEi schreef op zondag 2 november 2025 @ 09:23:
@Quad Is dat allemaal niet veel te ingewikkeld? Wat @Mk23 aangeeft werkt bij mij ook feilloos: je quickconnect gegevens gebruiken. Je hoeft dan helemaal niets anders meer in te stellen. Ik gebruik quickconnect voor de externe backup bij mij zwager en voor mijn ‘scan to pdf’ op mijn telefoon; dan gaan de PDF’s direct naar een map op de NAS en wanneer ik daar in kijk en er staan pdf’s, dan kan ik die verwerken.
Het is ook zeer snel ingericht, account aanmaken, free plan selecteren, beide NASsen de app installeren en inloggen. Hyper Backup instellen en draaien maar.
[ Voor 10% gewijzigd door Quad op 02-11-2025 09:33 ]
Alles went behalve een Twent.
⏩ PVOutput☀️
nggyu nglyd
De backups van mijn zus naar mijn NAS lopen via quickconnect, met een synology.me naam heb ik het nooit werkend gekregen:)Quad schreef op zondag 2 november 2025 @ 09:32:
[...]
Quickconnect heb ik nooit werkend gezien voor backups via hyper backup van nas naar nas voor mappen. Dan werkt tailscale wel goed.
Als ik weer een keer op bezoek ben en de tijd heb, dan hang ik haar spullen ook in mijn tailscale netwerk en probeer het zo. Tailscale is wel een stuk sneller dan via de servers van Synology. QuickConnect heb ik nog wel achter de hand als ik vanaf mijn werklaptop in zou moeten loggen om iets te verhelpen.
DS1817+& DS923+ DX513 & DX517
Tailscale is zeker sneller omdat je na initiële verbinding rechtstreeks met wireguard protocol naar elkaar verbindt.Mk23 schreef op zondag 2 november 2025 @ 09:37:
[...]
De backups van mijn zus naar mijn NAS lopen via quickconnect, met een synology.me naam heb ik het nooit werkend gekregen:)
Als ik weer een keer op bezoek ben en de tijd heb, dan hang ik haar spullen ook in mijn tailscale netwerk en probeer het zo. Tailscale is wel een stuk sneller dan via de servers van Synology. QuickConnect heb ik nog wel achter de hand als ik vanaf mijn werklaptop in zou moeten loggen om iets te verhelpen.
Synology.me is an sich vrij simpel maar heeft als nadeel dat je dan poorten open moet zetten.
Hm gek dat ik dan nooit quickconnect werkend heb gekregen. Het werkt wel prima met Photos of Drive.
Alles went behalve een Twent.
⏩ PVOutput☀️
nggyu nglyd
Waar gebruik je Downloadstation voor?Mk23 schreef op zondag 2 november 2025 @ 09:38:
Zijn er meer mensen waarbij Download Station niet werkt op het moment?
En wat zou een goed alternatief zijn?
Alles went behalve een Twent.
⏩ PVOutput☀️
nggyu nglyd
Hoe ziet een configuratie met Quick connect er precies uit?GEi schreef op zondag 2 november 2025 @ 09:23:
@Quad Is dat allemaal niet veel te ingewikkeld? Wat @Mk23 aangeeft werkt bij mij ook feilloos: je quickconnect gegevens gebruiken. Je hoeft dan helemaal niets anders meer in te stellen. Ik gebruik quickconnect voor de externe backup bij mij zwager en voor mijn ‘scan to pdf’ op mijn telefoon; dan gaan de PDF’s direct naar een map op de NAS en wanneer ik daar in kijk en er staan pdf’s, dan kan ik die verwerken.
Waar moet ik dat precies invullen en op welke wijze?
DS gebruikt volgens mij torrents, maar ik heb geen voorkeur. Ik heb ruim 10 jaar DS naar volle tevredenheid gebruikt, maar het wordt denk ik tijd voor wat anders. Dus moet ik vanaf 0 beginnen.Quad schreef op zondag 2 november 2025 @ 16:03:
@Mk23 uiteraard, maar waarmee of wat. Je kan, als ik het goed heb, meerdere protocollen gebruiken.
Voor NZB gebruik ik zelf sabNZB bijvoorbeeld en voor torrents qbittorrent.
Ik kan iets op mijn NUC draaien, maar ik denk dat vanuit een container op mijn 923+ eenvoudiger is
DS1817+& DS923+ DX513 & DX517
Dan kan ik qbittorrent via docker aanraden, wel even een gluetun vpn tunnel ervoor. Marius hosting heeft volgens mij wel het eea uitgewerkt.Mk23 schreef op zondag 2 november 2025 @ 16:09:
[...]
DS gebruikt volgens mij torrents, maar ik heb geen voorkeur. Ik heb ruim 10 jaar DS naar volle tevredenheid gebruikt, maar het wordt denk ik tijd voor wat anders. Dus moet ik vanaf 0 beginnen.
Ik kan iets op mijn NUC draaien, maar ik denk dat vanuit een container op mijn 923+ eenvoudiger is
Alles went behalve een Twent.
⏩ PVOutput☀️
nggyu nglyd
Thanks. Heb ik weer wat te doenQuad schreef op zondag 2 november 2025 @ 16:13:
[...]
Dan kan ik qbittorrent via docker aanraden, wel even een gluetun vpn tunnel ervoor. Marius hosting heeft volgens mij wel het eea uitgewerkt.
DS1817+& DS923+ DX513 & DX517
Een externe backup met Hyper Backup via Quickconnect betekent dat je beperkt wordt tot 2MB/s (zie deze video).GEi schreef op zondag 2 november 2025 @ 09:23:
@Quad Is dat allemaal niet veel te ingewikkeld? Wat @Mk23 aangeeft werkt bij mij ook feilloos: je quickconnect gegevens gebruiken. Je hoeft dan helemaal niets anders meer in te stellen. Ik gebruik quickconnect voor de externe backup bij mij zwager en voor mijn ‘scan to pdf’ op mijn telefoon; dan gaan de PDF’s direct naar een map op de NAS en wanneer ik daar in kijk en er staan pdf’s, dan kan ik die verwerken.
2 kabels van nas naar unifi dream pro router en o.a. de volgende guide gevolgd: YouTube: How to enable port aggregation on a Synology NAS and a UniFi Switch
maar als ik de bond switch van adaptive naar IEEE 802.3ad
dan raak ik lan 2 kwijt bij statusoverzicht en gaat de 2000 terug naar 1000 Mbps, Full duplex, MTU 1500
wat doe ik fout?
Gadget-freakz.com. Feedback en tips zijn welkom.
Ik kan het fout hebben, maar de Dream Router Pro ondersteunt vziw geen LAG.remcoXP schreef op maandag 3 november 2025 @ 15:15:
ik heb zojuist link aggregation aangezet als volgt:
2 kabels van nas naar unifi dream pro router en o.a. de volgende guide gevolgd: YouTube: How to enable port aggregation on a Synology NAS and a UniFi Switch
maar als ik de bond switch van adaptive naar IEEE 802.3ad
dan raak ik lan 2 kwijt bij statusoverzicht en gaat de 2000 terug naar 1000 Mbps, Full duplex, MTU 1500
wat doe ik fout?
En zoals het filmpje dat je geplaatst hebt je ook verteld, zal als je poorten aggregeert er enkel een poort groen wordt en de andere poort(en) wordt "greyed out".
En de speed blijft uiteraard gewoon 1Gbps, want dat is de max speed van een connectie.
Je kunt er echter wel 2x 1 Gbps gelijktijdig doorheen trekken, maar dat moet dan met twee clients.
LACP maakt geen 2Gbps van twee poort maar 2x 1Gbps
Kortom er is niets fout.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Bedoelen jullie niet beiden wat anders?Ben(V) schreef op maandag 3 november 2025 @ 15:27:
De Dream Router Pro
Er bestaat geen Dream Router Pro, wel een Dream Machine Pro (UDM-Pro).
Die laatste ondersteund LAG's maar een Dream Router (UDR) (7) niet.
Duct tape can't fix stupid, but it can muffle the sound.
Ik heb inmiddels een aantal dagen container manager draaien, en werkt top.
Echter, er zijn inmiddels wat updates uit van de containers, maar zie nergens de optie om deze containers bij te werken.
In DSM 7.2.X was dit blijkbaar heel eenvoudig, waarbij er bij het tabje (image) een knop bij kwam te staan om te updaten.
Het lijkt erop dat dit in DSM 7.3 er niet meer inzit.
Mijn collega, welke nog op DSM 7.2.X zit, kan middels een taak onderstaande aanroepen, waardoor er getriggerd wordt om naar latest images te zoeken:
/var/packages/ContainerManager/target/tool/image_upgradable_checker
Volgens Copilot werkt dit vanaf DSM 7.3.X niet meer, en bij mij doet dat ook niets (bij 7.2.X wél).
Weet iemand hoe je dus in 7.3.X je docker images eenvoudig kan updaten?
Als je de image bijwerkt krijg je de vraag de container(s) ook bij te werken.Niekniek89 schreef op donderdag 6 november 2025 @ 10:45:
Echter, er zijn inmiddels wat updates uit van de containers, maar zie nergens de optie om deze containers bij te werken.
Duct tape can't fix stupid, but it can muffle the sound.
Waar heb je de optie om het image bij te werken?DukeBox schreef op donderdag 6 november 2025 @ 10:48:
[...]
Als je de image bijwerkt krijg je de vraag de container(s) ook bij te werken.
Onder images, naast de tag latest (in geval je latest hebt gekozen).Niekniek89 schreef op donderdag 6 november 2025 @ 10:52:
Waar heb je de optie om het image bij te werken?
edit, ik had toevallig een update:
/f/image/K6jvdCmb7DxkwDGCjRbcyRIW.png?f=fotoalbum_large)
De container(s) die er gebruik van maken staan dan in het lijstje.
[ Voor 47% gewijzigd door DukeBox op 06-11-2025 11:31 ]
Duct tape can't fix stupid, but it can muffle the sound.
Het stukje "update available" komt er bij mij dus niet te staan....DukeBox schreef op donderdag 6 november 2025 @ 11:27:
[...]
Onder images, naast de tag latest (in geval je latest hebt gekozen).
edit, ik had toevallig een update:
[Afbeelding]
De container(s) die er gebruik van maken staan dan in het lijstje.
Dat lijkt dus in DSM 7.3.X niet of niet lekker meer te werken.
Of zit jij ook op DSM 7.3.X?
Mijn collega op DSM 7.2.X krijgt namelijk wel het "update available".
[ Voor 5% gewijzigd door Niekniek89 op 06-11-2025 12:00 ]
Ik gebruik overal "latest", zoals ik dat voorheen binnen docker op Proxmox ook altijd deed.Mawlana schreef op donderdag 6 november 2025 @ 12:02:
Heb je heel toevallig de versies hardcoded? Wat staat er bij "current tag"?
Alleen daar deed ik een re-create vanuit Portainer.
:strip_exif()/f/image/byyMug16pVq8npqYB328ZWfZ.png?f=user_large)
en van Sonarr is 100% een nieuwe release.
[ Voor 24% gewijzigd door Niekniek89 op 06-11-2025 12:13 ]
Maar anders installeer je toch gewoon weer Portainer?
Waar is Jos de Nooyer toch gebleven?
Dat is inderdaad een optie, maar zou je helemaal niet nodig hoeven hebben.kraats schreef op donderdag 6 november 2025 @ 13:15:
@Niekniek89 Ik zit op DSM 7.3.1-86003 en Container Manager 24.0.2-1606 en kan gewoon zonder problemen updaten.
Maar anders installeer je toch gewoon weer Portainer?
Blijft een vreemd iets, dat er bij geen updates verschijnen terwijl ze er weldegelijk zijn.
Yesterday is history. Tomorrow is a mystery. Today is a gift, that’s why we call it the present.
Dat lijkt bij mij ook idd het issue te zijn.GoTman schreef op donderdag 6 november 2025 @ 17:38:
Ik heb dit ook wel eens gehad en volgens mij had het er toen mee te maken dat het image van een nadere registry kwam ipv docker hub.
Ik zie bij de images geen docker hub, dit vanmiddag overal aangepast (ander image).
Nu wachten op updates 😅
je kan ook even in cmd sudo docker pull "container name" uitvoeren heb je ook de laatste te pakken.kraats schreef op donderdag 6 november 2025 @ 13:15:
@Niekniek89 Ik zit op DSM 7.3.1-86003 en Container Manager 24.0.2-1606 en kan gewoon zonder problemen updaten.
Maar anders installeer je toch gewoon weer Portainer?
Kleine aanvulling, ik kon al mijn docker containers updaiten via CM behalve jellyfin, deze kreeg nooit een update ik begreep niet waarom. Nadat ik een Docker pull had gedaan kreeg ik enkele dagen daarna wel een update in CM. Wellicht stond er iets verkeerd wat door de Docker pull is rechtgezet, dat weet ik niet.
Maar ik kan een Docker pull zeker aanraden.
[ Voor 32% gewijzigd door gielie op 07-11-2025 09:13 ]
"Death smiles at us all, all a man can do is smile back." - Maximus Decimus Meridius
Nee, dit klopt niet, dat is veel te kort door de bocht.gielie schreef op donderdag 6 november 2025 @ 23:01:
[...]
je kan ook even in cmd sudo docker pull "container name" uitvoeren heb je ook de laatste te pakken.
Je moet de image updaten.
Zie bijvoorbeeld: https://phoenixnap.com/kb/update-docker-image-container
[ Voor 5% gewijzigd door NaN op 07-11-2025 09:14 ]
Dat doe je dus met een Docker pull, je moet natuurlijk wel de juiste source gebruiken anders valt er niks te pullen.NaN schreef op vrijdag 7 november 2025 @ 09:11:
[...]
Nee, dit klopt niet. Je moet de image updaten.
Zie bijvoorbeeld: https://phoenixnap.com/kb/update-docker-image-container
Dat staat ook letterlijk in het stukje waar jij naar linkt, "Download the newer version of the image using the docker pull command:"
[ Voor 15% gewijzigd door gielie op 07-11-2025 09:18 ]
"Death smiles at us all, all a man can do is smile back." - Maximus Decimus Meridius
Jij schreef docker pull "container name”.gielie schreef op vrijdag 7 november 2025 @ 09:14:
[...]
Dat doe je dus met een Docker pull, je moet natuurlijk wel de juiste source gebruiken anders valt er niks te pullen.
Dat staat ook letterlijk in het stukje waar jij naar linkt, "Download the newer version of the image using the docker pull command:"
Ja, je wil toch 1 specifieke container updaten en niet allemaal. Om mijn voorbeeld te geven, "Docker pull jellyfin/jellyfin" maar ik ga ervan uit als je met containers werkt dat je mijn omschrijving wel snapt.
"Death smiles at us all, all a man can do is smile back." - Maximus Decimus Meridius
Ja, IK snap het prima, maar je gaf antwoord aan Niekniek89 en of hij dan begrijpt wat er gedaan moet worden via de prompt, dat weet ik niet. Vandaar mijn aanvulling/opmerking.gielie schreef op vrijdag 7 november 2025 @ 09:35:
[...]
Ja, je wil toch 1 specifieke container updaten en niet allemaal. Om mijn voorbeeld te geven, "Docker pull jellyfin/jellyfin" maar ik ga ervan uit als je met containers werkt dat je mijn omschrijving wel snapt.
Indien ja, wat voor instellingen / configuratie gebruik je dan?
Ryzen9 5900X; 16GB DDR4-3200 ; RTX-4080S ; 7TB SSD
Ik gebruikte images, welke niet een verwijzing hadden naar docker hub.NaN schreef op vrijdag 7 november 2025 @ 09:42:
[...]
Ja, IK snap het prima, maar je gaf antwoord aan Niekniek89 en of hij dan begrijpt wat er gedaan moet worden via de prompt, dat weet ik niet. Vandaar mijn aanvulling/opmerking.
Bij het uitrollen dus iets verkeerds gedaan.
Nu zijn alle images afkomstig van docker hub, en zal nu het script wél moeten werken.
Wacht nu nog even op nieuwe releases
Ik heb alle data gered, gelukkig.
Dus ik ben eigenlijk klaar om de hele RAID 5, in plaats van te rebuilden met een nieuwe HDD, te verwijderen. Dan zou ik vervolgens 3 van de 8 TB HDD's overhouden. Ik zou er dan 2 in een RAID 1 willen zetten.
Maar, kan ik dit zomaar even doen? Want waar staat het Synology OS en dergelijke op geinstalleerd? Staat dat op een flash chipje o.i.d. in de NAS, of daadwerkelijk op de HDD/SDD storage die er in zit?
Ik kan niet heel duidelijk vinden wat nu the way to go is, want iedereen wil standaard hun RAID herbouwen / reprareren, maar in mijn geval wil ik hem dus weggooien.
PV: Growatt MOD5000TL3-XH + 5720wp, WPB: Atlantic Explorer v4 270LC, L/L: MHI SCM 125ZM-S + SRK 50ZS-W + 2x SRK 25ZS-W + SRK 20ZS-W Modbus kWh meter nodig?
Wat je beschrijf is precies wat een Raid 5 voor je doet.
Er gaat een disk kapot, dan vervang je hem door een nieuwe en de raid software rebuild dan je Raid set.
Wat had je anders verwacht en waarom denk je dat een Raid 1 dat anders doet?
En waarom ben je alles gaan saven, je hebt toch gewoon een backup voor het geval die raid rebuild fout gaat (wat alleen gebeurd als er nog een disk defect gaat)
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik heb dat allemaal beschreven in mijn post. Ik vind de toon die je aanslaat ook niet nodig. "Wat had je verwacht", daar ging de hele post niet over. Je hoort mij niet klagen over hoe goed of slecht RAID 5 is. Je hoort me alleen zeggen dat het in dit geval in de weg zit.Ben(V) schreef op vrijdag 7 november 2025 @ 13:47:
Waarom ben je eigenlijk klaar met Raid 5?
Wat je beschrijf is precies wat een Raid 5 voor je doet.
Er gaat een disk kapot, dan vervang je hem door een nieuwe en de raid software rebuild dan je Raid set.
Wat had je anders verwacht en waarom denk je dat een Raid 1 dat anders doet?
En waarom ben je alles gaan saven, je hebt toch gewoon een backup voor het geval die raid rebuild fout gaat (wat alleen gebeurd als er nog een disk defect gaat)
Maar nogmaals dan, met nog wat meer details deze keer: Het enige voordeel is dat die raid 5 me 1 groot volume geeft. Voor de rest enkel nadelen.
Tijdens een willekeurige write zullen alle HDD's aangesproken worden. Erg lastig, gezien ik ook veel cold storage heb. Gewoon bestanden die daar staan en soms eens gelezen worden. Nu ging elke HDD altijd wel iets doen bij het schrijven van een log file van een Docker container bijvoorbeeld.
Down spinnen van de HDD's gebeurde effectief nooit.
De 4x 8 TB zat voor +- 12 TB vol denk ik. Dus dat had ook prima 2x een raid 1 van 2x 8 TB kunnen zijn.
Nadeel nu was dus dat ik speciaal een 8 TB HDD moest gaan kopen om die raid te rebuilden. Of een iets kleinere wellicht. Ik had nog wel 4 en 2 TB HDD's liggen. Maar die waren dan niet toereikend geweest.
Dus mooi moment om van die constructie af te stappen en uiteindelijk over te gaan op:
1x RAID 1 met 2x 8TB (met 1 reserve 8 TB HDD en de kapotte gaat uiteraard weg)
1x RAID 1 met 2x 4TB
1x RAID 1 met 2x 2TB
Iets duidelijker nu?
PV: Growatt MOD5000TL3-XH + 5720wp, WPB: Atlantic Explorer v4 270LC, L/L: MHI SCM 125ZM-S + SRK 50ZS-W + 2x SRK 25ZS-W + SRK 20ZS-W Modbus kWh meter nodig?
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik denk wel dat ik met @Ben(V) eens ben dat je huidige constructie een goede was. Maar met commentaar schiet je er zelf niets mee op, geeft niet.
Ik mis in je verhaal je type NAS. Gezien je het hebt over configuraties van ten minste 6 disks zal het al richting een 6 of 8 bay variant gaan?
Als je graag een 3x raid 1 set wilt optuigen zou ik in dit geval in bay 5/6 Een pool maken met 2x xTB. Dan komt daar het OS op en kan je die vullen met wat je wilt hebben.
Dan verwacht ik dat je daarna de pool met 4x 8TB kan verwijderen en vervolgens deze bays kan inrichten zoals je verder wenst.
Een nadeel aan je constructie is wel de uitbreidbare mogelijkheden, die heb je dan niet meer.
Alles went behalve een Twent.
⏩ PVOutput☀️
nggyu nglyd
Hoi,Tanuki schreef op zaterdag 8 november 2025 @ 20:37:
[...]
De 4x 8 TB zat voor +- 12 TB vol denk ik. Dus dat had ook prima 2x een raid 1 van 2x 8 TB kunnen zijn.
Nadeel nu was dus dat ik speciaal een 8 TB HDD moest gaan kopen om die raid te rebuilden. Of een iets kleinere wellicht. Ik had nog wel 4 en 2 TB HDD's liggen. Maar die waren dan niet toereikend geweest.
Dus mooi moment om van die constructie af te stappen en uiteindelijk over te gaan op:
1x RAID 1 met 2x 8TB (met 1 reserve 8 TB HDD en de kapotte gaat uiteraard weg)
1x RAID 1 met 2x 4TB
1x RAID 1 met 2x 2TB
Iets duidelijker nu?
Even wat ik uit de posts kon filteren:
Je hebt een synology, 6 (of meer) bays. Type onbekend
Je hebt 8TB disken, merk en type onbekend, leeftijd ook onbekend
Je had een RAID5 met 36TB effectief aan storage capaciteit.
Je hebt 12 TB nodig, eventuele groei is niet bekend.
Je hebt geen performance problemen voor zover wij weten.
Als je naar jouw voorstel gaat heb je met raid1: 2+4+8=14TB ongeveer, maar wel verdeeld in wat onhandige blokken. Je zou immers bij uitval 3 soorten disken moeten gaan regelen.
Synology schrijft het OS op alle disken in het systeem. Dus daar hoef je je geen zorgen over te maken, gaat vanzelf. Je schrijft niet dat er performance problemen zijn, maar gaat wel een fikse operatie uitvoeren om je raid sets opnieuw in te delen, zonder te weten wat het effect op je doorvoer is. Een SHR met 4 disken is sneller met writes dan een raid 1.
Als je data groeit, dan heb je niet heel veel extra ruimte voor opslag, immers alles zit nu al bijna vol, en je moet het wel kunnen verdelen over je 3 pools. Dat zal je zelf moeten bepalen of dit een handige en te beheren constructie is.
Hopelijk kan je er wat mee.
Groeten,
Reinier
[ Voor 17% gewijzigd door spaceboy op 10-11-2025 08:34 ]
Aan bovenstaande tekst kunnen geen rechten worden ontleend. Aan de tekst hieronder wel.
Welke NAS heb je?spaceboy schreef op maandag 10 november 2025 @ 08:33:
Ik heb sinds een aantal versies van DSM dat ik via Control Panel geen update meer zie. Ik heb op dit moment bijvoorbeeld: 7.3-81180 terwijl ik op de changelog zie dat per 28 oktober al versie 7.3.1-86003 beschikbaar is. Ik kan natuurlijk manual install doen (dat heb ik de vorige keer ook gedaan), maar dat is niet zo relaxed. Is dit een bekend probleem? (ik vermoed https://kb.synology.com/e..._but_not_in_control_panel maar ik wil hier vanaf)
Er zijn ook gewoon updates die alleen voor bepaalde CPU's zijn.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik had erg langzame transfer van mijn PC naar mijn Synology NAS.
Maximaal zo’n 6MB/s via de verkenner naar SMB shares. Schijven staan gewoon in JBOD. Geen speciale NAS of snelheids-schijven, geen SSD cache.
Via ChatGPT het volgende gedaan:
SMB signing en encryption uitgezet
Set-SmbServerConfiguration -EnableSecuritySignature $false
Set-SmbClientConfiguration -RequireSecuritySignature $false
Set-SmbClientConfiguration -EncryptData $false
In de instellingen van de NIC
UDP Checksum offload op uit gezet
Nu ongeveer 40 MB/sec.
Het was een interessant “gesprek”, maar menselijk commentaar is welkom
[ Voor 13% gewijzigd door GeeBee op 10-11-2025 21:52 ]
Woof, woof, woof! That's my other dog imitation.
Welke Synology NAS?GeeBee schreef op maandag 10 november 2025 @ 21:45:
Voor wie het nodig heeft:
Ik had erg langzame transfer van mijn PC naar mijn Synology NAS.
Maximaal zo’n 6MB/s via de verkenner naar SMB shares. Schijven staan gewoon in JBOD. Geen speciale NAS of snelheids-schijven, geen SSD cache.
Via ChatGPT het volgende gedaan:
SMB signing en encryption uitgezet
Set-SmbServerConfiguration -EnableSecuritySignature $false
Set-SmbClientConfiguration -RequireSecuritySignature $false
Set-SmbClientConfiguration -EncryptData $false
In de instellingen van de NIC
UDP Checksum offload op uit gezet
Nu ongeveer 40 MB/sec.
Het was een interessant “gesprek”, maar menselijk commentaar is welkom
En 40 MB/s is toch ook drie keer niks? Aangenomen dat je LAN gigabit is, moet je ~112 MB/s halen.
Met alle respect, maar 40MB/sec is nog steeds traag. Maar op een Syno 211j met een oude 5400rpm disk misschien wel de standaard, maar we weten niet welke NAS je hebt of wat voor netwerkje hebt.GeeBee schreef op maandag 10 november 2025 @ 21:45:
Ik had erg langzame transfer van mijn PC naar mijn Synology NAS.
Maximaal zo’n 6MB/s via de verkenner naar SMB shares. Schijven staan gewoon in JBOD. Geen speciale NAS of snelheids-schijven, geen SSD cache.
Nu ongeveer 40 MB/sec.
Het was een interessant “gesprek”, maar menselijk commentaar is welkom
110-120MB/s zou makkelijk haalbaar moeten zijn als je grote bestanden stuurt, bij veel kleine is het uiteraard lager.
Ik heb zelf geen ervaring met quick connect, wel met andere opties.. misschien dat je daar wat aan hebt.kwtemp874 schreef op dinsdag 11 november 2025 @ 13:23:
Vraagje, ik heb 2 Synology 918+ draaien met daarop Synology Drive Sharesync. Via port forwarding bereiken deze elkaar. Nu krijgt 1 locatie een andere internet verbinding. We krijgen een nieuwe verbinding, waarop we geen beheer op kunnen uitvoeren, dwz, een port forward gaat ook niet meer lukken. Nu lees ik wisselende verhalen dat dit ook via Quickconnect zou moeten werken zonder de poorten open te hoeven zetten. Heeft iemand hier positieve ervaringen mee?
- Ik heb Tailscale gebruikt om een VPN op te zetten waarbij twee Synology's elkaar kunnen bereiken.
- Een andere optie zou kunnen zijn om de verbinding vanuit de nieuwe locatie naar de 'beheerde oude locatie' op te zetten. Je hebt alleen aan de inkomende kant je forwarding nodig
- Laatste optie in mijn gedachten zou een VPN kunnen zijn, opzetten vanuit de onbeheerde naar een beheerde locatie. Daar heb je weer portforwarding nodig
Doordat wireguard als protocol wordt gebruikt is het ook nog eens snel.
Alles went behalve een Twent.
⏩ PVOutput☀️
nggyu nglyd
Ik moest eerst aan quickconnect denken. Dat gebruik ik zelf ook. Echter, een paar dagen geleden werd ik ook getriggert door Tailscale. Ik heb daar wat mee lopen ' spelen' en ik ben helemaal om. Dat werkt zo mooi en eenvoudig. Ik kan je dat zeker aanraden; je hebt helemaal niets meer met welke router dan ook van doen.kwtemp874 schreef op dinsdag 11 november 2025 @ 13:23:
Vraagje, ik heb 2 Synology 918+ draaien met daarop Synology Drive Sharesync. Via port forwarding bereiken deze elkaar. Nu krijgt 1 locatie een andere internet verbinding. We krijgen een nieuwe verbinding, waarop we geen beheer op kunnen uitvoeren, dwz, een port forward gaat ook niet meer lukken. Nu lees ik wisselende verhalen dat dit ook via Quickconnect zou moeten werken zonder de poorten open te hoeven zetten. Heeft iemand hier positieve ervaringen mee?
Zeker een avondje hobbyen waard!
Ik heb het voorheen ook met Quickconnect gedaan, maar dat is retelangzaam. Tailscale is het antwoord.kwtemp874 schreef op dinsdag 11 november 2025 @ 13:23:
Vraagje, ik heb 2 Synology 918+ draaien met daarop Synology Drive Sharesync. Via port forwarding bereiken deze elkaar. Nu krijgt 1 locatie een andere internet verbinding. We krijgen een nieuwe verbinding, waarop we geen beheer op kunnen uitvoeren, dwz, een port forward gaat ook niet meer lukken. Nu lees ik wisselende verhalen dat dit ook via Quickconnect zou moeten werken zonder de poorten open te hoeven zetten. Heeft iemand hier positieve ervaringen mee?
Volgens mij kan je ook met Tailscale alleen specifieke porten whitelisten voor extra veiligheid.
https://kb.synology.com/e...drive_sharesync?version=7
Tailscale gebruikt encryptie (VPN) en dat doet Drive Share ook, dubbelop dus.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Quickconnect werkt helemaal niet prima voor grotere files….. het is gewoon erg langzaaam. En dat is by design.Ben(V) schreef op dinsdag 11 november 2025 @ 15:12:
Quickconnect werkt prima zie:
Wat Drive doen is de connectie die quickconnect heeft overnemen en dan rechtstreeks tussen de twee Nas data uitwisselt.
Net als Hyper Backup dat zo kan.
[ Voor 7% gewijzigd door Ben(V) op 11-11-2025 18:48 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Een 1813+ (eigenlijk een 1812+).Saekerhett schreef op dinsdag 11 november 2025 @ 10:33:
[...]
Welke Synology NAS?
En 40 MB/s is toch ook drie keer niks? Aangenomen dat je LAN gigabit is, moet je ~112 MB/s halen.
Met TeraCopy zit ik op zo'n 70-80MB/sec naar SMB-shares. Ja, met 1000Mbit overal.
Zoals gezegd: JBOD en geen SSD cache.
Tips voor nog sneller zijn welkom
Woof, woof, woof! That's my other dog imitation.
Dit topic is onderdeel van de drie topics over Synology:In dit Vraag en Antwoord topic mogen alle vragen over Synology-producten tenzij:
- ... het een vraag betreft over een addon package voor Synology; daar is een apart topic voor.
- ... het een aankondiging of discussie-item betreft wat in het Nieuws en discussie topic hoort.
- ... jouw vraag al beantwoord is in de Veelgestelde vragen (FAQ).