Don't drive faster than your guardian angel can fly.
Sorry, ik had even mijn focus op andere zakenBen(V) schreef op woensdag 3 juli 2024 @ 09:25:
Ondersteund jouw android minimaal TLS 1.2?
Je kunt dit controleren via deze website:
https://www.howsmyssl.com/

Ik heb het nagekeken.
Mijn telefoon ondersteunt TLS 1.3 en mijn oude Samsung Android tablet uit 2017 ook.
En dat zie ik nu pas, verklaard wel veel, Thx.dvanroosmalen schreef op maandag 8 juli 2024 @ 19:16:
[...]
DS manager pro is geen Synology app, maar een 3rd party app. Dit zal waarschijnlijk de reden zijn.
Heeft Synology zelf niet iets vergelijkbaars?
Op zich vind ik de app wel handig om bv zo de logs te bekijken.
Edit: DS finder geeft wel wat info, maar als iemand een alternatief weet, graag.
[ Voor 9% gewijzigd door Rhodan op 09-07-2024 12:52 ]
Active Insight?Rhodan schreef op dinsdag 9 juli 2024 @ 12:47:
[...]
En dat zie ik nu pas, verklaard wel veel, Thx.
Heeft Synology zelf niet iets vergelijkbaars?
Op zich vind ik de app wel handig om bv zo de logs te bekijken.
Edit: DS finder geeft wel wat info, maar als iemand een alternatief weet, graag.
Geen logviewer, maar wel bekijken status en errors.
Running is nothing more than a series of arguments between the part of your brain that wants to stop and the part that wants to keep going.
Thx, deze ziet er wat karig uit, maar beter iets dan niets.TheOmen schreef op dinsdag 9 juli 2024 @ 13:42:
[...]
Active Insight?
Geen logviewer, maar wel bekijken status en errors.
Deze met de andere DS apps, kom ik een aardig stuk zonder eventueel een poort open te hoeven zetten.
Info: DSM 7.2.1-69057 Update 5
Meest recente build van Download station
/f/image/O2a7PuROIDDsJnrH0fIn0mOI.png?f=fotoalbum_large)
R7-3700X/MSI B550 Tomahawk/32GB RAM/NZXT H440/Phanteks TC14PE/Asrock RX6600XT Challenger
Dit kun je zelf niet fixen. Waarschijnlijk is er iets bij YouTube aangepast om downloaden buiten YouTube om te voorkomen. Synology moet dan weer aanpassingen doen aan de download station.NLBUURMAN schreef op woensdag 10 juli 2024 @ 20:49:
Veelvuldig maak ik gebruik om youtube filmpjes te downloaden met het downloadstation op m'n DS420J. Echter lijkt hij nu redelijk de weg kwijt; continu broken links en errors. Hij kan echter prima de titel vinden van het origineel op YT. Hoe krijg ik dit weer werkend?
Info: DSM 7.2.1-69057 Update 5
Meest recente build van Download station
[Afbeelding]
YouTube probeert te voorkomen dat de video's worden gedownload.
Don't drive faster than your guardian angel can fly.
Inderdaad. Heb hetzelfde met mijn DS920+. Wachten dus op een update van download station.DutchKel schreef op woensdag 10 juli 2024 @ 22:25:
[...]
Dit kun je zelf niet fixen. Waarschijnlijk is er iets bij YouTube aangepast om downloaden buiten YouTube om te voorkomen. Synology moet dan weer aanpassingen doen aan de download station.
YouTube probeert te voorkomen dat de video's worden gedownload.
Ah vandaar, ik dacht al, voor zover ik wist was er niets gewijzigd aan mijn kant... wacht ik even afDutchKel schreef op woensdag 10 juli 2024 @ 22:25:
[...]
Dit kun je zelf niet fixen. Waarschijnlijk is er iets bij YouTube aangepast om downloaden buiten YouTube om te voorkomen. Synology moet dan weer aanpassingen doen aan de download station.
YouTube probeert te voorkomen dat de video's worden gedownload.
R7-3700X/MSI B550 Tomahawk/32GB RAM/NZXT H440/Phanteks TC14PE/Asrock RX6600XT Challenger
Dat is een interessante discussie. Het is precies waar je hem voor gebruikt. Mijn ervaring is natuurlijk N-1 Hier al een NAS (DS213+) staan die al ongeveer 11 jaar functioneert. Ik gebruik de NAS vooral als fileserver voor mijn documenten, foto's en bestanden. Zo min mogelijk op de laptops en PC's. Daarnaast een VPN-server om de bestanden ook extern te kunnen benaderen. Andere functies als mail e.d. gebruik ik niet. De eerste 6-7 jaar stond deze 24 uur per dag aan. In de nacht werd de backup naar de externe locatie (cloud) gemaakt. De harde schijven en de NAS zelf gaan na een vaste periode van inactiviteit in slaapmodus. Dus het kwam voor dat de NAS-server 90% van de dag zo goed als uit staat. Bij activiteit wordt hij "wakker". Dat kon dus zijn ook binnen één minuut na "slapen".wvkreg schreef op maandag 8 juli 2024 @ 08:39:
[...]
Waarom uit/aan. NAS moet 24/7 aanstaan. Al die power cycles zijn niet goed voor de voeding en hdd's.
Sinds 4-5 jaar heb ik een stroomschema ingesteld omdat de nachtelijke backups iedere nacht toch maximaal 1 uur in beslag namen. Via het schema sluit 's nachts de NAS af en gaat uit en 's ochtends vroeg weer automatisch aan. De NAS functioneert nog steeds goed. De schijven zijn goed. Deze hebben na 10 - 11 jaar zo'n 33.900 uur gedraaid. Er zit een klein verschil tussen de schijven. Dat is dus ongeveer 8,5 uur per dag gemiddeld. Gezien zijn leeftijd zou de NAS aan vervanging toe zijn. Maar ik ben eigenlijk nog niet zo ver
Vergelijkingsmateriaal nog aanwezig? Zeker
Zeg het maar of waar dat aan kan liggen. Zelf nog niet gehad dat een voeding of een moederbord van een DS naar de filistijnen is gegaan. Alleen een paar WD NAS schijven van verschillende groottes.
Hoe kom je aan meer dan 40TB?DarkShadow schreef op maandag 17 juni 2024 @ 13:07:
[...]
Nog even hierover. Wat ik niet zo goed begrijp is waarom er niet een Nas is die je en gewoon normaal met USB-C kan aansluiten en verder natuurlijk wel als Nas kan functioneren.
Het probleem van een pure NAS als main backup is toch dat de online backup ineens veel duurder is. Ik kan hier met externe schijven / DAS etc onbeperkt backuppen met Backblaze voor 5 euro per maand per computer. Ik heb daar letterlijk meer dan 40TB staan, met een Nas moet ik ineens 6 eu per TB betalen per maand en is het ineens onbetaalbaar. (naja voor mij dan).
never argue with a moderator, he will shut your account down.
Klopt, andere clients hadden de afgelopen dagen vergelijkbare problemen.NLBUURMAN schreef op donderdag 11 juli 2024 @ 08:10:
[...]
Ah vandaar, ik dacht al, voor zover ik wist was er niets gewijzigd aan mijn kant... wacht ik even af
👉🏻 Blog 👈🏻
Ik ben freelancer cameraman / dop / regisseur.
Met een beetje cinemacamera zit een klein project tegenwoordig al op 2TB, grotere projecten kunnen zo 4-10 TB zijn.
Kan het aanzetten van de Firewall op de ontvangende Synology toevallig roet in het eten gooien?Ben(V) schreef op zaterdag 6 juli 2024 @ 12:52:
Als die doel Nas achter een tweede router zit (een Unifi?) dan maakt die een nieuw subnet aan en moet je ook in die router die port nogmaals forwarden.
Wat wel van belang is dat bij het opzetten van de Hyper Backup lik je tijdelijk ook de poorten 5000 en 5001 moet forwarden.
Als de link eenmaal goed functioneert kun je die forwards van 5000/5001 weer weghalen.
Verder zie ik ook nog de vraag waarom ik Tailscale zou willen gebruiken. Op internationale forums wordt Quickconnect vanwege de veiligheid vaak afgeraden, of is dat paniekzaaierij?
Ja als je Synology vertrouwd is quickconnect gewoon veilig.
Maar voor Hyper Backup heb je helemaal geen quickconnect nodig en ook geen tailscale.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Na een verhuizing en verbouwing mijn DS415+ gisteren weer opgestart en aangesloten. Eenmaal opgestart kwam de 'download'-snelheid niet boven de 10 MB/s uit. Vast een brakke kabel dacht ik, dus verschillende kabels geprobeerd en eigenlijk geen effect. Alles was aangesloten op LAN-poort 1 waar het in de vorige woning ook op zat. Op een gegeven moment toch maar eens LAN-poort 2 geprobeerd, en ineens gewoon de normale snelheden. Nu ben ik absoluut geen doorgewinterde IT'er maar zit ik in mijn hoofd te beredeneren wat hier nu de oorzaak van kan zijn, en kom er eigenlijk niet uit. Beide poorten moeten Gigabit poorten en moeten dus de verwachte snelheid halen. De 10 MB/s komt ook wel akelig dicht in de buurt van een 100 Mbit poort snelheid.
Netwerkconfiguratietechnisch is er niks gewijzigd, hardwarematig wel aangezien het nu achter een switch zit maar dan nog verklaard dat niet waarom de ene poort op 10 MB/s blijft steken. Bij het testen van beide LAN-poorten is telkens dezelfde poort op de switch gebruikt, dus dat is het ook niet. Ook in DSM worden beide poorten gewoon als 1 Gb/s poort weergegeven.
Iemand wat ideetjes in welke hoek dit gezocht zou kunnen worden, of wat tips om dit te troubleshooten? 😅
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Concrete vraag; als ik de schijven vervang voor snelle CMR-schijven (225 MB/S of meer), ga ik dan veel merken in de performance? Ik vind het prima daar wat geld in te steken, maar dan wil ik het verschil uiteraard wel merken
This too shall pass
Moeilijk te beantwoorden, je geeft niet veel info en het ligt aan verschillende zaken.Sharky schreef op zondag 14 juli 2024 @ 11:08:
Luitjes, ik heb een 920+ met daarin 4x 4TB SMR-schijven (WD40EFAX). Performance is niet extreem slecht, maar op momenten slechter dan ik zou willen/verwachten. Ik ben nu een back-up aan het terugzetten en het schiet ook gewoon niet op. Helpt natuurlijk ook niet dat ik een stuk of 15 dockers en een VM met Home Assistant erop draai. Geheugen zit rond 70% van de 8GB.
Concrete vraag; als ik de schijven vervang voor snelle CMR-schijven (225 MB/S of meer), ga ik dan veel merken in de performance? Ik vind het prima daar wat geld in te steken, maar dan wil ik het verschil uiteraard wel merken
Je zegt niet waar je vandaan een back-up terugzet. Vanaf een interne HDD, USB HDD, netwerk, ander NAS?
225MB/S is 1800Mb/s. Dat ga je met een 1Gb verbinding niet halen. Als je beide poorten kunt laten samenwerken, misschien...... Maar dan ben je ook weer afhankelijk van de (snelheid van de) bron.
SMR gebruik je omdat ze goedko(o)p(er) zijn, CMR wanneer de snelheid van grote gegevensoverdrachten belangrijk is. SMR in RAID is af te raden.
Heb een RAID configuratie? En welk bestandssysteem?
Heb je al eens gedacht een SSD cache? Meer intern geheugen voor caching van schrijfopdrachten?
Ik draai sinds deze week m'n Home Assistant VM op m'n Synology via VMM vanaf SSD storage vs een RAID-1 HDD set. Dat scheelt (logischerwijs) echt enorm veel qua performance. Had ik veel eerder moeten doen.Sharky schreef op zondag 14 juli 2024 @ 11:08:
Luitjes, ik heb een 920+ met daarin 4x 4TB SMR-schijven (WD40EFAX). Performance is niet extreem slecht, maar op momenten slechter dan ik zou willen/verwachten. Ik ben nu een back-up aan het terugzetten en het schiet ook gewoon niet op. Helpt natuurlijk ook niet dat ik een stuk of 15 dockers en een VM met Home Assistant erop draai. Geheugen zit rond 70% van de 8GB.
Concrete vraag; als ik de schijven vervang voor snelle CMR-schijven (225 MB/S of meer), ga ik dan veel merken in de performance? Ik vind het prima daar wat geld in te steken, maar dan wil ik het verschil uiteraard wel merken
De back-up is illustratief, ik zit het liefst zo weinig mogelijk in een situatie waarin ik een back-up moet terugzettenTheone098 schreef op zondag 14 juli 2024 @ 16:54:
[...]
Moeilijk te beantwoorden, je geeft niet veel info en het ligt aan verschillende zaken.
Je zegt niet waar je vandaan een back-up terugzet. Vanaf een interne HDD, USB HDD, netwerk, ander NAS?
225MB/S is 1800Mb/s. Dat ga je met een 1Gb verbinding niet halen. Als je beide poorten kunt laten samenwerken, misschien...... Maar dan ben je ook weer afhankelijk van de (snelheid van de) bron.
Het is RAID en in de vorm van SHR. SSD Cache heb ik, toen ik die plaatste had ik de indruk dat het iets hielp maar niet enorm. Het is vooral het algemene gevoel van hoe snel de NAS is als ik bijvoorbeeld Dockers uitrol en de Dockers benader. Home Assistant is in het dagelijks gebruik snel genoeg overigens.SMR gebruik je omdat ze goedko(o)p(er) zijn, CMR wanneer de snelheid van grote gegevensoverdrachten belangrijk is. SMR in RAID is af te raden.
Heb een RAID configuratie? En welk bestandssysteem?
Heb je al eens gedacht een SSD cache? Meer intern geheugen voor caching van schrijfopdrachten?
Home Assistant is prima qua performance bij mijSenser schreef op zondag 14 juli 2024 @ 16:58:
[...]
Ik draai sinds deze week m'n Home Assistant VM op m'n Synology via VMM vanaf SSD storage vs een RAID-1 HDD set. Dat scheelt (logischerwijs) echt enorm veel qua performance. Had ik veel eerder moeten doen.
This too shall pass
Wat zijn je verwachtingen dan?Sharky schreef op zondag 14 juli 2024 @ 11:08:
Luitjes, ik heb een 920+ met daarin 4x 4TB SMR-schijven (WD40EFAX). Performance is niet extreem slecht, maar op momenten slechter dan ik zou willen/verwachten.
En je CPU?
Moet dit zichtbaar zijn? Als ik mijn snuffert in de poort druk zie ik eigenlijk alle pinnetjes evenredig naast elkaar zitten, er valt me geen op die 'schever' zit dan de anderen.Ben(V) schreef op zondag 14 juli 2024 @ 08:59:
Waarschijnlijk een pennetje van de connector in de Nas verbogen.
Gebeurd vaker met de RJ45's die aan de kabel zit maar soms doen de females in het apparaat zelf ook moeilijk.
En uiteraard kan de poort zelf ook defect zijn maar dan doen ze meestal helemaal niets meer.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Voor hyper backup naar een externe NAS is geen Quick connect nodig?Ben(V) schreef op vrijdag 12 juli 2024 @ 16:34:
Ja de firewal kan uiteraard dingen blokkeren.
Ja als je Synology vertrouwd is quickconnect gewoon veilig.
Maar voor Hyper Backup heb je helemaal geen quickconnect nodig en ook geen tailscale.
Het kan in principe via QuickConnect. Maar dat is langzamer.brambello schreef op maandag 15 juli 2024 @ 11:51:
[...]
Voor hyper backup naar een externe NAS is geen Quick connect nodig?
Je wilt het liefst rechtstreeks, dat wil zeggen dat je poort 6281 moet forwarden op de externe router. Dan kan je op de ontvangende NAS Hyperbackup Vault installeren en gebruiken.
Wel adviseer ik om poort 6281 enkel vanaf jouw publieke IP adres beschikbaar te maken.
Alles went behalve een Twent.
⏩ PVOutput☀️
Je moet op de target Nas HyperBackup Vault installeren, vervolgend de poorten 5000,5001 en 6281 daar in de router forwarden naar die Nas.
Dan zet je vanaf de Bron Nas een HyperBackup connectie op naar de target Nas en als die er eenmaal gerealiseerd is verwijder je de forwards van 5000 en 5001 weer.
Je moet bij het opzetten van de connectie wel gebruikers credentials van de target Nas invullen en die moeten admin rechten hebben.
De forward 6281 moet blijven maar die wordt beveiligd door HyperBackup Vault die alleen HyperBackup verkeer van een geldige HyperBackup client accepteert.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
De vraag is redelijk concreet; ga ik in het algemeen een merkbare performanceverbetering vaststellen als ik van SMR naar CMR ga icm snellere schijven in SHR? Op papier is het uiteraard sneller, maar wellicht zijn er ervaringsdeskundigen die al dan niet een duidelijk verschil hebben gemerkt.
<10% op een willekeurig moment.[...]
En je CPU?
This too shall pass
Je hebt verwachtingen over de snelheid van het systeem die anders zijn dan wat je nu hebt. De vraag is: Welke snelheid had je verwacht? Daar zit je mee. Verwacht je het net zo snel als de schijven in je PC is? Wat bedoel je?Sharky schreef op zondag 14 juli 2024 @ 11:08:
Performance is niet extreem slecht, maar op momenten slechter dan ik zou willen/verwachten. Ik ben nu een back-up aan het terugzetten en het schiet ook gewoon niet op.
Er zit verschil tussen theorie (papier) en praktijk. Dat blijft altijd zo. Het ligt helemaal wat je aan het doen bent met het systeem. Wat heb je allemaal draaien, wat benader je allemaal te gelijk. Hebben processen veel data te verstouwen of juist niet. Zijn processen afhankelijk van de schijven? Zijn processen afhankelijk van externe zaken zoals internet en/of eigen netwerk. Zijn alle containers goed geconfigureerd? Gaan je schijven in slaap stand na bepaalde tijd? Dan hebben ze weer een bepaalde tijd nodig om op te starten. Dat soort dingen. Dan kan je kijken wat je er aan kan doen,Sharky schreef op maandag 15 juli 2024 @ 22:04:
[...]
De vraag is redelijk concreet; ga ik in het algemeen een merkbare performanceverbetering vaststellen als ik van SMR naar CMR ga icm snellere schijven in SHR? Op papier is het uiteraard sneller, maar wellicht zijn er ervaringsdeskundigen die al dan niet een duidelijk verschil hebben gemerkt.
Je zou het over een langere tijd moeten bekijken. Wat doet je systeem over een langere periode. Wat doet het systeem als je het aan het belasten bent.Sharky schreef op maandag 15 juli 2024 @ 22:04:
<10% op een willekeurig moment.
Je kan ook je externe NAS een VPN connectie naar huis laten maken.Quad schreef op maandag 15 juli 2024 @ 12:02:
[...]
Het kan in principe via QuickConnect. Maar dat is langzamer.
Je wilt het liefst rechtstreeks, dat wil zeggen dat je poort 6281 moet forwarden op de externe router. Dan kan je op de ontvangende NAS Hyperbackup Vault installeren en gebruiken.
Wel adviseer ik om poort 6281 enkel vanaf jouw publieke IP adres beschikbaar te maken.
Dan hoef je op het externe router niets met forwarding te doen.
Voor archivering kun je zonder meer SMR schijven gebruiken. Voor alle andere toepassingen zou ik het bij CMR houden. In mijn NAS zet ik CMR schijven omdat dit 'levende data' is die met enige regelmaat verandert.Sharky schreef op maandag 15 juli 2024 @ 22:04:
[...]
De vraag is redelijk concreet; ga ik in het algemeen een merkbare performanceverbetering vaststellen als ik van SMR naar CMR ga icm snellere schijven in SHR? Op papier is het uiteraard sneller, maar wellicht zijn er ervaringsdeskundigen die al dan niet een duidelijk verschil hebben gemerkt.
[...]
<10% op een willekeurig moment.
Daar waar onze Google online opslag vaker vol begin te raken en ik al vaker de gedachten heb om een NAS aan te schaffen voor opslag van foto's en overige media als een back-up tool ben ik eens gaan zoeken en kwam ik ook op de NAS selector van Synology site uit en daar kwam ik op twee modellen uit:
De Synology DS223J
De Synology DS223
Nu heb ik ze uiteraard in de vergelijk geplaatst en hebben de 223 & 223J dezelfde CPU en snelheid, echter heeft de 223 2GB intern geheugen en de 223J 1GB intern geheugen. Beide 2 slots met 1GbE LAN en beide lijken voor opslag ook dezelfde capaciteit te hebben.
Nu willen wij de NAS vooral gaan gebruiken voor lokale foto opslag & back-up. Wellicht in de toekomst als mediahubje om soms eens wat filmpjes of iets van af te spelen of te streamen naar een TV. Maar dit zal vooral sporadisch zijn omdat de vrouw toch vooral met streaming diensten aan het kijken is. De tijd van nieuwsservers, downloaden en streamen zijn een beetje voorbij.
Ik ga er vanuit dat wij voor nu prima met de DS223J uit de voeten zouden kunnen en daarnaast ook 3.5" disken erin, zodat voor ons prijs / opslag verhouding prima is. Lees en schrijfsnelheid zullen wij vooral voor de opslag niet direct merken of nodig hebben lijkt mij.
Nu heb ik een beetje zitten zoeken maar zijn er recente ervaringen met deze DS223J versie of is het de 80 / 100 euro DS223 wel waard?
Hattrick: Iduna United PSN; AeroBite
Om mezelf als voorbeeld te nemen: ik ben begonnen met een DS114, en ben na een paar jaar (na wat tegen "ja maar het is een net nieuw apparaat, zonde om nu al te upgraden" aan te hikken) overgestapt op een DS218+ omdat die een snellere processor, meer geheugen en ondersteuning voor Docker heeft. Het geheugen heb ik vervolgens uitgebreid en dat systeem was/is echt een verademing tov de DS114. Waar ik me eerst echt ergerde aan de traagheid, is de DS218+ (hoewel inmiddels ook al wat bejaard) goed werkbaar terwijl ik er veel meer mee doe dan eerder met de DS114 mogelijk was.
Dat brengt me meteen bij een vraag: is er een mogelijkheid om het geheugen uit te breiden op de DS223J? Ik kan me voorstellen van niet, maar als geheugen echt het enige verschil is, zou ik de DS223J nemen en daar geheugen bijprikken indien mogelijk.
Als ik ze vergelijk op de site van Synology zelf (DS223j / DS223 / DS224+) lijkt inderdaad alleen die 1Gb geheugen het verschil te zijn tussen de DS223j en DS223. Ik zie wel dat de DS223 en DS224+ wat zwaarder zijn, dus ik verwacht ergens toch wat verschil in stevigheid/materiaalgebruik. Aangezien een NAS meestal ergens in een hoekje stilstaat lijkt me dat geen probleem.
[ Voor 15% gewijzigd door gwystyl op 18-07-2024 15:27 ]
Ik zou voor de uitvoering: Synology DiskStation DS224+ gaan, daar kun je het geheugen makkelijk (en goedkoop) uitbreiden naar 18GB en dan kun je er jaren tegen, daar ga je geen spijt van krijgen. Zoals hierboven ook al gezegd, nu ga je voor een lichter model welke je waarschijnlijk na een paar jaar wilt vervangen, dan ben je in totaal een stuk meer geld kwijt.Salv schreef op donderdag 18 juli 2024 @ 14:47:
Luitjes,
Daar waar onze Google online opslag vaker vol begin te raken en ik al vaker de gedachten heb om een NAS aan te schaffen voor opslag van foto's en overige media als een back-up tool ben ik eens gaan zoeken en kwam ik ook op de NAS selector van Synology site uit en daar kwam ik op twee modellen uit:
De Synology DS223J
De Synology DS223
"Don't worry, about a thing, Cause every little thing is gonna be alright"
Ik denk niet dat ik het daarmee eens ben.FrankHe schreef op donderdag 18 juli 2024 @ 12:44:
[...]
Voor archivering kun je zonder meer SMR schijven gebruiken. Voor alle andere toepassingen zou ik het bij CMR houden. In mijn NAS zet ik CMR schijven omdat dit 'levende data' is die met enige regelmaat verandert.
Ja, een SMR kan je gebruiken voor archivering. Dat is zijn voornaamste gebruik voor bedoeld.
Maar SMR is ontwikkeld om goedkoper te zijn per TB dan CMR.
Dat is bijna nooit het geval.
Een CMR schijf is op alle vlakken beter dan SMR.
Dus als een SMR schijf niet aanzienlijk goedkoper is, zou ik NOOIT voor SMR gaan, maar altijd een CMR.
Ik heb dan zelf ook geen SMR schijven in gebruik.
Ryzen9 5900X; 16GB DDR4-3200 ; RTX-4080S ; 7TB SSD
Ik heb de volgende groepen:
- users (standaard)
- docker
De groep docker heeft wel specifieke permissies ingesteld, namelijk lees- en schrijfrechten op de map media.
De gebruiker docker_user, die in de groep docker zit, heeft lees- en schrijfrechten op de map media via de groep docker_user.
Echter, bij het testen blijkt dat docker_user geen toegang heeft tot de map media. Als ik echter de gebruikerspermissies van docker_user aanpas, kan hij wel bij de map. Maar dit zou niet nodig moeten zijn.
[ Voor 5% gewijzigd door banaliteit op 18-07-2024 20:30 ]
Het probleem met SMR schijven is dat sommige mensen op een gegeven moment SMR in hun NAS bleken te hebben zonder dat ze dit wisten. Met allerlei vage klachten to gevolg, een traag werkende NAS en een RAID rebuild die mislukte. Toen bleek dat WD zonder het te vertellen NAS schijven was gaan verkopen die niet CMR maar SMR waren. Dat is vervolgens een hele grote rel geworden.GarBaGe schreef op donderdag 18 juli 2024 @ 15:53:
[...]
Ik denk niet dat ik het daarmee eens ben.
Ja, een SMR kan je gebruiken voor archivering. Dat is zijn voornaamste gebruik voor bedoeld.
Maar SMR is ontwikkeld om goedkoper te zijn per TB dan CMR.
Dat is bijna nooit het geval.
Een CMR schijf is op alle vlakken beter dan SMR.
Dus als een SMR schijf niet aanzienlijk goedkoper is, zou ik NOOIT voor SMR gaan, maar altijd een CMR.
Ik heb dan zelf ook geen SMR schijven in gebruik.
Dat klinkt inderdaad een beetje vreemd. Er zijn twee dingen belangrijk om te weten. In de eerste plaats zitten alle gebruikers in de groep users en daarnaast kan een gebruiker in één of meer andere groepen zitten. Bij groepen en gebruikers geldt dat een "deny" of "No Access" instelling altijd voorrang heeft op een "allow".banaliteit schreef op donderdag 18 juli 2024 @ 20:27:
Ik heb een probleem met betrekking tot permissies dat ik niet kan verklaren.
Ik heb de volgende groepen:De groep users heeft geen speciale permissies ingesteld.
- users (standaard)
- docker
De groep docker heeft wel specifieke permissies ingesteld, namelijk lees- en schrijfrechten op de map media.
De gebruiker docker_user, die in de groep docker zit, heeft lees- en schrijfrechten op de map media via de groep docker_user.
Echter, bij het testen blijkt dat docker_user geen toegang heeft tot de map media. Als ik echter de gebruikerspermissies van docker_user aanpas, kan hij wel bij de map. Maar dit zou niet nodig moeten zijn.
En dan zijn er nog de permissies op directory niveau. In beginsel overerven deze vanuit de hoofdmap naar onderliggende mappen maar dit overerven kun je voor een gebruiker of groep uitschakelen. Al met al kan het op verschillende niveaus gebeuren dat een gebruiker al dan niet toegang heeft tot bepaalde mappen.
Je zou kunnen kijken of de permissies van de groep wel overerven naar de onderliggende mappen.
Neem aan "De gebruiker docker_user, die in de groep docker zit, heeft lees- en schrijfrechten op de map media via de groep docker*"banaliteit schreef op donderdag 18 juli 2024 @ 20:27:
Ik heb een probleem met betrekking tot permissies dat ik niet kan verklaren.
Ik heb de volgende groepen:De groep users heeft geen speciale permissies ingesteld.
- users (standaard)
- docker
De groep docker heeft wel specifieke permissies ingesteld, namelijk lees- en schrijfrechten op de map media.
De gebruiker docker_user, die in de groep docker zit, heeft lees- en schrijfrechten op de map media via de groep docker_user.
Echter, bij het testen blijkt dat docker_user geen toegang heeft tot de map media. Als ik echter de gebruikerspermissies van docker_user aanpas, kan hij wel bij de map. Maar dit zou niet nodig moeten zijn.
Ja, dat was echt schandalig van WD, om zo'n actie uit te voeren.FrankHe schreef op donderdag 18 juli 2024 @ 23:12:
[...]
Het probleem met SMR schijven is dat sommige mensen op een gegeven moment SMR in hun NAS bleken te hebben zonder dat ze dit wisten. Met allerlei vage klachten to gevolg, een traag werkende NAS en een RAID rebuild die mislukte. Toen bleek dat WD zonder het te vertellen NAS schijven was gaan verkopen die niet CMR maar SMR waren. Dat is vervolgens een hele grote rel geworden.
Ik ben van mening dat SMR schijven voor consumenten geen toegevoegde waarde biedt en niet in deze markt verkocht zou moeten worden.
Alleen voor grote datacenter providers, die host-controlled SMR disks gebruiken zie ik een niche markt voor SMR.
Door de host-controlled versie heb je als gebruiker van de disk nog enige controle over wanneer en hoe vaak tracks opnieuw geschreven moeten worden en heb je daarmee controle over het wispelturige en onvoorspelbare gedrag van een SMR disk.
Als je de voordelen tegen de nadelen afzet, is SMR gewoon troep (in mijn mening), zeker voor de consumenten markt
Ryzen9 5900X; 16GB DDR4-3200 ; RTX-4080S ; 7TB SSD
Voor een NAS waarop 'dagelijkse bestanden' staan is SMR geen voor de hand liggende keuze omdat schrijfacties gewoon heel erg traag verlopen. Feit is echter dat fabrikanten SMR voornamelijk topassen in de goedkope series desktopschijven en de schijven in een externe behuizing met USB-aansluiting. Op die manier pakken ze nog een beetje winstmarge op hun producten aan de onderkant van de markt.GarBaGe schreef op vrijdag 19 juli 2024 @ 09:05:
[...]
Ja, dat was echt schandalig van WD, om zo'n actie uit te voeren.
Ik ben van mening dat SMR schijven voor consumenten geen toegevoegde waarde biedt en niet in deze markt verkocht zou moeten worden.
Alleen voor grote datacenter providers, die host-controlled SMR disks gebruiken zie ik een niche markt voor SMR.
Door de host-controlled versie heb je als gebruiker van de disk nog enige controle over wanneer en hoe vaak tracks opnieuw geschreven moeten worden en heb je daarmee controle over het wispelturige en onvoorspelbare gedrag van een SMR disk.
Als je de voordelen tegen de nadelen afzet, is SMR gewoon troep (in mijn mening), zeker voor de consumenten markt
Je moet tegenwoordig gewoon heel erg opletten wat je koopt.
Laat dat 'dagelijkse bestanden' maar weg, bij een cow fs zoals btrfs dat synology standaard gebruikt kan je niet eens normaal een defrag doen (letterlijk weken i.p.v. dagen).FrankHe schreef op vrijdag 19 juli 2024 @ 09:34:
Voor een NAS waarop 'dagelijkse bestanden' staan is SMR geen voor de hand liggende keuze omdat schrijfacties gewoon heel erg traag verlopen.
Duct tape can't fix stupid, but it can muffle the sound.
Fragmentatie is bij BTRFS voor mijn gevoel minder een probleem dan vroeger bij FAT32, maar dat kan ik natuurlijk mis hebben. NTFS was al een enorme vooruitgang ten opzichte van FAT32.DukeBox schreef op vrijdag 19 juli 2024 @ 10:24:
[...]
Laat dat 'dagelijkse bestanden' maar weg, bij een cow fs zoals btrfs dat synology standaard gebruikt kan je niet eens normaal een defrag doen (letterlijk weken i.p.v. dagen).
Met SMR-schijven zie ik het inderdaad somber in, het zijn niet de ideale schijven voor een NAS.
Ja en nee, het hangt af van hoe vol het volume is, hoe groot de files zijn en ook of je gebruik maakt van snapshots/versioning.FrankHe schreef op vrijdag 19 juli 2024 @ 10:33:
Fragmentatie is bij BTRFS voor mijn gevoel minder een probleem dan vroeger bij FAT32, maar dat kan ik natuurlijk mis hebben. NTFS was al een enorme vooruitgang ten opzichte van FAT32.
Juist door CoW op een al gefragmenteerd en redelijk vol volume krijgt je steeds meer fragmentatie. Helemaal als je ook nog eens met voornamelijk grote files werkt loop je er al best snel tegenaan. Ook na iedere reclamation ontkom je er niet aan dat er fragmentatie gaat optreden.
In sommige gevallen heb je er dus zelfs veel meer last van al kan je het eigenlijk qua functionaliteit niet vergelijken met FAT32.
Oh en dan vergeet ik nog te melden dat met veel fragmentatie en grote volumes het je ook nog een hoop ruimte kan kosten. Met een eenvoudige maria database zie ik bij mij al meer dan 40 extends en dat voor een file van maar 340MB. Die neemt op mijn volume dus al meer dan 400MB in beslag.
[ Voor 19% gewijzigd door DukeBox op 19-07-2024 10:59 ]
Duct tape can't fix stupid, but it can muffle the sound.
De vraag is in hoeverre je hier in de praktijk (echt) last van hebt bij een array met CMR-schijven? Met SMR-schijven is het zonder meer merkbaar in de write-performance.DukeBox schreef op vrijdag 19 juli 2024 @ 10:43:
[...]
Ja en nee, het hangt af van hoe vol het volume is, hoe groot de files zijn en ook of je gebruik maakt van snapshots/versioning.
Juist door CoW op een al gefragmenteerd en redelijk vol volume krijgt je steeds meer fragmentatie. Helemaal als je ook nog eens met voornamelijk grote files werkt loop je er al best snel tegenaan. Ook na iedere reclamation ontkom je er niet aan dat er fragmentatie gaat optreden.
In sommige gevallen heb je er dus zelfs veel meer last van al kan je het eigenlijk qua functionaliteit niet vergelijken met FAT32.
Oh en dan vergeet ik nog te melden dat met veel fragmentatie en grote volumes het je ook nog een hoop ruimte kan kosten. Met een eenvoudige maria database zie ik bij mij al meer dan 40 extends en dat voor een file van maar 340MB. Die neemt op mijn volume dus al meer dan 400MB in beslag.
Het hebben van snapshots komt inderdaad met een licht prestatieverlies en dat valt naar mijn mening prima te verdedigen. Het is sowieso goed om een ruime 25% schrijfruimte vrij te houden zodat fragmentatie niet onmiddellijk tot problemen leidt.
Aanvulling: we hebben het hier over een NAS en niet over een (high performance) applicatieserver of database. Ik heb ook MariaDB draaien op een Synology DiskStation met Intel Celeron CPU en heb geen klachten over de performance van deze bijna 10 GB grote database. Het voldoet ruim aan wat er in dit geval nodig is.
[ Voor 10% gewijzigd door FrankHe op 19-07-2024 11:41 ]
Als je grote files leest/schrijft en de transfer rate is niet 1 strakke lijn dan zou het fragmentatie (seek time) kunnen zijn.FrankHe schreef op vrijdag 19 juli 2024 @ 11:31:
De vraag is in hoeverre je hier in de praktijk (echt) last van hebt bij een array met CMR-schijven?
[..]
Aanvulling: we hebben het hier over een NAS en niet over een (high performance) applicatieserver of database.
Duct tape can't fix stupid, but it can muffle the sound.
Uit de praktijk hoor ik geen klachten van de mensen die deze NAS gebruiken. De meeste bestanden worden overigens via Synology Drive gesynchroniseerd wat sowieso een proces is dat op de achtergrond draait. Als de bestandsoverdracht een seconde langer duurt dan ondervindt niemand daar hinder van. Één gebruiker verplaatst via SMB3 op dagelijkse basis enkele tientallen bestanden van gemiddeld 50 MB elk en ook daarvan heb ik nooit klachten ontvangen. Ik heb geen vergelijkingsmateriaal hoeveel slechter de performance zou zijn met SMR-schijven ten opzichte van CMR maar ik heb gehoord dat je dat wel zou kunnen merken.DukeBox schreef op vrijdag 19 juli 2024 @ 12:28:
[...]
Als je grote files leest/schrijft en de transfer rate is niet 1 strakke lijn dan zou het fragmentatie (seek time) kunnen zijn.
Duct tape can't fix stupid, but it can muffle the sound.
Maar twee werken niet, een docker container en een Home Assistant servertje. Op de een of andere manier wil hij doorlinken naar dsm (port 5000).
/f/image/9ldESBPUUUwfCFx5Ly7xz1n7.png?f=fotoalbum_large)
Ik heb mijn dns zone gecheckt: alles is gelijk en klopt.
Ik heb mijn reverse proxy opnieuw ingesteld en dat klopt ook
Hoe fix it dit? Wel handig om Home Assistant van buiten te benaderen!
PS: ik ben niet offline he?
Ben je de enige die met thuis verbindt en dingen moet doen op de server etc?iAR schreef op zaterdag 20 juli 2024 @ 15:30:
Ik heb een vreemd probleem. Ik heb een aantal reverse proxy's ingesteld waarvan er 3 normaal werken: ik wordt keurig geredirect naar de specifieke docker containers.
Maar twee werken niet, een docker container en een Home Assistant servertje. Op de een of andere manier wil hij doorlinken naar dsm (port 5000).
[Afbeelding]
Ik heb mijn dns zone gecheckt: alles is gelijk en klopt.
Ik heb mijn reverse proxy opnieuw ingesteld en dat klopt ook
Hoe fix it dit? Wel handig om Home Assistant van buiten te benaderen!
PS: ik ben niet offline he?
Ik zou namelijk echt aanraden om een VPN te gebruiken. Dat is eenmalig instellen, en alles werkt op afstand.
Dat gezegd hebbende, waarom gebruik je een poort nummer achter je reverse proxy? Heel het idee van een reverse proxy, is dat je geen poortnummers in hoeft te voeren. Daarnaast heeft poort 5000 niks te maken met home assistant.
Zover ik het kan beoordelen, heb je de boel dus verkeerd ingesteld
[ Voor 28% gewijzigd door Wachten... op 24-07-2024 12:47 ]
Als je dit kunt lezen, dan werkt mij Signature!
Ik benader mijn NAS wel vanaf internet via OpenVPN maar loop ook tegen problemen aan met reverse proxies.Wachten... schreef op woensdag 24 juli 2024 @ 12:42:
[...]
Ben je de enige die met thuis verbindt en dingen moet doen op de server etc?
Ik zou namelijk echt aanraden om een VPN te gebruiken. Dat is eenmalig instellen, en alles werkt op afstand.
Dat gezegd hebbende, waarom gebruik je een poort nummer achter je reverse proxy? Heel het idee van een reverse proxy, is dat je geen poortnummers in hoeft te voeren. Daarnaast heeft poort 5000 niks te maken met home assistant.
Zover ik het kan beoordelen, heb je de boel dus verkeerd ingesteld
Op zich geen probleem want ik kan mijn docker containers altijd benaderen via de poortnummers.
Mijn setup:
- Ik gebruik een Synology DDNS
- 1 van de Docker containers die ik heb draaien, is een Pi-hole, waarmee ik lokaal (ook voor VPN verkeer) de DNS afvang.
Hiermee verwijs ik mijn abc.synology.me naar mijn localhost (192.168.0.x van de NAS). Dit werkt goed en hierdoor heb ik geen certificate mismatches meer voor https verkeer.
Helaas krijg ik (door mijn DNS setup?) geen reverse proxies meer ingeschakeld.
Ik heb bijv een Docker container met een simpele Django webserver op poort 22300, deze kan ik niet benaderen via containernaam.abc.synology.me zoals ik graag zou willen.
[ Voor 8% gewijzigd door Mawlana op 25-07-2024 10:48 ]
Bij Home Assistant moet je instellen wat de proxy server is anders werkt het niet.iAR schreef op zaterdag 20 juli 2024 @ 15:30:
Ik heb een vreemd probleem. Ik heb een aantal reverse proxy's ingesteld waarvan er 3 normaal werken: ik wordt keurig geredirect naar de specifieke docker containers.
Maar twee werken niet, een docker container en een Home Assistant servertje. Op de een of andere manier wil hij doorlinken naar dsm (port 5000).
[Afbeelding]
Ik heb mijn dns zone gecheckt: alles is gelijk en klopt.
Ik heb mijn reverse proxy opnieuw ingesteld en dat klopt ook
Hoe fix it dit? Wel handig om Home Assistant van buiten te benaderen!
PS: ik ben niet offline he?
https://community.home-as...hind-reverse-proxy/440123
Don't drive faster than your guardian angel can fly.
Maar kun je je reverse proxy settings binnen Synology eens doorsturen die je in Synology hebt ingevoerd?nino_070 schreef op donderdag 25 juli 2024 @ 10:36:
[...]
Ik benader mijn NAS wel vanaf internet via OpenVPN maar loop ook tegen problemen aan met reverse proxies.
Op zich geen probleem want ik kan mijn docker containers altijd benaderen via de poortnummers.
Mijn setup:
- Ik gebruik een Synology DDNS
- 1 van de Docker containers die ik heb draaien, is een Pi-hole, waarmee ik lokaal (ook voor VPN verkeer) de DNS afvang.
Hiermee verwijs ik mijn abc.synology.me naar mijn localhost (192.168.0.x van de NAS). Dit werkt goed en hierdoor heb ik geen certificate mismatches meer voor https verkeer.
Helaas krijg ik (door mijn DNS setup?) geen reverse proxies meer ingeschakeld.
Ik heb bijv een Docker container met een simpele Django webserver op poort 22300, deze kan ik niet benaderen via containernaam.abc.synology.me zoals ik graag zou willen.
Soms
Als je dit kunt lezen, dan werkt mij Signature!
Maar dan gebruik je dus alleen DNS resolving om te routen naar je docker containers, geen reverse proxy?Mawlana schreef op donderdag 25 juli 2024 @ 10:48:
Ik heb zowel intern als extern (via VPN) geen probleem met reverse proxy. Pi-hole zorgt ervoor dat mijnapp.int.mijn.domein.nl wordt geresolved naar het ip-adres van mijn Traefik-container. Deze Pi-hole wordt gebruikt door alle apparaten in het netwerk, inclusief de Wireguard clients. Traefik verzorgt de LetsEncrypt SSL-certificaten.
En dan wijs je neem ik aan handmatig een apart ip adres toe aan je docker containers?
soms...?Wachten... schreef op donderdag 25 juli 2024 @ 11:26:
[...]
Maar kun je je reverse proxy settings binnen Synology eens doorsturen die je in Synology hebt ingevoerd?
Soms
hier zijn de opties die ik heb geprobeerd. Alles wat gemasked is is het begin van mijn DDNS adres (abc.myds.me).
Lokaal is die docker container gewoon te benaderen via http://192.168.0.2:22300
:strip_exif()/f/image/uHCbN5Y4gcp405PbZ57UTS5s.jpg?f=fotoalbum_large)
Ik bedoel meer de settings van één van die reverse proxy's. Ik denk dat daar iets niet goed staatnino_070 schreef op donderdag 25 juli 2024 @ 12:00:
[...]
Maar dan gebruik je dus alleen DNS resolving om te routen naar je docker containers, geen reverse proxy?
En dan wijs je neem ik aan handmatig een apart ip adres toe aan je docker containers?
[...]
soms...?
hier zijn de opties die ik heb geprobeerd. Alles wat gemasked is is het begin van mijn DDNS adres (abc.myds.me).
Lokaal is die docker container gewoon te benaderen via http://192.168.0.2:22300
[Afbeelding]
Deze stappen al eens doorlopen....
https://mariushosting.com...lin-on-your-synology-nas/
[ Voor 5% gewijzigd door Wachten... op 25-07-2024 12:18 ]
Als je dit kunt lezen, dan werkt mij Signature!
Alle hostnames resolven naar het ip-adres van Traefik.nino_070 schreef op donderdag 25 juli 2024 @ 12:00:
[...]
Maar dan gebruik je dus alleen DNS resolving om te routen naar je docker containers, geen reverse proxy?
En dan wijs je neem ik aan handmatig een apart ip adres toe aan je docker containers?
Bij mij heeft in principe elke container een eigen ip-adres ja, maar dat maakt niet veel uit.
Vb, traefik op 192.168.30.3 en radarr 192.168.30.139
radarr.docker.internal is 192.168.30.139
radarr.int.mijndomein.tld is 192.168.30.3
Dit werkt zowel intern als via vpn.
[ Voor 27% gewijzigd door Mawlana op 25-07-2024 13:03 ]
Mijn proxy instellingen staan precies ingesteld zoals op die website, maar ik krijg ERR_CONNECTION_REFUSED als ik naar joplin.mijndomein.myds.me probeer te navigeren.Wachten... schreef op donderdag 25 juli 2024 @ 12:13:
[...]
Ik bedoel meer de settings van één van die reverse proxy's. Ik denk dat daar iets niet goed staat
Deze stappen al eens doorlopen....
https://mariushosting.com...lin-on-your-synology-nas/
Heb je je firewall aanstaan op de Synology? En zo ja, zet die dan eens uit.nino_070 schreef op donderdag 25 juli 2024 @ 13:57:
[...]
Mijn proxy instellingen staan precies ingesteld zoals op die website, maar ik krijg ERR_CONNECTION_REFUSED als ik naar joplin.mijndomein.myds.me probeer te navigeren.
Als je dit kunt lezen, dan werkt mij Signature!
Nope, die staat uitWachten... schreef op donderdag 25 juli 2024 @ 14:48:
[...]
Heb je je firewall aanstaan op de Synology? En zo ja, zet die dan eens uit.
Probeer je het adres intern (via je eigen wifi) of via bijvoorbeeld 4g? want je krijgt als je het via je eigen netwerk doet te maken met een NAT (dacht ik) en die moet je weer op je router goed instellen.
doe ook eens een tracert (via windows) of traceroute (mac)
[ Voor 10% gewijzigd door Ferrox1 op 25-07-2024 19:54 ]
Mijn Joplin server (alle containers behalve Pi-hole, dit draait als macvlan) draait inderdaad in bridge.Ferrox1 schreef op donderdag 25 juli 2024 @ 19:52:
@nino_070 Ik neem aan dat je hem als bridge hebt draaien?
Probeer je het adres intern (via je eigen wifi) of via bijvoorbeeld 4g? want je krijgt als je het via je eigen netwerk doet te maken met een NAT (dacht ik) en die moet je weer op je router goed instellen.
doe ook eens een tracert (via windows) of traceroute (mac)
Inderdaad ik probeer het vanaf mijn eigen netwerk. Vanaf 4G bedoel je denk ik connected via OpenVPN? Want ik heb verder geen poorten open staan, dus dat gaat geen verschil maken.
Zie hieronder de tracert's. Mijn pi-hole resolved <domain>.myds.me direct naar het lokale ip adres van de NAS, dit gaat goed. Voor het subdomein wordt het echter geresolved door de provider naar mijn externe ip adres. Wellicht dat de routing hier misgaat?
Ik heb inmiddels al joplin.<domain>.myds.me als local DNS te routen naar 192.168.0.2 in pi-hole, maar dat werkt ook niet, dan kom ik namelijk weer uit op poort 5001 (DSM) en niet op de Docker container.
Bedankt voor het meedenken alvast
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
| C:\Users\Gebruiker>tracert <domain>.myds.me Tracing route to <domain>.myds.me [192.168.0.2] over a maximum of 30 hops: 1 1 ms 1 ms 1 ms <domain>.myds.me [192.168.0.2] Trace complete. C:\Users\Gebruiker>tracert joplin.<domain>.myds.me Tracing route to joplin.<domain>.myds.me [85.146.xx.yyy] over a maximum of 30 hops: 1 1 ms 1 ms 1 ms 205-37-146-xx.ftth.glasoperator.nl [85.146.xx.yyy] Trace complete. C:\Users\Gebruiker> |
Alles went behalve een Twent.
⏩ PVOutput☀️
Firewall op mijn Synology staat uit.Quad schreef op donderdag 25 juli 2024 @ 23:53:
Volgens mij moet je https (443) open hebben staan op je firewall en dat verwijzen naar je proxy.
Van je router, als je er extern bij wilt kunnen komen uiteraard.
Alles went behalve een Twent.
⏩ PVOutput☀️
Dus dit is de verwarring denk ik. Ik dacht dat de reverse proxys ook zouden moeten werken voor binnen mijn LAN.Quad schreef op vrijdag 26 juli 2024 @ 00:03:
[...]
Van je router, als je er extern bij wilt kunnen komen uiteraard.
Dat zou ik wel graag willen namelijk. Is met name handig om dit soort diensten gewoon via een url te bereiken ipv localhost:port.
En daarmee zou je ook certificate mismatches kunnen omzeilen.
Dat moet ook kunnen. Ik heb dat altijd zo geconfigureerd gehad. Inmiddels heb ik geen reverse proxies meer dus de instellingen kan ik je helaas niet geven.nino_070 schreef op vrijdag 26 juli 2024 @ 14:28:
[...]
Dus dit is de verwarring denk ik. Ik dacht dat de reverse proxys ook zouden moeten werken voor binnen mijn LAN.
Dat zou ik wel graag willen namelijk. Is met name handig om dit soort diensten gewoon via een url te bereiken ipv localhost:port.
En daarmee zou je ook certificate mismatches kunnen omzeilen.
👉🏻 Blog 👈🏻
Dat kan ook prima, heb ik hier ook. Op de Syno draait een let's encrypt-wildcard-certificaat *.mijndomein.com op poort 443. Ik moet er wel bij vertellen dat ik DNS-rewrites gebruik van Adguard Home.nino_070 schreef op vrijdag 26 juli 2024 @ 14:28:
[...]
Dus dit is de verwarring denk ik. Ik dacht dat de reverse proxys ook zouden moeten werken voor binnen mijn LAN.
Dat zou ik wel graag willen namelijk. Is met name handig om dit soort diensten gewoon via een url te bereiken ipv localhost:port.
En daarmee zou je ook certificate mismatches kunnen omzeilen.
Hierin staat bijvoorbeeld sabnzbd.mijndomein.com en server.mijndomein.com met het interne ip van de NAS.
Op de reverse proxy van de NAS staan dan bovenstaande url's gedefinieerd naar destination http://localhost:8080 (Sabnzbd) en http://localhost:5000 (DSM).
Zolang je op je router poort 443 dichthoudt kun je er alleen intern bij. Zet je die poort open naar je NAS heb je ook extern toegang. Of dat laatste een goed idee is... beter van niet.
Alles went behalve een Twent.
⏩ PVOutput☀️
Om een router met NAT (Network Address Translation) intern de DMZ (Demilitarized Zone) te laten bereiken via het externe IP-adres, moet de router beschikken over de functie "NAT Loopback". NAT Loopback, ook wel bekend als "Hairpinning" of "NAT Reflection", stelt apparaten binnen het lokale netwerk (LAN) in staat om verbinding te maken met een interne server door het externe IP-adres van de router te gebruiken.nino_070 schreef op vrijdag 26 juli 2024 @ 14:28:
[...]
Dus dit is de verwarring denk ik. Ik dacht dat de reverse proxys ook zouden moeten werken voor binnen mijn LAN.
Dat zou ik wel graag willen namelijk. Is met name handig om dit soort diensten gewoon via een url te bereiken ipv localhost:port.
En daarmee zou je ook certificate mismatches kunnen omzeilen.
Hier zijn de stappen en redenen waarom NAT Loopback noodzakelijk is:
NAT Loopback: Deze functie zorgt ervoor dat wanneer een apparaat binnen het LAN een verzoek stuurt naar het externe IP-adres van de router, de router dit verzoek terugstuurt naar het juiste interne IP-adres van de DMZ-server. Zonder NAT Loopback zou dit verzoek niet correct worden afgehandeld, omdat routers standaard niet zijn ingesteld om interne verzoeken naar hun eigen externe IP-adres terug te sturen naar een intern adres.
DMZ-instellingen: De router moet correct zijn geconfigureerd met de juiste port forwarding regels om ervoor te zorgen dat inkomende verbindingen via het externe IP-adres worden doorgestuurd naar de DMZ-server.
Firewallregels: Zorg ervoor dat de firewall op de router (en eventueel op de DMZ-server) zo is ingesteld dat verkeer van het interne netwerk naar de DMZ via het externe IP-adres wordt toegestaan.
Configuratiestappen
NAT Loopback inschakelen:
Dit kan vaak worden gevonden in de geavanceerde NAT- of LAN-instellingen van de router. De exacte locatie en benaming kunnen variëren afhankelijk van het merk en model van de router.
Port forwarding instellen:
Stel port forwarding in zodat inkomende verzoeken via het externe IP-adres naar de juiste poorten op de DMZ-server worden doorgestuurd. Dit is essentieel voor zowel externe als interne toegang via het externe IP-adres.
Controleer en test:
Nadat NAT Loopback is ingeschakeld en de port forwarding regels zijn ingesteld, test of apparaten binnen het LAN de DMZ-server kunnen bereiken via het externe IP-adres van de router.
Voorbeeld van NAT Loopback-configuratie:
Stel dat je externe IP-adres 203.0.113.5 is en je wilt dat interne apparaten verbinding kunnen maken met een webserver in de DMZ via dit externe IP-adres:
NAT Loopback inschakelen: Zoek in de routerinstellingen naar een optie zoals "NAT Loopback", "Hairpin NAT" of "NAT Reflection" en schakel deze in.
Port forwarding:
Voor HTTP verkeer: Stel een port forwarding regel in om inkomende verzoeken naar poort 80 op 203.0.113.5 door te sturen naar poort 80 op het interne IP-adres van de webserver, bijvoorbeeld 192.168.1.100.
Externe IP: 203.0.113.5:80 -> Interne IP: 192.168.1.100:80
Testen:
Gebruik een apparaat binnen het LAN om naar http://203.0.113.5 te gaan en controleer of de webserver in de DMZ correct reageert.
Met NAT Loopback correct ingeschakeld en geconfigureerd, kunnen apparaten binnen het interne netwerk verbinding maken met de DMZ-server via het externe IP-adres, alsof ze van buiten het netwerk komen.
LET OP: niet elke router ondersteund dit.
Don't drive faster than your guardian angel can fly.
Bijv voor de Joplin docker container:
- joplin.mijndomein.nl in de reverse proxy instellen op 192.168.0.2:joplinpoort
- joplin.mijndomein.nl in Pi-hole local DNS entry verwijzen naar 192.168.0.2
Als ik dan joplin.mijndomein.nl bezoek, kom ik uit op mijndomein.nl (mijn NAS DDNS, dus dit verwijst naar 192.168.0.2:443) ipv op de Joplin poort.
Vermoedelijk komt dit door mijn DNS entry die mijndomein.nl doorverwijst naar 192.168.0.2 voor binnen mijn LAN.
@DutchKel: Ik heb een Asus Merlin router draaien, en na wat googlen lijkt NAT loopback daar automatisch altijd aan te staan. Ik betwijfel of dit de certificate problemen oplost. Zie bijv deze reply: https://www.snbforums.com...to-work.80170/post-781686
Ik wil bovendien niet de NAS bereiken vanaf mijn externe (provider) ip adres, ik wil dit graag in mijn lokale DNS afvangen of met proxies. Anders moet ik poorten openzetten. Of begrijp ik iets verkeerd?
Het lijkt erop dat de reverse-proxy z'n werk niet doet. Die moet er juist voor zorgen dat het verkeer naar een andere poort gaat, in jouw geval :joplinpoort.nino_070 schreef op zondag 28 juli 2024 @ 12:38:
Als ik dan joplin.mijndomein.nl bezoek, kom ik uit op mijndomein.nl (mijn NAS DDNS, dus dit verwijst naar 192.168.0.2:443) ipv op de Joplin poort.
Vermoedelijk komt dit door mijn DNS entry die mijndomein.nl doorverwijst naar 192.168.0.2 voor binnen mijn LAN.
Heb je misschien ook een record in de reverse-proxy met een * bij de hostname?
Aanvulling: De destination-URL moet een http-URL zijn, dus geen https.
Zie ook: https://mariushosting.com/synology-how-to-use-reverse-proxy/
[ Voor 10% gewijzigd door gerritjan op 28-07-2024 14:10 ]
Ik heb precies die stappen gevolgd, maar het werkt gewoon nietgerritjan schreef op zondag 28 juli 2024 @ 13:44:
[...]
Het lijkt erop dat de reverse-proxy z'n werk niet doet. Die moet er juist voor zorgen dat het verkeer naar een andere poort gaat, in jouw geval :joplinpoort.
Heb je misschien ook een record in de reverse-proxy met een * bij de hostname?
Aanvulling: De destination-URL moet een http-URL zijn, dus geen https.
Zie ook: https://mariushosting.com/synology-how-to-use-reverse-proxy/

Of ik localhost:22300 of 192.168.0.2:22300 probeer maakt geen verschil. Inderdaad met http:// in de destination.
Vreemd hoor...
Certificaat staat in Security inderdaad op mijn (wildcard included) (*.)mijndomein.myds.me.
Ik zal even de stappen die ik heb gedaan proberen uit te leggen.nino_070 schreef op zondag 28 juli 2024 @ 23:23:
[...]
Ik heb precies die stappen gevolgd, maar het werkt gewoon niet
Of ik localhost:22300 of 192.168.0.2:22300 probeer maakt geen verschil. Inderdaad met http:// in de destination.
Vreemd hoor...
Certificaat staat in Security inderdaad op mijn (wildcard included) (*.)mijndomein.myds.me.
1. In docker een container aangemaakt (in mijn geval vaultwarden). Poort 3012 -> 3012 tcp doorgestuurd en poort 8081 -> 80 doorgestuurd. Op synology is nu vaultwarden op poort 8081 bereikbaar.
2. In configuratiescherm -> aanmeldingsportaal -> geavanceerd -> reverse proxy. Ingesteld:
Bron:
Protocol: https
Hostname: vaultwarden.<synology domeinnaam>
Poort: 443
HSTS: ingeschakeld (ik wil alleen https gebruiken en nooit https)
Doel:
Protocol: http
Hostname: localhost
Poort: 8081
Andere instellingen zijn de standaard instellingen.
3. In de router poort 443 (tcp) forwarden naar poort 443 van de synology nas. Dit onderdeel moet je zelf even uitzoeken.
4. Configuratiescherm -> beveiliging -> certificaat -> instellingen
Kies hierbij de reverse proxy naam en zorg dat daarbij het synology domein certificaat bij staat ingesteld.
Ik ga ervan uit dat instellingen -> externe toegang -> ddns goed is ingesteld en dat daarbij ook je externe ip adres staat.
Edit: voor home assistant dien je het interne ip adres van de synology als proxy adres in te vullen anders weigert die verbinding te maken.
Edit 2: Als ik je berichten zo lees sla je stap 3 telkens over. Zonder stap 3 werkt het niet.
[ Voor 6% gewijzigd door DutchKel op 29-07-2024 02:46 ]
Don't drive faster than your guardian angel can fly.
Ik wil een nieuwe NAS kopen. Op dit moment een DS212J met WD Red, 2TB die nu ruim 10 jaar goed functioneren maar het wordt tijd om te vernieuwen gezien de levensduur van de harde schijven.
Mijn Eisen: toekomstvast, snel (i.v.m. foto`s, niet bewerken maar verwerken), docker containers.
Ik zit te kijken naar de volgende opstelling:
1522+ of 923+
32GB (Kingston)
2 x WD Red 12 TB (5400rpm). (lange termijn opslag). SHR dus 12 TB te gebruiken.
1 x WD Red SA500 4TB sata SSD (dagelijks gebruik)
1 x WD Red 2 TB gebruiken voor surveillance center.
Ik wil voor de snelheid de sata SSD gebruiken voor allerdaags gebruik zoals office en andere bestanden. Daarnaast de SSD ook gebruiken voor docker containers (o.a. pihole en kali Linux).
Ik wil dagelijks via script de data van SSD dagelijks gebruik kopieren naar de HD`s lange termijn opslag.
Thuisopstelling:
Unifi Dream machine
2 switches met 1 GbE snelheden
Glasvezel met 1000 Mbps up en down.
Vragen:
- is dit wat betreft snelheid de ideale opstelling?
- Ik heb nog een Samsung EVO 980 Pro 1TB NVME ssd liggen. Als ik die als storage pool gebruik, is dat sneller dan de sata SSD?
- Is het aan te raden om de 10 GbE nas network kaart ook aan te schaffen of heeft dit gezien mijn thuisopstelling weinig zin?
- Is een 3 HD opstelling met SHR sneller dan 2 harde schijven?
- Ik draai Kali Linux op een laptop met VMWare pro. Werk Kali sneller in een docker omgeving op de NAS?
[ Voor 3% gewijzigd door RMG888 op 29-07-2024 16:48 ]
Duct tape can't fix stupid, but it can muffle the sound.
Raid 1 obv 4 schijven, 2x2 mirrorset
4 x Seagate 7TB
De foutmelding oorspronkelijk was dat het volume kapot was, veroorzaakt doordat 1 schijf idd overleden was. Dat ik voor het eerst de situatie bekeek bleek dat 2 schijven volledig leeg waren, de raid was blijkbaar niet goed ingesteld destijds.
De uitgangssituatie nu is drie lege schijven (2 lege oude + 1 nieuwe) en nog één schijf met de originele data. Ik had twee scenario's in gedachte namelijk;
- met de drie lege schijven een nieuw volume opbouwen, daarna de originele toevoegen, data van origineel naar nieuw volume kopiëren, origineel wissen en daarna leeg toevoegen aan het nieuw volume.
- andersom, oorspronkelijk (gebroken volume) uitbreiden met de drie lege schijven.
Helaas lukt beiden niet. Bij de eerste optie kan ik beiden volumes zien in diskmanager, waarvan correct één gezond de ander gebroken. Maar als ik in file manager ben zie ik uitsluitend de content op volume 2 (oorspronkelijke data schijf).. Ik kan dit niet selecteren en naar volume 1 kopiëren, greyed out.
Als ik de andere optie wil proberen gaat het niet verder omdat diskmanager blijft aangeven dat het gebroken volume eerst gerepareerd moet worden. Allleen is daar de optie schijven toevoegen, greyed out..
Toch heb ik het gevoel dat het niet te ingewikkeld kan zijn. Wie weet raad?
Het klinkt haast alsof die vier schijven in JBOD hebben gestaan? Dan begint het systeem met schrijven op schijf 1, zodra die vol is gaat die verder met schrijven op schijf 2 en zo verder. Is dat ook jouw gevoel. Was het totaal aan data ruim minder dan 7 TB? Dan heb je de mazzel dat alle data op schijf 1 staat en compleet is. Probeer daar in de eerste plaats een backup van te maken naar een externe lokatie.JimmyNL schreef op donderdag 1 augustus 2024 @ 16:13:
Ik heb een lastige situatie met een DS923 met vier schijven. Ik ben hier ingevallen bij een kennis om te proberen het op te lossen. De oorspronkelijke situatie;
Raid 1 obv 4 schijven, 2x2 mirrorset
4 x Seagate 7TB
De foutmelding oorspronkelijk was dat het volume kapot was, veroorzaakt doordat 1 schijf idd overleden was. Dat ik voor het eerst de situatie bekeek bleek dat 2 schijven volledig leeg waren, de raid was blijkbaar niet goed ingesteld destijds.
De uitgangssituatie nu is drie lege schijven (2 lege oude + 1 nieuwe) en nog één schijf met de originele data. Ik had twee scenario's in gedachte namelijk;
- met de drie lege schijven een nieuw volume opbouwen, daarna de originele toevoegen, data van origineel naar nieuw volume kopiëren, origineel wissen en daarna leeg toevoegen aan het nieuw volume.
- andersom, oorspronkelijk (gebroken volume) uitbreiden met de drie lege schijven.
Helaas lukt beiden niet. Bij de eerste optie kan ik beiden volumes zien in diskmanager, waarvan correct één gezond de ander gebroken. Maar als ik in file manager ben zie ik uitsluitend de content op volume 2 (oorspronkelijke data schijf).. Ik kan dit niet selecteren en naar volume 1 kopiëren, greyed out.
Als ik de andere optie wil proberen gaat het niet verder omdat diskmanager blijft aangeven dat het gebroken volume eerst gerepareerd moet worden. Allleen is daar de optie schijven toevoegen, greyed out..
Toch heb ik het gevoel dat het niet te ingewikkeld kan zijn. Wie weet raad?
De beste mannier is denk ik om eerst van de overige drie schijven een SHR-1 storage pool te maken. Daarop maak je een volume aan. Vervolgens prik je de oorspronkelijke schijf in het systeem en kopieer je de data naar het nog lege volume op de zonet aangemaakte storage pool. Zodra de data is gekopieerd en geverifieerd upgrade je de storage pool van SHR-1 naar SHR-2 met de vierde schijf erbij. SHR-2 is niet helemaal hetzelfde als RAID 1+0 ook wel RAID 10 genoemd. Een stripe set van mirrors. Bij Synology is SHR-2 feitelijk een stripe set met dubbele pariteit. Wat betreft performance zou het in de praktijk niet heel veel moeten uitmaken.
Ik heb een DS215J met een enkele gigabit poort.
Ondersteund de USB3 poort / laatste DSM het aansluiting van een USB>UTP adapter? Ik heb straks ruimte over op een switch en hoopte daarmee wellicht een soort dataverdeling te doen, mocht dit zo werken.
Zeg wat je doet en doe wat je zegt.
Niet officieel maar met wat aanpassingen kan het. De vraag is alleen of die cpu in een J model dat wel trekt en je er netto niet op achteruit gaat.S.Kauw schreef op zaterdag 3 augustus 2024 @ 15:59:
Ondersteund de USB3 poort / laatste DSM het aansluiting van een USB>UTP adapter?
Duct tape can't fix stupid, but it can muffle the sound.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
| version: "3.3" services: homepage: image: ghcr.io/gethomepage/homepage:latest container_name: homepage environment: PUID: 1026 -- optional, your user id PGID: 100 -- optional, your group id ports: - 3000:3000 volumes: - /volume1/docker/homepage:/app/config # Make sure your local config directory exists - /var/run/docker.sock:/var/run/docker.sock:ro # optional, for docker integrations restart: unless-stopped |
Uiteindelijk blijft de docker herstarten en geeft aan dat chown een foutmelding geeft met no such file/directory. Iemand dit eerder gezien bij een clean install ?
Ik draai DSM versie 7.2 waarbij mogelijk dus dit artikel van toepassing is ?
https://kb.synology.com/e...access_the_folder_or_file
[ Voor 6% gewijzigd door Eboman op 04-08-2024 17:46 ]
Signature
inmiddels een docker ingeinstalleerd via de CLI commando's hiermee heb ik bv portainer wel online gekregen homepage geeft geen foutmeldingen meer ondanks dat hij niet bereikbaar is. Iig iets verder. Maar maken jullie gebruik van de GUI hiervoor ?Eboman schreef op zondag 4 augustus 2024 @ 17:43:
Goedendag, ik ben momenteel een nieuwe ds224+ aan het inrichten, hiervoor had ik een synology die geen dockers kon draaien en wil daarmee beginnen. Nu merk ik dat als ik de instructies volg voor dockers op synology , dat je de volumes moet aanpassen in de compose file. Nu heb ik dat gedaan, samen met voorlopig everyone full control rechten op de docker shared folder. Maar elke docker die ik probeer te starten lijkt geen bestanden aan te kunnen maken in de docker folder. Hier een voorbeeld voor homepage:
code:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 version: "3.3" services: homepage: image: ghcr.io/gethomepage/homepage:latest container_name: homepage environment: PUID: 1026 -- optional, your user id PGID: 100 -- optional, your group id ports: - 3000:3000 volumes: - /volume1/docker/homepage:/app/config # Make sure your local config directory exists - /var/run/docker.sock:/var/run/docker.sock:ro # optional, for docker integrations restart: unless-stopped
Uiteindelijk blijft de docker herstarten en geeft aan dat chown een foutmelding geeft met no such file/directory. Iemand dit eerder gezien bij een clean install ?
Ik draai DSM versie 7.2 waarbij mogelijk dus dit artikel van toepassing is ?
https://kb.synology.com/e...access_the_folder_or_file
Signature
Ik gebruik Container Manager alleen om ff te kijken wat er draait als ik toevallig toch al ben ingelogd in DSM. Voor al het andere werk gebruik ik Portainer. Dat heb ik, net als jij, een keer handmatig ingericht via een ssh-sessie/commandline.Eboman schreef op zondag 4 augustus 2024 @ 20:01:
[...]
inmiddels een docker ingeinstalleerd via de CLI commando's hiermee heb ik bv portainer wel online gekregen homepage geeft geen foutmeldingen meer ondanks dat hij niet bereikbaar is. Iig iets verder. Maar maken jullie gebruik van de GUI hiervoor ?
Denk dat je beste Mariushoisting kan volgen. Ik heb ook via ssh portainer geinstalleerd en doe verder alles met stacks in portainer.Eboman schreef op zondag 4 augustus 2024 @ 20:01:
[...]
inmiddels een docker ingeinstalleerd via de CLI commando's hiermee heb ik bv portainer wel online gekregen homepage geeft geen foutmeldingen meer ondanks dat hij niet bereikbaar is. Iig iets verder. Maar maken jullie gebruik van de GUI hiervoor ?
https://mariushosting.com...ng-task-scheduler-docker/
Mijn wijziging: ik heb user dockerlimited aangemaakt, welke userid 1028 had. Mijn schedule in synology is was als volgt:
1
2
3
4
5
6
7
8
9
10
11
| docker run -d --name=portainer-ce \ -p 10003:8000 \ -p 9000:9000 \ -e PUID=1028 \ -e PGID=100 \ -e TZ=Europe/Amsterdam \ -v /volume2/docker/portainer:/data \ -v /var/run/docker.sock:/var/run/docker.sock \ --restart=always \ --label='com.centurylinklabs.watchtower.enable=true' \ portainer/portainer-ce |
Machtiging op folder /volume2/docker (2e ssd volume in mn nas) waar alle docker folders onder vallen heeft dockerlimited schrijfrechten op.
Geen idee of ik nog meer gedaan heb, maar als ik het me goed herinner ben ik zo begonnen.
// edit Snel even stack gemaakt met nieuwe folder /volume2/docker/homepage en gestart:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
| homepage: image: ghcr.io/gethomepage/homepage:latest container_name: homepage # environment: # - PUID=1028 # - PGID=100 ports: - 8014:3000 volumes: - /volume2/docker/homepage:/app/config # Make sure your local config directory exists - /var/run/docker.sock:/var/run/docker.sock:ro # optional, for docker integrations labels: - "com.centurylinklabs.watchtower.enable=true" - flame.type=application - flame.name=homepage (4) - flame.url=http://192.168.2.4:8014/ - flame.icon=collage restart: unless-stopped |
//edit 2: zie dat Marius zelfs pagina over homepage heeft die meer uitleg geeft dan ik doe. Maar je oorspronkelijke probleem is denk ik rechten, en de user die je in de container definitie gebruikt met rechten op je nas.
https://mariushosting.com...-homepage-with-portainer/
// edit3: ik moet homepage zonder PUID en PGID draaien (en dus als root?!?) om docker.yaml met socket te kunnen laten werken.
[ Voor 45% gewijzigd door Dr.Roelski op 05-08-2024 00:51 ]
Vreemd verhaal, storage is vol, 2 extra disken erin die blijkbaar niets doen, en je storage probleem is wel verholpen?JimmyNL schreef op donderdag 1 augustus 2024 @ 18:21:
Nee ik vermoed dat het geen JBOD was. Oorspronkelijk zijn ze gestart met 2 schijven, als mirrorset. Toen dit vol raakte hebben ze twee bijgeprikt met de bedoeling de mirrorset te verdubbelen. Maar nu lijkt het erop dat deze schijven hoe dan ook geen rol hebben gespeeld. Het is mij gelukt om met de nieuwe drie schijven een nieuwe raid 1 aan te leggen met daarop een nieuw volume. Maar als een de vierde bijplaats om de data over te zetten dan verschijnt het nieuwe volume niet in filestation. Ik kan dus schijf vier benaderen en de data kopïëren maar ik kan geen doel selecteren.
Maar goed, beste wat je nu kan doen is de data van die werkende disk afhalen naar een externe disk, kan je PC zijn of een USB disk aan de NAS.
Dan alle disken wipen (volumes en pools verwijderen) en er een SHR1 volume van maken. Dan heb je 4 disken die elkaar in leven houden (1 disk fault tolerant).
PS: Waarom maak je een set met 3 disken met RAID1?
Pool 1 is bedoeld voor mijn documenten, foto's, home video en andere belangrijke zaken. Wordt extra gebackupped. Er is ruimte zat op deze schijven (nog 2,7 TB)
Pool 2 is bedoeld voor films en series en wordt via Plex bekeken. Deze wordt niet gebackupped, ik vind de redundancy via SHR genoeg. Deze schijven zijn nu half vol en de inhoud groeit relatief snel.
Nu wil ik een beveiligingscamera gaan aansluiten met Synology Surveillance Station. Ik begrijp dat er zelfs speciale harde schijven zijn voor beveiligingscamera's, omdat deze continu kleine hoeveelheden data wegschrijven. Ik vraag me dus af wat verstandig zou zijn om met de beelden van die camera te doen?
Pool 1 gebruiken, daar is zat ruimte, maar daardoor slijten de schijven met mijn belangrijkste data het hardst.
Op pool 2 gebruiken, daar is wel minder ruimte, maar is schijfslijtage minder erg.
Wat zouden jullie doen in mijn geval?
En is er nog iets anders om rekening mee te houden bij het ingebruiknemen van Surveillance Station in mijn geval?
Hier zou een handtekening kunnen staan.
Het is veel slimmer een enkele SHR pool van 4 disken te maken dan krijg je onder water een Raid 5 set en met vier disken en heb je dan maar een overhead van 25%
Als je onderverdeling naar functionaliteit wilt kun je op die storagepool meerdere volumes maken of een volume, met meerdere gedeelde mappen, maar functioneel onderverdelen met storage pools is gewoon niet handig.
Een enkele storage pool en een volume is gewoon het handigste en onderverdelen in gedeelde mappen voor de functionele scheiding, dan ben je ook maximaal flexibel met beschikbare ruimte.
[ Voor 15% gewijzigd door Ben(V) op 06-08-2024 09:48 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
:strip_exif()/f/image/djnLPSPzEkF0PQnryurU4cTo.jpg?f=fotoalbum_large)
Signature
Je zou de volgende zaken kunnen proberen:bjusterbaarlik schreef op maandag 5 augustus 2024 @ 15:59:
Ik heb een NVR1218 aangesloten via HDMI met een scherm. Maar krijg de camera's daarmee niet in beeld op het scherm. Ik ga er vanuit dat er ergens nog een instelling veranderd moet worden, maar ik kan nergens vinden welke dat dan is. Zijn vier camera's aangesloten en werkt allemaal prima via bijvoorbeeld DSCam app op de mobiel. Maar via de HDMI uitgang van de Synology in LiveView is niks te selecteren en niks zichtbaar. Iemand enig idee?
[Afbeelding]
- Andere videocodec gebruiken (h.264 ipv h.265),
- Een keer wisselen van resolutie,
- Deze had je waarschijnlijk al gevonden: https://kb.synology.com/e..._or_cannot_display_images
Klopt, het is ook een vreemd verhaal, altijd leuk als je bij iemand anders in een situatie valt. Anyway, ik vermoed dat het nieuw aangemaakte volume geen doel was omdat er nog niets op aangemaakt was. Raid 1 was met uiteindelijke doel 4 schijven.reinier68 schreef op zondag 4 augustus 2024 @ 21:44:
[...]
Vreemd verhaal, storage is vol, 2 extra disken erin .....
Dan alle disken wipen (volumes en pools verwijderen) en er een SHR1 volume van maken. Dan heb je 4 disken die elkaar in leven houden (1 disk fault tolerant).
PS: Waarom maak je een set met 3 disken met RAID1?
Stappen nu;
Drie schijven weer wissen, shr1 aanmaken, 4e (data) schijf overzetten naar shr1, dataschijf wissen en daarna toevoegen aan shr1.
Dat is allemaal niet van toepassing helaas. Bij mij gaat het over de beelden weergeven via de HDMI uitgang van de NVR1218. LiveView via een scherm aangesloten op de NVR1218 via HDMI. Rest werkt allemaal prima. Is trouwens al H.264 en maar full HD, zijn ook verschillende camera's, met verschillende instellingen. Maar geen van de vier is beschikbaar via de HDMI uitgang.Flans schreef op dinsdag 6 augustus 2024 @ 12:42:
[...]
Je zou de volgende zaken kunnen proberen:
- Andere videocodec gebruiken (h.264 ipv h.265),
- Een keer wisselen van resolutie,
- Deze had je waarschijnlijk al gevonden: https://kb.synology.com/e..._or_cannot_display_images
Dat van die netto opslagruimte wist ik niet, maar ik vond al dat de keus om 2 pools te maken niet zo handig als dat ik dacht toen ik het aanmaakte. De NAS loopt nu al meer dan een dag om ze samen te voegen (dus bestanden kopiëren, pool 2 opheffen en pool 1 uitbreiden).Ben(V) schreef op maandag 5 augustus 2024 @ 14:57:
Twee storage pools maken is gewoon niet erg slim, dan krijg onder water twee Raid 1 sets waardoor je 50% van al je diskruimte kwijt raakt aan overhead.
Het is veel slimmer een enkele SHR pool van 4 disken te maken dan krijg je onder water een Raid 5 set en met vier disken en heb je dan maar een overhead van 25%
Als je onderverdeling naar functionaliteit wilt kun je op die storagepool meerdere volumes maken of een volume, met meerdere gedeelde mappen, maar functioneel onderverdelen met storage pools is gewoon niet handig.
Een enkele storage pool en een volume is gewoon het handigste en onderverdelen in gedeelde mappen voor de functionele scheiding, dan ben je ook maximaal flexibel met beschikbare ruimte.
Dat betekent dus ook dat ik gewoon een nieuwe map aanmaak op mijn storage pool om de beelden van Surveillance Station op te laten slaan? Of zie ik dan nog wat over het hoofd?
Hier zou een handtekening kunnen staan.
Ik wil mijn setup een upgrade geven. Vanwege minder ttijd ivm kinderen en andere hobbies neig ik naar een Synology welke ook als host kan dienen voor apps. Ik zie ondertussen door de bomen het bos niet meer

Use-case:
- NAS/Eigen opslag, te Syncen met Windows, Linux en Android middels Synology
- Fotolibrary. DS Photo is te langzaam op de huidige Synology, ongetwijfeld beter met een snellere processor/RAM. Hoe werkt fotoherkenning tegenwoordig?
- Home Assistant via een container/VM. Ik wil niet terug naar een RPi hiervoor
- (Pihole/Ad Guard)
- Firefly
- Overige Docker/Portainer containers
- Laag energie verbruik. HDD in spindown bij geen gebruik door slim opdelen data en apps
- 1 TB SSD opslag voor apps, veel gebruikte data, foto's
- 4/8 TB HDD opslag voor archief, video.
- Backup intern of extern (ik backup nu handmatig naar een 5TB USB HDD). De huidige DS215J kan eventueel ergens extern neergezet worden om richting te backuppen.
# | Category | Product | Prijs | Subtotaal |
---|---|---|---|---|
1 | Interne harde schijven | Seagate IronWolf NAS HDD (ST4000VN006), 4TB | € 97,56 | € 97,56 |
1 | Geheugen intern | Crucial CT16G4SFD824A | € 34,73 | € 34,73 |
1 | NAS | Synology DiskStation DS224+ | € 336,99 | € 336,99 |
Bekijk collectie Importeer producten | Totaal | € 469,28 |
Ook zie ik nog de DS723+. Stuk duurder, maar met een krachtigere en recentere processor. Wat kan ik verwachten mbt toekomstbestendigheid van DS224+ danwel een DS723+?
[ Voor 61% gewijzigd door jappas op 07-08-2024 20:17 ]
Het lijkt nog steeds niet gefixt te zijn? of bij anderen wel?DutchKel schreef op woensdag 10 juli 2024 @ 22:25:
[...]
Dit kun je zelf niet fixen. Waarschijnlijk is er iets bij YouTube aangepast om downloaden buiten YouTube om te voorkomen. Synology moet dan weer aanpassingen doen aan de download station.
YouTube probeert te voorkomen dat de video's worden gedownload.
R7-3700X/MSI B550 Tomahawk/32GB RAM/NZXT H440/Phanteks TC14PE/Asrock RX6600XT Challenger
Met docker / container manager deze installeren:NLBUURMAN schreef op donderdag 8 augustus 2024 @ 11:38:
[...]
Het lijkt nog steeds niet gefixt te zijn? of bij anderen wel?
https://github.com/Tzahi12345/YoutubeDL-Material
Deze werkt perfect heeft ook nog eens een webinterface waar je gedownloade filmpjes zo kan bekijken.
docker compose voorbeeld:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
| version: "3.9" services: youtubedownloader: container_name: YouTube-Downloader image: tzahi12345/youtubedl-material:nightly mem_limit: 1g cpu_shares: 768 healthcheck: test: curl -f http://localhost:17442/ || exit 1 security_opt: - no-new-privileges:true restart: on-failure:5 environment: ytdl_default_downloader: yt-dlp ytdl_use_local_db: true ytdl_port: 17442 write_ytdl_config: true ports: - 8084:17442 volumes: - /volume1/docker/ytdwnl/appdata:/app/appdata:rw - /volume1/docker/ytdwnl/audio:/app/audio:rw - /volume1/docker/ytdwnl/Youtube Videos/subscriptions:/app/subscriptions:rw - /volume1/docker/ytdwnl/users:/app/users:rw - /volume1/docker/ytdwnl/Youtube Videos/:/app/video:rw networks: {} |
[ Voor 52% gewijzigd door ComTech op 08-08-2024 15:28 . Reden: compose file toegevoegd ]
Je zou ook een 423+ kunnen overwegen, met 4 bays heb je net wat meer mogelijkheden. Ik zie verder geen redundantie bij de schijf opties die je beschrijft en dat zou ik nooit doen. Ik heb jarenlang 2bays gebruikt, maar zou nu niet meer een 2bay nemen.jappas schreef op woensdag 7 augustus 2024 @ 14:28:
SNIP
Use-case:Hardware:
- NAS/Eigen opslag, te Syncen met Windows, Linux en Android middels Synology
- Fotolibrary. DS Photo is te langzaam op de huidige Synology, ongetwijfeld beter met een snellere processor/RAM. Hoe werkt fotoherkenning tegenwoordig?
- Home Assistant via een container/VM. Ik wil niet terug naar een RPi hiervoor
- (Pihole/Ad Guard)
- Firefly
- Overige Docker/Portainer containers
Zou een Synology DS224+ voor mij de beste keuze zijn of beter de qua processor identieke 920+ voor extra slots en NVME slot dat via een script ook als opslag en app ruimte kan dienen? wel over een NVME slot beschikken die via een script ook als opslag gebruikt kan worden?
- Laag energie verbruik. HDD in spindown bij geen gebruik door slim opdelen data en apps
- 1 TB SSD opslag voor apps, veel gebruikte data, foto's
- 4/8 TB HDD opslag voor archief, video.
- Backup intern of extern (ik backup nu handmatig naar een 5TB USB HDD). De huidige DS215J kan eventueel ergens extern neergezet worden om richting te backuppen.
# Category Product Prijs Subtotaal 1 Interne harde schijven Seagate IronWolf NAS HDD (ST4000VN006), 4TB € 97,56 € 97,56 1 Geheugen intern Crucial CT16G4SFD824A € 34,73 € 34,73 1 NAS Synology DiskStation DS224+ € 336,99 € 336,99 Bekijk collectie
Importeer productenTotaal € 469,28
Ook zie ik nog de DS723+. Stuk duurder, maar met een krachtigere en recentere processor. Wat kan ik verwachten mbt toekomstbestendigheid van DS224+ danwel een DS723+?
Met 4x2TB SSD heb je een snel en stil systeem, maar kom je met de 8TB ruimte niet uit. Je gaat dan wel richting de €1000 voor de hele set.
Je kunt ook voor 3xHDD kiezen of gelijk 4HDD plaatsen voor heel veel opslag en dan NVME opslag voor cache gebruiken. Eventueel met een script kun je de NVME bays gebruiken als opslagpool.
DS1817+& DS923+ DX513 & DX517
Dit topic is onderdeel van de drie topics over Synology:In dit Vraag en Antwoord topic mogen alle vragen over Synology-producten tenzij:
- ... het een vraag betreft over een addon package voor Synology; daar is een apart topic voor.
- ... het een aankondiging of discussie-item betreft wat in het Nieuws en discussie topic hoort.
- ... jouw vraag al beantwoord is in de Veelgestelde vragen (FAQ).