[Synology] Vraag en antwoord - deel 3 Vorige deel Overzicht

Pagina: 1 ... 65 ... 186 Laatste
Acties:

Acties:
  • 0 Henk 'm!
@Falcon10
Telnet of SSH toegang kan alleen als je dit hebt aangezet in DSM.
Kun je misschien je computer direct verbinden met de Synology zonder router ertussen en dan Synology Assistant draaien?

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • Falcon10
  • Registratie: Mei 2002
  • Laatst online: 21:34

Falcon10

Hit it i would !

Blijkbaar moest ik iets langer wachten.
Toen verscheen ie wel in de Synology Assistent.
DSM gdownload, geinstalleerd, maar momenteel blijf tie hetzelfde geven : Zen netwerk lichtje pinkt af en toe wel, maar hij vind hem niet op het netwerk.

*grom*

Iemand nog een idee ?

-| Hit it i would ! |-


Acties:
  • 0 Henk 'm!
@Falcon10
Wat geeft http://find.synology.com/?
Je kunt de NAS wel pingen?
Misschien tijdelijk de NAS een fixed IP geven?
Eventueel de NAS tijdelijk direct verbinden met je computer?
Is DSM misschien nog bezig? Je disks zijn verder stil?

[ Voor 12% gewijzigd door technorabilia op 21-04-2020 12:27 ]

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • Videopac
  • Registratie: November 2000
  • Laatst online: 23:17

Videopac

Rommelt wat aan.

kraades schreef op dinsdag 21 april 2020 @ 08:38:
@Videopac
Bij mount path moet je /config en /downloads invullen.
Dat zijn namelijk de directories in de container en die zijn vast.
Dat had ik ook geprobeerd, maar nog steeds die meldingen. Ik denk dat er ergens wat was blijven hangen. Aangezien dit mijn eerste en enige Docker container was heb ik het hele Docker package opnieuw geïnstalleerd en nu werkt alles goed. Volgende stappen: sonarr, radarr, VPN en een planningspakket installeren.

[ Voor 6% gewijzigd door Videopac op 21-04-2020 12:48 ]

Asustor AS6704T (32GB, 4x16TB MG08), OpenWrt (3x GL.iNet Flint 2 MT6000), Lyrion Media Server, Odroid H2/N2+/C4/C2, DS918+ (4x8TB WD RED)


Acties:
  • 0 Henk 'm!

  • Falcon10
  • Registratie: Mei 2002
  • Laatst online: 21:34

Falcon10

Hit it i would !

kraades schreef op dinsdag 21 april 2020 @ 12:26:
@Falcon10
Wat geeft http://find.synology.com/?
Je kunt de NAS wel pingen?
Misschien tijdelijk de NAS een fixed IP geven?
Eventueel de NAS tijdelijk direct verbinden met je computer?
Is DSM misschien nog bezig? Je disks zijn verder stil?
Op LAN vindt ik hem nu helemaal niet meer.
Zen LEDs doen nu volgende :

Power staat constant groen.
LAN meestal niet, pinkt dan 1x lang en 2x snel ( alle 3 direct achter elkaar, dan weer uit )
Disks : constaant groen, maar pinken na het pinken van de LAN even 2x snel na elkaar

Zou het raar vinden dat het de DSM is die nog bezig is, aangezien het pinken zoals hierboven beschreven echt constant is, niet onregelmatig, maar altijd hetzelfde.

-| Hit it i would ! |-


Acties:
  • 0 Henk 'm!

  • Xenophoben
  • Registratie: Augustus 2007
  • Laatst online: 23-09 13:44
Laagheim schreef op maandag 20 april 2020 @ 20:30:


Je komt natuurlijk wel wat rare dingen tegen (onder het onderwerp 'olifant' staan een paar foto's van neushoorns en de locatie wordt aangegeven in de lokale taal dus ik heb nu foto's van straten in Tokyo waar de locatie in het Japans staat aangegeven) maar voor het grootste deel klopt het en is het terugvinden van foto's een fluitje van een cent.
Ik heb dit dus ook, erg irritant als je veel foto's in azie hebt bezocht... Is dit op te lossen?

Acties:
  • 0 Henk 'm!

  • Greatsword
  • Registratie: Februari 2010
  • Niet online

Greatsword

"...Terra Incognita..."

Na jaren lang Plex, Sickrage en Transmission op de iMac te hebben gedraaid, van het weekend alles op mijn DS718+ geinstalleerd.

Ik had een backup gemaakt van Medusa op de iMac, en na de installatie heb ik dat zip bestand gebruikt om van te laden. Hier en daar wat aanpassingen moeten maken, maar verder is het goed verlopen.

De iMac was een i5 Quad Core (Skylake) maar ik merk dat de CPU in de DS718+ ook zonder problemen 3 streams met transcoding tegelijkertijd aankan. Hij gaat wel richting de 90%, maar verder geen haperingen o.i.d.

Ben wel benieuwd of jullie aparte shares hebben aangemaakt voor de download locatie, en waar je uiteindelijke films en series komen te staan. Advies qua indeling met nadruk op veiligheid is welkom.

“…There is nothing either good or bad, but thinking makes it so…”


Acties:
  • 0 Henk 'm!

  • Laagheim
  • Registratie: December 2016
  • Laatst online: 19:45
@Xenophoben Geen idee. Ik heb alleen de zoek functie getest en als ik zoek op Japan of Osaka bijv. vind ik wat ik wil dus ik heb het verder niet onderzocht. Het doet wat ik nodig heb. (Neushoorns kan ik niet vinden met de zoekfunctie maar ik weet nu dat ze onder de olifanten staan 😄)

Acties:
  • +1 Henk 'm!
@Greatsword
Niet dezelfde applicaties, maar aangezien de opzet voor alle applicaties ongeveer hetzelfde is hieronder mijn opzet. Ik ben ook wel benieuwd wat je met een andere indeling aan "veiligheid" zou winnen.

Ik gebruik slechts één share ("Share") met een opdeling van container data enerzijds ("Docker") en media files anderzijds ("Media"). Van de container data backup ik alleen de config dirs (settings). Verder maak ik een backup van de media files.

root@DS716:/volume1/Share/Docker# tree -d -L 1 nzbget bazarr/ radarr/ sonarr/ lidarr/
nzbget
├── config
└── downloads
bazarr/
├── config
├── movies -> /volume1/Share/Docker/radarr/movies
└── tv -> /volume1/Share/Docker/sonarr/tv
radarr/
├── config
├── downloads -> /volume1/Share/Docker/nzbget/downloads
└── movies -> /volume1/Share/Media/Video/Movies
sonarr/
├── config
├── downloads -> /volume1/Share/Docker/nzbget/downloads
└── tv -> /volume1/Share/Media/Video/TV
lidarr/
├── config
├── downloads -> /volume1/Share/Docker/nzbget/downloads
└── music -> /volume1/Share/Media/Music

14 directories
root@DS716:/volume1/Share/Docker#

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • jelbo
  • Registratie: September 2002
  • Laatst online: 23-09 11:50

jelbo

Hij doet het niet!

Ik ben vrolijk aan de slag met allerlei Docker images op mijn 713+. Blij dat ik destijds in 2014 voor de Intel versie gekozen heb. Intern werkt alles prima, maar ik wil de stap maken om zaken extern te benaderen. Het gaat mij in eerste instantie vooral om Synology Drive. Die wil ik via https kunnen benaderen.

Ik heb al een duckdns.org subdomein dat netjes up-to-date gehouden wordt. Nu ben ik op zoek naar een goede beginnerstutorial om de rest voor elkaar te krijgen. Idealiter met een Let's Encrypt certificaatje. Idealiter ga ik naar http://mijnnas.duckdnsorg/, die deze vanzelf naar https://mijnnas.duckdnsorg/ omleidt en me presenteert met Synology Drive :+

Van Synology's How to set up connection to Synology Drive server word ik nogal tureluurs. Customized domain bij DSM Settings en Drive bij het Application Portal, een customized alias, een hostname bij External Access.. welke moet ik hebben?

LinuxServer.io's letsencrypt Docker image krijg ik wel draaiend, echter krijg ik poort 443 niet vrij op m'n Synology, in elk geval niet zonder allerlei hacks.

AMD Phenom II X4 955BE 960~3720MHz @ 1,4V | Scythe Mugen 2 Rev. B | Gigabyte GA-770TA-UD3 R1.0 F2 | GeIL DDR3 Black Dragon DC 8GB GB34GB1600C8DC @ 1,6V 1600MHz 8-8-8-28 2T tRC34 | Asus nVidia GeForce GTX670 DC2OG | Intel X-25M 80GB | Corsair TX650W


Acties:
  • 0 Henk 'm!

  • tvdo
  • Registratie: Maart 2011
  • Laatst online: 03-04 23:36
Hi! Ik heb mijn synology ds112+ net opnieuw moeten installeren omdat de hdd stuk ging. Alle fotos en videos moeten nu opnieuw geindexeerd worden. Daarom heb ik alles via photostation uploader vanuit de laptop overgezet. Fotos zijn nu goed, maar bij videos gaat het mis:

1. Indexeren duurt heeeeeel lang, nog geen 1% per dag! Ok, het zijn 1000 video’tjes (backup telefoons dus heel kort), maar dit lijkt niet normaal. Cpu is ook de hele tijd 99% bezet en bij processen zie ik wel dat hij aan t indexeren is...
is dat normaal? Kan ik het indexeren van deze 1000 Bestanden versnellen?

2. In photostation (op iphone) kan ik niet meer goed sorteren omdat alle videos de datum van overzetten (dus vorige week) hebben gekregen; de exif of metadata en daarmee originele opnamedatum lijkt voorlopig onbekend. Kan dit worden hersteld door het indexeren? Oftewel, komt dit nog goed of moet ik alle videos opnieuw overzetten? En is er iets misgegaan met uploaden met de uploader in windows.

Als iemand op een punt kan helpen, graag! Alvast bedankt!!!

Acties:
  • 0 Henk 'm!

  • KnoxNL
  • Registratie: Juli 2009
  • Laatst online: 19:52
Mannen, kunnen jullie me even helpen, hoe was het ook weer:

Casus: Ik heb een 2 Bay Synology 216+ draaien bij mij thuis. 2x 2 TB in Raid 1, iets minder dan 2 TB netto dus.

Ik maakte backups naar mijn ouders naar mijn oude 209+ met 2x 1 TB in Raid 1, omdat deze er nu eenmaal in zaten.

Nu lijkt de 209+ dan eindelijk bezweken (of de disk) maar deze krijgt uiteraard ook al even geen updates meer.

Ik ben dus voornemens een 120J te kopen, met een enkele 2 TB schijf. Raid1 is uiteraard niet nodig voor mijn backup target.

Ik ben WD fan, heeft me nog nooit in de steek gelaten in de 13 jaar dat ik nu synology's gebruik.

TLDR,

welke RED past het beste in deze situatie? 64 of 256 MB cache? Ik ben het even kwijt, hoewel ze beiden in de compatibility list staan.

Iets in mij zegt minder cache is beter omdat er bij uitval van stroom etc minder gegevens verloren gaan. Aan de andere kant boeit het niet erg omdat je in zo'n geval de backup job opnieuw start.

Mogelijke keuzes:

https://tweakers.net/inte...__dMRnUpc2rtx_0E2Vt0aaUNg

What to do?

Acties:
  • 0 Henk 'm!
@jelbo
Geen antwoord op je vraag maar waarom een Let's Encrypt container? De Let's Encrypt functionaliteit zit toch al ingebouwd in Synology DSM?

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • Ferrox1
  • Registratie: Augustus 2008
  • Laatst online: 22:32
Hier druk bezig met docker/dns server/reverse proxy en kwam op het idee om muziek streaming ook door de nas te laten verzorgen. (nu doen we dit met mobiel naar een bluetooth speaker). Nu kan ik zo niets vinden op het internet.. maar ik vroeg mij af of er een oplossing is om nederlandse zenders door een docker container te laten streamen naar een bluetooth speaker (e.v.t. met bluetooth stick) of via airplay? Je krijgt dan een zelfde oplossing als chromcast/sonos die de stream overneemt en dat je zelf alleen de docker bedient via een app/website om in te stellen welke stream je wil luisteren. Nu lopen we geregeld met onze telefoon buiten bereik en het vreet batterij.

Ik was benieuwd of iemand al een dergelijke oplossing heeft draaien met zijn synology/docker en hoe hij/zij dit opgelost heeft?

Acties:
  • +1 Henk 'm!

  • MAdD
  • Registratie: Juni 2006
  • Laatst online: 23-09 10:56
Ferrox1 schreef op donderdag 23 april 2020 @ 09:17:
Hier druk bezig met docker/dns server/reverse proxy en kwam op het idee om muziek streaming ook door de nas te laten verzorgen. (nu doen we dit met mobiel naar een bluetooth speaker). Nu kan ik zo niets vinden op het internet.. maar ik vroeg mij af of er een oplossing is om nederlandse zenders door een docker container te laten streamen naar een bluetooth speaker (e.v.t. met bluetooth stick) of via airplay? Je krijgt dan een zelfde oplossing als chromcast/sonos die de stream overneemt en dat je zelf alleen de docker bedient via een app/website om in te stellen welke stream je wil luisteren. Nu lopen we geregeld met onze telefoon buiten bereik en het vreet batterij.

Ik was benieuwd of iemand al een dergelijke oplossing heeft draaien met zijn synology/docker en hoe hij/zij dit opgelost heeft?
Dat is mogelijk via Audio Station en een bleutooth dongel.
Ik heb dit al jaren draaien. In Audio station heb ik een favoriet radio kanaal aangemaakt, en deze wordt de hele dag op een bluetooth speakertje afgespeeld. Enige wat je dus nodig hebt is een USB dongel!

Assumption is the mother of all fuck-ups / You're MAdD. Well thank God for that, 'cause if I wasn't this would probably never work


Acties:
  • 0 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

Heeft iemand al succesvol een Let's Encrypt certifikaat met wildcard weten te maken? Met de laatste DSM zou dat moeten kunnen, maar krijg het nog niet voor elkaar.

Vul in:
Domain: example.com
Email: my@email.address
Alternate names: *.example.com

En dan uiteindelijk krijg ik na verloop van tijd een error dat ie letsencrypt niet zou kunnen bereiken.

Heb ook een CAA record voor letsencrypt in de DNS staan en example.com resolved ook naar een bereikbaar adres op 80/443.

Snap er niks van.

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


Acties:
  • +1 Henk 'm!

  • CyBeRSPiN
  • Registratie: Februari 2001
  • Laatst online: 00:31

CyBeRSPiN

sinds 2001

Even een lichtelijk paniekmomentje van de week. Mn DS213 was ineens (na 7 jaar lang trouwe dienst) uitgevallen en de ventilator maakte een tikkend geluid en kleine stuiptrekkingen.
Dacht dat het moederbord gaar was. Hele ding uit elkaar gehaald maar kon niks geks ontdekken.
Spanning van de voeding was ook netjes 12V.

Maar toch even een andere voeding geprobeerd, had zo'n universeel ding van 12V max 1A, terwijl die van Synology 5,4A is. Toch even geprobeerd zonder disks eraan, en de fan en de lampjes gingen aan.
Dus meteen nieuwe voeding besteld, kwam vandaag binnen. Ingeprikt en alles is weer up and running :)

Naar later bleek is de voeding een bekend probleem, dat die er na bepaalde tijd mee kan kappen. Nu dus zelf ook meegemaakt..
Voor 25 euro weer klaar ipv voor honderden euro's weer een nieuwe NAS te gaan uitzoeken :P

Acties:
  • +5 Henk 'm!

  • Prx
  • Registratie: September 2002
  • Laatst online: 23:36

Prx

afterburn schreef op donderdag 23 april 2020 @ 13:26:
Heeft iemand al succesvol een Let's Encrypt certifikaat met wildcard weten te maken? Met de laatste DSM zou dat moeten kunnen, maar krijg het nog niet voor elkaar.

Vul in:
Domain: example.com
Email: my@email.address
Alternate names: *.example.com

En dan uiteindelijk krijg ik na verloop van tijd een error dat ie letsencrypt niet zou kunnen bereiken.

Heb ook een CAA record voor letsencrypt in de DNS staan en example.com resolved ook naar een bereikbaar adres op 80/443.

Snap er niks van.
Ik zat hier ook naar te zoeken en kwam toen onderstaande discussie tegen op reddit, waar iemand tegen hetzelfde probleem aan liep.

https://www.reddit.com/r/...pt_wildcard_certificates/

In de comments kwamen ze er daar niet uit waarom het niet zou moeten werken. Één persoon gaf het volgende aan:
I am thinking it’s only wildcard for synology domains.
Omdat mij dat ook vrij weinig zegt ben ik net even op onderzoek uitgegaan. Daarbij stuitte ik op de volgende pagina in de knowledgebase van de Synology Router Manager (SRM):

https://www.synology.com/...rApp/security_certificate
To get certificates from Let's Encrypt:

You can get free and secure SSL/TLS certificates automatically from Let's Encrypt, an open and well-trusted certificate authority.
  1. Click Create certificate.
  2. Select Get a certificate from Let's Encrypt.
  3. Specify the following information:
    • Domain name: Enter the domain you have registered from the domain provider.
    • Email: Enter the email address used for certificate registration.
    • Subject Alternative Name: To allow one certificate to cover multiple domains, enter the other domain names here. You can also apply for a wildcard certificate by entering the domain names of Synology DDNS in the following format:
      *.SYNOLOGY_DDNS_DOMAIN_NAME
Ik vrees nu dus ook met grote vrezen dat men ervoor gekozen heeft om de wildcard implementatie alleen te supporten voor die DDNS adressen, niet generiek voor alle adressen. Wildcards zijn dan ook niet mogelijk met de HTTP-01 challenge, die tegenwoordig gebruikt wordt door Synology DSM.

https://letsencrypt.org/docs/challenge-types/

Pas bij het gebruik van DNS-01 is het mogelijk om met een wildcard certificaat te werken, maar mijn NAS heeft inderdaad geen controle over mijn DNS entries, dus theoretisch gezien zou dit niet mogelijk zijn.

Bij Synology staat hier ook wat over op het forum:
https://community.synolog...122673?page=2&sort=oldest
Dear xxx,

Thank you for contacting Synology support.

The Let’s Encrypt built-in Synology supports TLS-SNI-01, HTTP-01 and DNS-01 validation.

Although TLS-SNI-01 validation is reaching end-of-life, the Synology Let’s Encrypt will not be affected.


If you have enabled Synology DDNS and use the name to apply for the certificate, the process will go through HTTP-01 validation first.

Once Synology DDNS server is not ready, or there is any failure during HTTP-01 validation, the process will fall back to DNS-01 validation.

For non-Synology name service, it uses HTTP-01 which requires port 80 accessibility.


Thus, we suggest you keep port 80 open for validation if you do not user Synology DDNS name to apply the certificate.


If there is any problem, please feel free to contact us.


Yours Truly,

Technical Support
Dusssssss, blijgemaakt met een dode mus.

[ Voor 15% gewijzigd door Prx op 23-04-2020 17:20 ]


Acties:
  • 0 Henk 'm!

  • MeNTaL_TO
  • Registratie: Januari 2000
  • Laatst online: 30-08 23:52

MeNTaL_TO

The future is not set

KnoxNL schreef op donderdag 23 april 2020 @ 08:58:
Mannen, kunnen jullie me even helpen, hoe was het ook weer:

Casus: Ik heb een 2 Bay Synology 216+ draaien bij mij thuis. 2x 2 TB in Raid 1, iets minder dan 2 TB netto dus.

Ik maakte backups naar mijn ouders naar mijn oude 209+ met 2x 1 TB in Raid 1, omdat deze er nu eenmaal in zaten.

Nu lijkt de 209+ dan eindelijk bezweken (of de disk) maar deze krijgt uiteraard ook al even geen updates meer.

Ik ben dus voornemens een 120J te kopen, met een enkele 2 TB schijf. Raid1 is uiteraard niet nodig voor mijn backup target.

Ik ben WD fan, heeft me nog nooit in de steek gelaten in de 13 jaar dat ik nu synology's gebruik.

TLDR,

welke RED past het beste in deze situatie? 64 of 256 MB cache? Ik ben het even kwijt, hoewel ze beiden in de compatibility list staan.

Iets in mij zegt minder cache is beter omdat er bij uitval van stroom etc minder gegevens verloren gaan. Aan de andere kant boeit het niet erg omdat je in zo'n geval de backup job opnieuw start.

Mogelijke keuzes:

https://tweakers.net/inte...__dMRnUpc2rtx_0E2Vt0aaUNg

What to do?
Gerucht is dat de 256 MB versie SMR schijven zijn.
nieuws: Hdd-fabrikanten verzwegen gebruik shingled magnetic recording bij som...

Wenn ist das Nunstruck git und Slotermeyer? Ja!... Beiherhund das Oder die Flipperwaldt gersput! The Hornets of Hades have descended upon me


Acties:
  • +1 Henk 'm!

  • jelbo
  • Registratie: September 2002
  • Laatst online: 23-09 11:50

jelbo

Hij doet het niet!

kraades schreef op donderdag 23 april 2020 @ 09:14:
@jelbo
Geen antwoord op je vraag maar waarom een Let's Encrypt container? De Let's Encrypt functionaliteit zit toch al ingebouwd in Synology DSM?
Omdat ik het wil met DuckDNS en dat wordt niet genoemd in het lijstje DDNS providers. En die Docker container legt me precies uit wat het doet en doet bijvoorbeeld ook wildcard certificaten.

Klopt trouwens inderdaad dat de nieuwe Let's Encrypt wildcard support alleen geldt voor Synology's eigen DDNS...

[ Voor 11% gewijzigd door jelbo op 23-04-2020 20:30 ]

AMD Phenom II X4 955BE 960~3720MHz @ 1,4V | Scythe Mugen 2 Rev. B | Gigabyte GA-770TA-UD3 R1.0 F2 | GeIL DDR3 Black Dragon DC 8GB GB34GB1600C8DC @ 1,6V 1600MHz 8-8-8-28 2T tRC34 | Asus nVidia GeForce GTX670 DC2OG | Intel X-25M 80GB | Corsair TX650W


Acties:
  • 0 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

Prx schreef op donderdag 23 april 2020 @ 17:18:
[...]

Waslijst aan fantastische info, waarvoor dank!

[...]


Dusssssss, blijgemaakt met een dode mus.
Inderdaad. Dank voor je uitgebreide reactie, super!.

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


Acties:
  • 0 Henk 'm!

  • JdM
  • Registratie: Februari 2002
  • Laatst online: 19:17

JdM

Humbled

afterburn schreef op donderdag 23 april 2020 @ 13:26:
Heeft iemand al succesvol een Let's Encrypt certifikaat met wildcard weten te maken? Met de laatste DSM zou dat moeten kunnen, maar krijg het nog niet voor elkaar.

Vul in:
Domain: example.com
Email: my@email.address
Alternate names: *.example.com

En dan uiteindelijk krijg ik na verloop van tijd een error dat ie letsencrypt niet zou kunnen bereiken.

Heb ook een CAA record voor letsencrypt in de DNS staan en example.com resolved ook naar een bereikbaar adres op 80/443.

Snap er niks van.
Kun je het eens proberen door het domein waarop je het aanvraagt in de virtuele hostinstellingen van webstation de poorten http en https even op iets fictiefs te zetten (1 en 2 bijvoorbeeld).
Bij mij heb ik gemerkt dat dit helpt bij het verlengen van de certificaten voor ik de nieuwe aanvraag doe.
Ben benieuwd of dit bij anderen ook zo is en wellicht werkt het met de wildcard?

Acties:
  • 0 Henk 'm!
Ik heb een aantal reverse proxies gedefinieerd. Omdat basic auth voor zover ik weet niet aangegeven kan worden voor reverse proxies die je via Synology DSM aanmaakt, heb ik de reverse proxies direct in de nginx sites-enabled directory aangemaakt. Ik voeg dan steeds onderstaand stukje toe om basic auth te activeren. Dit werkt.

Ik zou echter graag de reverse proxies via Synology DSM aanmaken en hier dan een Let's Encrypt certificaat aan koppelen. Dit is makkelijk te configureren alleen heb ik dan geen basic auth.

Is het mogelijk om onderstaande configuratie voor basic auth nog op een andere plek aan te geven? Zodat ik wel gebruik kan maken van Synology DSM maar toch ook steeds basic auth actief is?

Andere ideeën zijn ook welkom.

root@DS716:/etc/nginx/sites-enabled# ls
bazarr.conf  lidarr.conf  nzbget.conf  radarr.conf  sonarr.conf
root@DS716:/etc/nginx/sites-enabled# tail sonarr.conf

        proxy_pass http://localhost:8989;

        satisfy any;
        allow  192.168.0.0/24;
        deny   all;
        auth_basic            "closed site";
        auth_basic_user_file  /volume1/web_passwd/.htpasswd;
    }
}
root@DS716:/etc/nginx/sites-enabled#

Edit:
Ik heb bijvoorbeeld Visual Studio Code via Synology DSM gedefinieerd inclusief Let's Encrypt certificaat en dat werkt prima. VSC heeft van zichzelf al een login/password.
root@DS716:/etc/nginx/app.d# cat server.ReverseProxy.conf | grep -v -e '^$'
server {
    listen 443 ssl;
    listen [::]:443 ssl;
    server_name code.xxxxxxxx.synology.me;
    ssl_certificate /usr/syno/etc/certificate/ReverseProxy/5ffeea13-2ea9-42ef-9bcf-1a84e7eeda9f/fullchain.pem;
    ssl_certificate_key /usr/syno/etc/certificate/ReverseProxy/5ffeea13-2ea9-42ef-9bcf-1a84e7eeda9f/privkey.pem;
    location / {
        proxy_connect_timeout 60;
        proxy_read_timeout 60;
        proxy_send_timeout 60;
        proxy_intercept_errors off;
        proxy_http_version 1.1;
        proxy_set_header        Upgrade            $http_upgrade;
        proxy_set_header        Connection            $connection_upgrade;
        proxy_set_header        Host            $http_host;
        proxy_set_header        X-Real-IP            $remote_addr;
        proxy_set_header        X-Forwarded-For            $proxy_add_x_forwarded_for;
        proxy_set_header        X-Forwarded-Proto            $scheme;
        proxy_pass http://localhost:8443;
    }
    error_page 403 404 500 502 503 504 @error_page;
    location @error_page {
        root /usr/syno/share/nginx;
        rewrite (.*) /error.html break;
        allow all;
    }
}
root@DS716:/etc/nginx/app.d#

[ Voor 38% gewijzigd door technorabilia op 24-04-2020 17:57 ]

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • OkselFris
  • Registratie: Februari 2001
  • Laatst online: 23-09 14:43

OkselFris

Rabarber, Rabarber, Rabarber

Ik heb afgelopen week een DS918+ gekocht, alles prima en het draait als een zonnetje. Nu dacht ik om ook mijn iCloud Drive waar mijn documenten staan te vervangen door Synology Drive. De MacOS cliënt was veelbelovend en doet exact wat ik nodig heb.
Nu loop ik echter tegen de apps voor IOS aan. Ik kom direct al 3 apps tegen die allemaal " iets" kunnen. DS Files, Drive en DS Cloud. alle 3 geprobeerd, maar het is dus 3 maal niks, zeg maar rustig een rommeltje.
DS Cloud en Files werken slecht samen met de IOS bestanden app.
Als ik Synology moet geloven is Drive de app welke het zou moeten zijn, echter zodra ik een nieuw document in Pages of Numbers maak, dan krijg ik een error. Deze wordt naar mijn vermoeden veroorzaakt door het feit dat het document niet eerst lokaal wordt aangemaakt, maar remote op de NAS en dan lokaal wordt gezet. (niet heel logisch) In Excel etc, is Drive niet eens beschikbaar. Nu geeft de Drive app ook een redelijk beta gevoel.

Kortom Drive is leuk om bestanden te bekijken en dan stopt het en zoals het nu lijkt moet ik mooi bij iCloud Drive blijven voor mijn documenten. Hoe doen jullie dit, wat gebruiken jullie als mobile app? of doen jullie dit in combinatie met een andere cloud dienst?

To crash with a Volvo is extremely safe..... if you’re sitting in a Saab


Acties:
  • +1 Henk 'm!

  • Prx
  • Registratie: September 2002
  • Laatst online: 23:36

Prx

Hmm, ben er bang voor dat het niet gaat inderdaad. Het lijkt erop dat de conf files van nginx elke keer dynamisch opgebouwd worden bij het (her)starten van de service. Deze lijkt uiteindelijk vanuit dit bronbestand te worden opgebouwd:
/usr/syno/etc/www/ReverseProxy.json

Ik heb de ingeladen configuratie van nginx gedumpt met onderstaand commando:
nginx -T

Daar staat in de comments ook dat hij uiteindelijk de volgende config file tot zich neemt:
# configuration file /etc/nginx/app.d/server.ReverseProxy.conf:

Herstarten van de service kan ook handmatig namelijk via de synoservicecfg utility. Maar ergens in dit proces zou je dan in moeten grijpen denk ik, en dat zal niet zo makkelijk zijn. Elke wijziging die ik heb gemaakt in die .conf werd namelijk weer ongedaan gemaakt.

Je zou bijna overwegen om dan iets er tegenaan te scripten die de conf aanpast en dan even een reload forceert van de nginx configuratie, zodat hij niet een volledige restart gaat doen:
nginx -s reload

Misschien dat iemand anders nog een briljante ingeving heeft. :P

Edit:
Oké, iets meer zitten graven en toen kwam ik deze post uit het donkere verleden tegen:
https://tonylawrence.com/...synology/freeing-port-80/

Daar zitten in ieder geval de template files. Nu nog iets conditioneel kunnen toevoegen voor de ReverseProxy. Ik zie in die directory een hoop spul, alleen niet iets wat direct ReverseProxy heet helaas. :+
/usr/syno/share/nginx


Edit 2:
Het zit in de volgende file:
/usr/syno/share/nginx/Portal.mustache


Edit 3:
Oké, mustache staat er blijkbaar bekend om dat het juist logic-less is, dus geen conditionele statements in de template. Enige vorm is boolean in de JSON, en laat dat net het deel zijn waar we geen invloed op willen hebben, aangezien DSM daarvoor in-the-lead is.

[ Voor 24% gewijzigd door Prx op 25-04-2020 22:35 ]


Acties:
  • 0 Henk 'm!
@Prx
Bedankt voor je onderzoek.
Ik heb nog gezocht naar waar de json file wordt gebruikt maar dan zijn alleen binaries dus daar kan ik helaas niet veel mee. Ik vrees dat ik het handmatig zal moeten blijven configureren.

@OkselFris
Ik gebruik het momenteel niet, maar wat ik mij ervan kan herinneren is dat je files op je telefoon kun delen en dan worden de files geupload naar Drive. Ook kun je files downloaden van Drive naar je telefoon en daar updaten en vice versa. Ik heb er zelf niet echt heel veel van begrepen. Inderdaad een onvolledige implementatie mijns inziens. Ik gebruik overigens Android.

👉🏻 Blog 👈🏻


Acties:
  • +1 Henk 'm!

  • Prx
  • Registratie: September 2002
  • Laatst online: 23:36

Prx

kraades schreef op zaterdag 25 april 2020 @ 22:56:
@Prx
Bedankt voor je onderzoek.
Ik heb nog gezocht naar waar de json file wordt gebruikt maar dan zijn alleen binaries dus daar kan ik helaas niet veel mee. Ik vrees dat ik het handmatig zal moeten blijven configureren.
Alternatief dan maar?

De andere kant van je probleem is het Let's Encrypt certificaat. Je wilt graag gebruik maken van de ingebouwde functionaliteit om te renewen, zodat je daar geen last van hebt. Wat nu als we het voor elkaar zouden krijgen om dat deel te regelen?

Ik zie op mijn Synology dat de certificaten op de volgende 3 plaatsen aanwezig zijn:
/usr/local/etc/certificate/WebStation/
/usr/syno/etc/certificate/ReverseProxy/
/usr/syno/etc/certificate/_archive/

Ongeacht of ik een certificaat heb verbonden aan een dienst (website), verschijnt hij sowieso op die laatste locatie. Dat zal dan ook de plek zijn waar het origineel staat. In mijn geval heb ik namelijk 4 certificaten die via Let's Encrypt werken, dus daar staan er ook 4.

Nu denk ik niet dat we die mogen linken vanuit NGINX (maar je kunt het proberen). Maar wat nou als we gewoon zorgen dat het certificaat in gebruik wordt genomen door een Dummy ReverseProxy configuratie? Gewoon www.example.com als domein met een certificaat wat wel klopt voor jouw dienst? Niemand die ooit die regel gaat raken. Voor de zekerheid doe je de 'redirect' naar 127.0.0.1 op een niet gebruikte poort, ook niemand die antwoord gaat krijgen als ze wel zo binnen zouden komen.

Die certificaten worden dus in die andere map gedeployed. Ik heb daar even een test gedaan en voor één van mijn reverse proxy regels het certificaat gewisseld.
xxx@xxx:/usr/syno/etc/certificate/ReverseProxy$ ls -lah
total 40K
drwxr-xr-x 10 root root 4.0K Apr  5 22:13 .
drwxr-xr-x  7 root root 4.0K Aug 27  2018 ..
drwxr-xr-x  2 root root 4.0K Apr  5 22:13 8fc0ee92-0bd7-41d5-8528-cb8fc5c738a3

xxx@xxx:/usr/syno/etc/certificate/ReverseProxy$ ls -lah
total 40K
drwxr-xr-x 10 root root 4.0K Apr 25 23:10 .
drwxr-xr-x  7 root root 4.0K Aug 27  2018 ..
drwxr-xr-x  2 root root 4.0K Apr 25 23:10 8fc0ee92-0bd7-41d5-8528-cb8fc5c738a3


Zolang die identifiers hetzelfde blijven (en dan blijven ze hopelijk wel), kun jij dus gewoon die benodigde certificaat regels opvoeren in jouw eigen sites-enabled versie, die behoren tot de dummy ReverseProxy. Dump het weer even met nginx -T en je weet wat het zou moeten zijn.

Als het goed is regelt de Synology dan de certificaat renewal voor je, inclusief redeployment naar die map. Of die identifiers anders worden bij een reboot o.i.d. laat ik even aan jou om te testen (maar denk het niet, want ik heb na 5 april nog een DSM update gedaan). :9

Werkt dat voor je?

Edit:
Denk niet dat ze wijzigen. Ze staan namelijk in die JSON file die we eerder hadden gevonden. Heb een ongebruikte reverseproxy regel weggegooid en alleen die werd netjes weggehaald overal, de overigens bleven onder dezelfde identifier staan.

[ Voor 7% gewijzigd door Prx op 25-04-2020 23:30 ]


Acties:
  • 0 Henk 'm!

  • Joao
  • Registratie: Mei 2009
  • Laatst online: 18-08 00:37
Ik heb al enige tijd een Synology DS918+ waar ik via cloud sync een map gesynchroniseerd heb met OneDrive. In deze map komen automatisch elke dag via duplicati en syncthing containers backups terecht.
Het probleem waar ik nu tegenaan loop is dat deze door cloud sync niet gezien worden.

De files worden pas gesynchroniseerd als ik de cloud sync service opnieuw opstart.
Als oplossing heb ik via task scheduler een service stop en een service start ingesteld die na de backups draait. Niet een ideale oplossing.

Bij het handmatig toevoegen van bestanden of mappen dan worden deze wel door cloud sync gezien en meteen geupload.

Heeft iemand dit probleem ook?

Acties:
  • 0 Henk 'm!

Verwijderd

Ik zit in een dubio...

Ik heb in 2013 een NAS gekocht. DS412+
Hier heb ik 2 disken in zitten: WD RED 3TB

Maar gezien de leeftijd van de disken en het feit dat ze nu redelijk vol beginnen te raken (90%), wil ik er iets mee.

Maar ik weet niet wat precies...

Ik kan op gaan schalen naar 6TB of 8TB met 2 disken, maar ik kan ook overstappen op 3 disken van 4TB, dit is goedkper en haal ik netto ook 8TB. Wel ben ik in het geval van 2 disken felxibeler met het varvangen van de NAS zelf in de toekomst.

De DS412+ is redelijk overkill gebleken. Het belangrijkste is de backup van foto's, vroeger met de camera en tegenwoordig met de mobiele telefoon. Daarnaast gebruik ik de VPN oplossing regelmatig en laat ik beveiligingscameras schrijven op de NAS. Maar die twee vind ik minder belangrijk.

Wat is eigenlijk de gemiddelde levensduur van een Synology NAS? Kan dit nog wel even mee?
De disken houden het erg lang uit bij mij, bijna 7 jaar nu voor de WD RED's, maar toch raak ik daar soms een beetje zenuwachtig van.

Wat zouden jullie doen?

Acties:
  • 0 Henk 'm!

  • Gizz
  • Registratie: Maart 2001
  • Laatst online: 21:51

Gizz

Dunder-Mifflin, Inc.

Verwijderd schreef op zondag 26 april 2020 @ 10:00:
Ik kan op gaan schalen naar 6TB of 8TB met 2 disken, maar ik kan ook overstappen op 3 disken van 4TB, dit is goedkper en haal ik netto ook 8TB. Wel ben ik in het geval van 2 disken felxibeler met het varvangen van de NAS zelf in de toekomst.
Met drie schijven zou je hogere leessnelheden kunnen halen (want dat doe je van 3 schijven tegelijk i.p.v. 2), maar de vraag is of je dat bij jouw gebruik gaat merken.

De optie met de minste kosten op korte termijn is een extra 3TB schijf. Heb je ze nu als SHR / RAID 1 draaien? Dan verdubbel je dus met een extra 3TB schijf je netto opslagcapaciteit. Daar zou ik voor gaan als je denkt dat je daar de komende twee jaar mee vooruit kan. Daarna wordt het waarschijnlijk sowieso tijd voor een nieuwe NAS (zie ook mijn reactie verderop).
De disken houden het erg lang uit bij mij, bijna 7 jaar nu voor de WD RED's, maar toch raak ik daar soms een beetje zenuwachtig van.
Een NAS is op zichzelf geen backup. Dus er is niets om zenuwachtig van te worden, want zelfs als je hele 412+ ontploft zou je nog ergens anders al je data moeten hebben. Als dat niet zo is heb je nu sowieso een probleem met je backup-strategie, of je schijven nu 7 dagen of 7 jaar oud zouden zijn.
Wat is eigenlijk de gemiddelde levensduur van een Synology NAS? Kan dit nog wel even mee?
Intern zit er niks in een NAS dat snel kapot gaat. Misschien dat je een keer het ventilatortje moet vervangen. Het onderdeel dat het eerst sneuvelt (los van de schijven) is de externe voeding, maar die kun je natuurlijk vervangen.

Hier kun je zien of er nog (security) updates worden uitgebracht voor je NAS. Voor de 412+ is dat zo, voor de 411+ ook maar bij de 410 zijn ze gestopt. Ik denk dat je ervan uit kunt gaan dat je dus sowieso nog 2 jaar van de laatste updates wordt voorzien.

Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX


Acties:
  • 0 Henk 'm!

Verwijderd

Gizz schreef op zondag 26 april 2020 @ 10:19:
[...]

Met drie schijven zou je hogere leessnelheden kunnen halen (want dat doe je van 3 schijven tegelijk i.p.v. 2), maar de vraag is of je dat bij jouw gebruik gaat merken.

De optie met de minste kosten op korte termijn is een extra 3TB schijf. Daar zou ik voor gaan als je denkt dat je daar de komende twee jaar mee vooruit kan. Daarna wordt het waarschijnlijk sowieso tijd voor een nieuwe NAS (zie ook mijn reactie verderop).


[...]

Een NAS is op zichzelf geen backup. Dus er is niets om zenuwachtig van te worden, want zelfs als je hele 412+ ontploft zou je nog ergens anders al je data moeten hebben. Als dat niet zo is heb je nu sowieso een probleem met je backup-strategie, of je schijven nu 7 dagen of 7 jaar oud zouden zijn.


[...]

Intern zit er niks in een NAS dat snel kapot gaat. Misschien dat je een keer het ventilatortje moet vervangen. Het onderdeel dat het eerst sneuvelt (los van de schijven) is de externe voeding, maar die kun je natuurlijk vervangen.

Hier kun je zien of er nog (security) updates worden uitgebracht voor je NAS. Voor de 412+ is dat zo, voor de 411+ ook maar bij de 410 zijn ze gestopt. Ik denk dat je ervan uit kunt gaan dat je dus sowieso nog 2 jaar van de laatste updates wordt voorzien.
Ik heb eeen 5TB USB draagbare diks waar ik alle data op backup.
Daarnaast draait er een cloudsync, maar die zit inmiddels vol voor de foto's (1TB). Dus dat is leuk als een extra zekerheidje, maar nu niet meer volledig.

Dit heb ik afgelopen week snel geregeld, omdat ik toen pas merkte dat de cloudsync niet meer loopt. Ik heb er al meer dan een jaar niet naar omgekeken denk ik :+

Lang verhaal kort: Backup loopt weer...

Tevens zie ik dat mijn vrouw haar foto's dubbel zijn gebackupd.
Haar vorige iphone was een iphone 6 waar zijn apple cloud op had, overgestapt naar ene XS. En hier eeft apple cloud dus al die oude foto's ook weer op gezet.

Ik maak iedere telefoon een nieuw mapje aan op de nas, waar de foto backup weer voor wordt geregeld.

Is er een makkelijke manier tussen die twee mappen te ontdubbelen?

Het is niet zo dat alle foto's uit de eerdere map dubbel zijn.

Ik heb dus een map uit 2014
En een map uit 2018

Beide mappen delen een bepaalde range aan foto's, maar die zijn niet helemaal consistent met naamgeving, omdat ook whatsapp tussendoor komt, die weer andere data hanteert.

Pffff, gevoel dat het één grote puinhoop is, doordat Apple iCloud dingen heeft dubbel neergezet heeft op telefoons en de telefoons weer hebben geupload naar de NAS...

2014 iphone = 195GB / 58.341 files
2018 iphone = 95GB / 33.193 files (fotobackup liep achter en er staan nu nog 11.000 foto's/video's in de wachtrij) Mijn vermoeden is dat de 95GB veelal oude foto's van de 128GB iPhone uit 2014 zijn. Maar met een kleine mix uit 2018+. Hierdoor kan ik het niet zomaar weggooien...

[ Voor 23% gewijzigd door Verwijderd op 26-04-2020 11:27 ]


Acties:
  • 0 Henk 'm!
@BlakHawk
Ik weet niet hoe handig je bent op de command line maar ik gebruik deze nog wel eens:
https://stackoverflow.com...e-files-and-removing-them (bovenaan)
Die roep je aan met:
python finddups.py /pad1 /pad2 etc.

Het script verwijdert niets en is redelijk snel.

Edit:
Nog even gecontroleerd.
Ik heb het script in /usr/local/bin staan en finddups genoemd.
Na chmod ugo+x kun je deze dan direct aanroepen.
finddups /pad1 /pad2 etc.

Ik filter wel altijd de eaDir eruit:
finddups /pad1 /pad2 etc. | grep -v -i eadir

[ Voor 31% gewijzigd door technorabilia op 26-04-2020 12:23 ]

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

kraades schreef op zondag 26 april 2020 @ 11:31:
@BlakHawk
Ik weet niet hoe handig je bent op de command line maar ik gebruik deze nog wel eens:
https://stackoverflow.com...e-files-and-removing-them (bovenaan)
Die roep je aan met:
python finddups.py /pad1 /pad2 etc.

Het script verwijdert niets en is redelijk snel.

Edit:
Nog even gecontroleerd.
Ik heb het script in /usr/local/bin staan en finddups genoemd.
Na chmod ugo+x kun je deze dan direct aanroepen.
finddups /pad1 /pad2 etc.

Ik filter wel altijd de eaDir eruit:
finddups /pad1 /pad2 etc. | grep -v -i eadir
Ziet er goed uit, maar waarom verwijdert dat script niets? Zou je wel willen neem ik aan met deduplicatie?

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +2 Henk 'm!

  • Bongoarnhem
  • Registratie: Maart 2009
  • Laatst online: 22-09 21:30
Verwijderd schreef op zondag 26 april 2020 @ 10:26:
[...]


Ik heb eeen 5TB USB draagbare diks waar ik alle data op backup.
Daarnaast draait er een cloudsync, maar die zit inmiddels vol voor de foto's (1TB). Dus dat is leuk als een extra zekerheidje, maar nu niet meer volledig.

Dit heb ik afgelopen week snel geregeld, omdat ik toen pas merkte dat de cloudsync niet meer loopt. Ik heb er al meer dan een jaar niet naar omgekeken denk ik :+

Lang verhaal kort: Backup loopt weer...

Tevens zie ik dat mijn vrouw haar foto's dubbel zijn gebackupd.
Haar vorige iphone was een iphone 6 waar zijn apple cloud op had, overgestapt naar ene XS. En hier eeft apple cloud dus al die oude foto's ook weer op gezet.

Ik maak iedere telefoon een nieuw mapje aan op de nas, waar de foto backup weer voor wordt geregeld.

Is er een makkelijke manier tussen die twee mappen te ontdubbelen?

Het is niet zo dat alle foto's uit de eerdere map dubbel zijn.

Ik heb dus een map uit 2014
En een map uit 2018

Beide mappen delen een bepaalde range aan foto's, maar die zijn niet helemaal consistent met naamgeving, omdat ook whatsapp tussendoor komt, die weer andere data hanteert.

Pffff, gevoel dat het één grote puinhoop is, doordat Apple iCloud dingen heeft dubbel neergezet heeft op telefoons en de telefoons weer hebben geupload naar de NAS...

2014 iphone = 195GB / 58.341 files
2018 iphone = 95GB / 33.193 files (fotobackup liep achter en er staan nu nog 11.000 foto's/video's in de wachtrij) Mijn vermoeden is dat de 95GB veelal oude foto's van de 128GB iPhone uit 2014 zijn. Maar met een kleine mix uit 2018+. Hierdoor kan ik het niet zomaar weggooien...
Onder opslagbeheer en/of rapporten kan je dsm laten zoeken naar dubbelen op je nas of in een bepaalde map. Heeft mij al vele uren zoekwerk bespaard om over de bespaarde schijfruimte nog maar te zwijgen.

[ Voor 15% gewijzigd door Bongoarnhem op 26-04-2020 14:26 ]


Acties:
  • +1 Henk 'm!
Sp33dFr34k schreef op zondag 26 april 2020 @ 12:30:
[...]


Ziet er goed uit, maar waarom verwijdert dat script niets? Zou je wel willen neem ik aan met deduplicatie?
Beter niet automatisch deleten. Onderstaande is niet goed getest. Je weet maar nooit. :X

Deleten is altijd een beetje tricky, maar het script kan als volgt worden aangepast: Er wordt dan gevraagd of je de eerste of tweede file wilt verwijderen.
[code] duplicate = hashes_full.get(full_hash)
if duplicate:
print "Duplicate found: %s and %s" % (filename, duplicate)
value = raw_input("Delete first or second file? 1 or 2? ")
if value == "1":
os.remove(filename)
elif value == "2":
os.remove(duplicate)
else:
print "No file deleted"
else:
hashes_full[full_hash] = filename[/code]

[ Voor 4% gewijzigd door technorabilia op 26-04-2020 16:27 ]

👉🏻 Blog 👈🏻


Acties:
  • +2 Henk 'm!

  • Hulliee
  • Registratie: November 2008
  • Niet online
AtomicWing schreef op vrijdag 17 april 2020 @ 11:08:
DSM 6.2.3 geeft in sommige gevallen problemen met DS Photo / Photo Station authenticatie wanneer Accountbeveiliging staat ingeschakeld (Config - Beveiliging). Dit is nu erkend als "known issue" en wordt hopelijk op korte termijn opgelost (afgelopen nacht via SSH onderzocht.. wel spannend zo de deur open zetten)
  • Work-around 1: Inloggen in DSM, vanuit het menu naar "Photo Station" werkt wel
  • Work-around 2: Uitschakelen accountbeveiliging zorgt ervoor dat de apps en webversie weer werken
  • Work-around 3: DS file heeft ook een foto back-up functie die de normale authenticatie gebruikt i.p.v. die van Photo Station. Deze is qua functies gelijk aan de back-up in DS Photo.
Update: Er komt een patch voor Photo Station in het Package Center. Heb de package alvast los ontvangen en deze lost bij mij het probleem op (DS216play).
Ik had op de frontpage ook al gereageerd.

Voor anderen die hier tegenaan lopen, dit is de patch:
https://community.synolog...33249?page=1&reply=422533

Acties:
  • 0 Henk 'm!

  • Mr_Viking
  • Registratie: September 2010
  • Laatst online: 22-09 12:43
Bij mij lopen zowel sonarr als radarr te bokken, iets met mono.

Wil alles dus even opnieuw installeren, maar hoe kan ik er voor zorgen dat m’n instellingen en library intact blijven?

Ik dacht bepaalde bestanden kopiëren en weer terugpakken na herinstallatie?

Acties:
  • 0 Henk 'm!

  • KSH
  • Registratie: November 2005
  • Laatst online: 22-09 11:49

KSH

bertware schreef op maandag 20 april 2020 @ 11:40:
@KSH Het echte probleem is dat je, achter die domeinnaam, je externe IP adres van binnen je netwerk gebruikt. Jij stuurt je vraag naar je router, die stuurt het naar buiten, maar het netwerk buiten stuurt dit terug naar je router, want jouw extern IP adres. Je router (of het netwerk buiten) ontdekt dat je pakketje in cirkels gaat en verbreekt de verbinding. Je router moet het gebruik van het externe IP adres binnen je LAN netwerk ondersteunen, wat zoals @Laagheim zegt NAT Hairpinning heet. Ondersteuning hiervoor verschilt per router . Bijvoorbeeld de proximus Bbox routers ondersteunen dit niet, maar de Asus (AC58U) router die ik nu heb maakt er geen probleem van.

Alternatieven:
- een lokale DNS server zoals Pi-Hole of je NAS
- in je hosts file van desktopcomputers de hostname overschrijven door het lokale adres.
- Synology heeft met quickconnect een techniek waarmee ze, afhankelijk van of je je op hetzelfde netwerk als de NAS bevindt, naar het externe of interne IP adres doorverwijzen. Ook al is dit QuickConnect, toch gaat het in deze gevallen nog steeds om een directe verbinding. De indirecte relay verbindingen (trager, via synology) kan je nog steeds uitgeschakeld laten. https://www.synology.com/...r/connection_quickconnect
Bedankt voor de tips allemaal! Probleem was inderdaad hairpinning. Heb het opgelost met een nieuwe router Edge Router X. Daarnaast een Pi-Hole gemaakt. Nu werkt heta allemaal.

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

kraades schreef op zondag 26 april 2020 @ 14:48:
[...]


Beter niet automatisch deleten. Onderstaande is niet goed getest. Je weet maar nooit. :X

Deleten is altijd een beetje tricky, maar het script kan als volgt worden aangepast: Er wordt dan gevraagd of je de eerste of tweede file wilt verwijderen.
[code] duplicate = hashes_full.get(full_hash)
if duplicate:
print "Duplicate found: %s and %s" % (filename, duplicate)
value = raw_input("Delete first or second file? 1 or 2? ")
if value == "1":
os.remove(filename)
elif value == "2":
os.remove(duplicate)
else:
print "No file deleted"
else:
hashes_full[full_hash] = filename[/code]
Nee true, je weet het maar nooit. Ik heb niet heel goed naar het script gekeken, maar wat doet het dan als het files niet verwijdert? Een lijstje maken ergens met je dubbelen ofzo?

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +1 Henk 'm!
Sp33dFr34k schreef op dinsdag 28 april 2020 @ 00:24:
[...]


Nee true, je weet het maar nooit. Ik heb niet heel goed naar het script gekeken, maar wat doet het dan als het files niet verwijdert? Een lijstje maken ergens met je dubbelen ofzo?
Klopt, je krijgt een lijstje met dubbelen. Maar ik heb hierboven begrepen dat het ook in DSM zit. Hoewel het script wel flexibeler is natuurlijk. Mits je een beetje Python kunt programmeren... ;)

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • afterburn
  • Registratie: Januari 2000
  • Laatst online: 17-08 20:22

afterburn

No more...

Mr_Viking schreef op maandag 27 april 2020 @ 11:15:
Bij mij lopen zowel sonarr als radarr te bokken, iets met mono.

Wil alles dus even opnieuw installeren, maar hoe kan ik er voor zorgen dat m’n instellingen en library intact blijven?

Ik dacht bepaalde bestanden kopiëren en weer terugpakken na herinstallatie?
Ja, daar komt het op neer ja. Even kijken onder /var/packages/<package>/target

Als je via docker werkt, gaat dat een stuk makkelijker en hoef je eigenlijk niks te doen, mits je het initieel goed hebt opgezet. Onder docker draait het naar mijn mening ook een stuk stabieler als met de native packages. Ik heb toen ik nog de packages draaide ook wel eens een borked sonarr en radarr gehad, maar met docker draait het inmiddels al weer een paar jaar zonder problemen.

Fuji X-T1 | XF14mm F2.8 R | XF23mm F1.4 R | XF35mm F1.4 R
Nikon D800 | AF-S 24-120/f4 VR2 | AF-S 50/f1.8G
Computer specs


Acties:
  • 0 Henk 'm!

Verwijderd

Bongoarnhem schreef op zondag 26 april 2020 @ 14:22:
[...]


Onder opslagbeheer en/of rapporten kan je dsm laten zoeken naar dubbelen op je nas of in een bepaalde map. Heeft mij al vele uren zoekwerk bespaard om over de bespaarde schijfruimte nog maar te zwijgen.
Ah ik zie hem, die kun je gewoon uitvoeren zonder consequenties?
Wat komt daar voor een uitkomst uit?

Ik zie dat je maximaal 5000 bestanden kunt ingeven ik verwacht bij mij 10.000 dubbele bestnaden

Acties:
  • 0 Henk 'm!

  • Bongoarnhem
  • Registratie: Maart 2009
  • Laatst online: 22-09 21:30
Verwijderd schreef op dinsdag 28 april 2020 @ 09:31:
[...]


Ah ik zie hem, die kun je gewoon uitvoeren zonder consequenties?
Wat komt daar voor een uitkomst uit?

Ik zie dat je maximaal 5000 bestanden kunt ingeven ik verwacht bij mij 10.000 dubbele bestnaden
Kan je zonder gevolgen doen, hij verwijderd niks.
Ik ben met het rapport gaan zoeken, en zelf gaan verwijderen.

Acties:
  • 0 Henk 'm!

  • KnoxNL
  • Registratie: Juli 2009
  • Laatst online: 19:52
Ik ben ook even in de links gedoken in het artikel, en het schijnt niet zozeer met de cache grootte maar met de disk grootte te maken te hebben, Dat zou alle REDS tussen de 2 - 10 TB kwetsbaar maken.

Maar ook seagate doet hier aan mee blijkt uit het artikel.

Ik denk dat ik dan toch maar voor een WD Red ga, ze gaan in ieder geval lang mee en voor backup target vind ik dat het belangrijkste.

Dank!

Acties:
  • +1 Henk 'm!

  • MeNTaL_TO
  • Registratie: Januari 2000
  • Laatst online: 30-08 23:52

MeNTaL_TO

The future is not set

KnoxNL schreef op woensdag 29 april 2020 @ 11:29:
[...]

Ik ben ook even in de links gedoken in het artikel, en het schijnt niet zozeer met de cache grootte maar met de disk grootte te maken te hebben, Dat zou alle REDS tussen de 2 - 10 TB kwetsbaar maken.

Maar ook seagate doet hier aan mee blijkt uit het artikel.

Ik denk dat ik dan toch maar voor een WD Red ga, ze gaan in ieder geval lang mee en voor backup target vind ik dat het belangrijkste.

Dank!
De cache zou aangeven of het een SMR schijf is of niet, maar WD gaat het met type aanduiding aangeven. Zelf lijkt het voor mijn NAS gebruik geen issue of ik wel of geen SMR schijf heb, nu maar hopen dat ze ook een stuk goedkoper worden.

Wenn ist das Nunstruck git und Slotermeyer? Ja!... Beiherhund das Oder die Flipperwaldt gersput! The Hornets of Hades have descended upon me


Acties:
  • +2 Henk 'm!

  • bertware
  • Registratie: December 2013
  • Laatst online: 00:42
MeNTaL_TO schreef op woensdag 29 april 2020 @ 13:07:
[...]

De cache zou aangeven of het een SMR schijf is of niet, maar WD gaat het met type aanduiding aangeven. Zelf lijkt het voor mijn NAS gebruik geen issue of ik wel of geen SMR schijf heb, nu maar hopen dat ze ook een stuk goedkoper worden.
WD RED 2, 3, 4 en 6 TB met 256MB Cache zijn SMR schijven. Deze zijn te herkennen aan de EFAX-suffix, in plaats van de oude EFRX suffix voor de niet-SMR varianten.

WD20EFAX, WD30EFAX, WD40EFAX, WD60EFAX zijn dus SMR.

De volledige lijst vind je hier: https://blog.westerndigit...22_WD_SMR_SKUs_1Slide.pdf

Acties:
  • 0 Henk 'm!

  • smeerbartje
  • Registratie: September 2006
  • Laatst online: 22-09 15:48
bertware schreef op woensdag 29 april 2020 @ 16:05:
[...]

WD RED 2, 3, 4 en 6 TB met 256MB Cache zijn SMR schijven. Deze zijn te herkennen aan de EFAX-suffix, in plaats van de oude EFRX suffix voor de niet-SMR varianten.

WD20EFAX, WD30EFAX, WD40EFAX, WD60EFAX zijn dus SMR.

De volledige lijst vind je hier: https://blog.westerndigit...22_WD_SMR_SKUs_1Slide.pdf
Los van snelheid; zijn de schijven ook gewoon "slechter" qua betrouwbaarheid?

Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Ik heb WD100EFAX en WD40EFRX schijven, dus die vallen er dan niet onder. Vraag me ook af wat concreet het verschil is.

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +1 Henk 'm!

  • MeNTaL_TO
  • Registratie: Januari 2000
  • Laatst online: 30-08 23:52

MeNTaL_TO

The future is not set

smeerbartje schreef op woensdag 29 april 2020 @ 16:23:
[...]

Los van snelheid; zijn de schijven ook gewoon "slechter" qua betrouwbaarheid?
Daar lees ik opzich niets over, hij zou langzamer schrijven buiten de buffer. Aangezien ik toch niet in RAID ga draaien zou dat voor mij opzich niet zoveel uitmaken.
Ik hoop wel dat Synology met een optie komt om deze schijven minder snel uit een array te gooien.

Wenn ist das Nunstruck git und Slotermeyer? Ja!... Beiherhund das Oder die Flipperwaldt gersput! The Hornets of Hades have descended upon me


Acties:
  • 0 Henk 'm!

  • FrankHe
  • Registratie: November 2008
  • Laatst online: 22-09 22:18
MeNTaL_TO schreef op woensdag 29 april 2020 @ 19:35:
[...]

Daar lees ik opzich niets over, hij zou langzamer schrijven buiten de buffer. Aangezien ik toch niet in RAID ga draaien zou dat voor mij opzich niet zoveel uitmaken.
Ik hoop wel dat Synology met een optie komt om deze schijven minder snel uit een array te gooien.
Nu zullen ze denk ik bij Synology wel gaan kijken of ze er aan hun kant een mouw aan weten te passen maar echt ideaal is de hele situatie natuurlijk niet. De firmware van een NAS-schijf is er juist op ingesteld om te werken binnen een redundant array. Of te wel, de schijf communiceert snel terug naar de controller of een blok wel of niet gelezen of beschreven kan worden zodat de controller de rest van de array kan gebruiken om dit te ondervangen. Wanneer een schijf echter tijdens 'standaard gebruik' al tegen beperkingen aanloopt die voortkomen uit SRM dan is die schijf dus eigenlijk gewoon niet geschikt voor gebruik in een array. Heel jammer dat alle fabrikanten hier zo hebben zitten rommelen.

Acties:
  • 0 Henk 'm!

  • Jumpman
  • Registratie: Januari 2002
  • Laatst online: 23:05
Al een tijdje loop ik tegen een probleem wat ik niet opgelost krijg.

We hebben vijf computer thuis en eigenlijk wil ik van allemaal de C:\Users\User synchroniseren, zodat als iets crasht of kwijt raakt er een back-up op de NAS staat. Sommige laptops komen soms maanden niet op het thuisnetwerk. Ik wil dit dus via Internet laten werken. De Synology NAS zit aan een 100 Mbit up/down verbinding.

Nu wil ik nog iets en dat is een admin map die alleen door de admins (ouders) gezien kan worden en een aantal diverse mappen met administratie, foto's, schoolwerk etc. die iedereen mag inzien.

Nu ben ik al met Cloud Station in de weer geweest, maar die wil niet de C:\Users\User synchroniseren.
Het andere krijg ik ook niet voor elkaar. Familienaam met al die mappen er in en dan verschillende rechten en ook nog dat hij telkens die mappen synchroniseert. Met Cloud Station maakt hij namelijk een map en profiel per gebruiker aan, dat staat allemaal los van elkaar.

Verwacht ik te veel van een consumenten Synology DS218+ NAS?

Nintendo Network ID: Oo_Morris_oO | PSN: Oo_Morris_oO.


Acties:
  • +2 Henk 'm!

  • bertware
  • Registratie: December 2013
  • Laatst online: 00:42
Jumpman schreef op donderdag 30 april 2020 @ 14:36:
Al een tijdje loop ik tegen een probleem wat ik niet opgelost krijg.

We hebben vijf computer thuis en eigenlijk wil ik van allemaal de C:\Users\User synchroniseren, zodat als iets crasht of kwijt raakt er een back-up op de NAS staat. Sommige laptops komen soms maanden niet op het thuisnetwerk. Ik wil dit dus via Internet laten werken. De Synology NAS zit aan een 100 Mbit up/down verbinding.

Nu wil ik nog iets en dat is een admin map die alleen door de admins (ouders) gezien kan worden en een aantal diverse mappen met administratie, foto's, schoolwerk etc. die iedereen mag inzien.

Nu ben ik al met Cloud Station in de weer geweest, maar die wil niet de C:\Users\User synchroniseren.
Het andere krijg ik ook niet voor elkaar. Familienaam met al die mappen er in en dan verschillende rechten en ook nog dat hij telkens die mappen synchroniseert. Met Cloud Station maakt hij namelijk een map en profiel per gebruiker aan, dat staat allemaal los van elkaar.

Verwacht ik te veel van een consumenten Synology DS218+ NAS?
Ik zou je aanraden om naar Drive over te schakelen, de opvolger van Cloud Sync. Zowel Drive als Cloud sync doen hetzelfde als dropbox, je synct je bestanden naar je home map waar enkel jij ze kan zien en waardoor je je eigen bestanden tussen computers kan syncen zonder dat andere (standaard, niet-admin) accounts erbij kunnen. Met Drive kan je ook Team mappen aanmaken, waardoor verschillende gebruikers naar dezelfde map kunnen syncen.

Acties:
  • +1 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Jumpman schreef op donderdag 30 april 2020 @ 14:36:
Al een tijdje loop ik tegen een probleem wat ik niet opgelost krijg.

We hebben vijf computer thuis en eigenlijk wil ik van allemaal de C:\Users\User synchroniseren, zodat als iets crasht of kwijt raakt er een back-up op de NAS staat. Sommige laptops komen soms maanden niet op het thuisnetwerk. Ik wil dit dus via Internet laten werken. De Synology NAS zit aan een 100 Mbit up/down verbinding.

Nu wil ik nog iets en dat is een admin map die alleen door de admins (ouders) gezien kan worden en een aantal diverse mappen met administratie, foto's, schoolwerk etc. die iedereen mag inzien.

Nu ben ik al met Cloud Station in de weer geweest, maar die wil niet de C:\Users\User synchroniseren.
Het andere krijg ik ook niet voor elkaar. Familienaam met al die mappen er in en dan verschillende rechten en ook nog dat hij telkens die mappen synchroniseert. Met Cloud Station maakt hij namelijk een map en profiel per gebruiker aan, dat staat allemaal los van elkaar.

Verwacht ik te veel van een consumenten Synology DS218+ NAS?
Even brainstormen, maar zou je wellicht niet de standaard mappen kunnen omleiden in Windows zelf en dan vervolgens de omgeleide mappen syncen? Dan zit je niet vast aan C:\Users\ gedoe.

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • ronnym
  • Registratie: December 2004
  • Laatst online: 16:11
Aangezien ik meer en meer producten van Philips en Ikea Trådfri ga aanschaffen leek het mij het juiste moment om te kijken of ik alles kan aansturen met Domoticz.

Ik heb de package van jadahl gedownload en geïnstalleerd op mijn ds 213+.

Installatie verliep goed alleen als ik Domoticz wil starten dan krijg ik de melding dat site 192.168.2.16:8064 niet benaderbaar is.
In Synology heb ik bij de routeconfiguratie een nieuwe regel aangemaakt met de lokale en routepoort op 8064.

Echter kom ik nog steeds niet op Domoticz.

Wat mis ik of wat doe ik fout?

Acties:
  • +1 Henk 'm!

  • Wobblier
  • Registratie: Maart 2009
  • Laatst online: 19-09 22:31
ronnym schreef op vrijdag 1 mei 2020 @ 00:55:
Wat mis ik of wat doe ik fout?
Firewall?

Acties:
  • 0 Henk 'm!

  • ChiLLeR
  • Registratie: Januari 2000
  • Laatst online: 15:59
biomass schreef op woensdag 15 april 2020 @ 20:34:
[...]
Ja en nee. De 2TB schijf kun je niet meer vertrouwen. Als je die er uit trekt en met een nieuwe 6TB schijf een tweede storage pool aanmaakt in de DS416Play, kun je de inhoud van je kritieke volume (er mag geen schijf meer kapot gaan) kopieren/verhuizen naar de tweede storage pool (SHR-1).Al je packages en shares moet je dan verhuizen naar /volume2. Daarna kun je de 1TB+2x3TB schijven er uit halen en de tweede storage pool compleet maken door de tweede 6TB schijf in de NAS te doen.
Omdat beide 6TB schijven dan hardstikke nieuw zijn, heb je ook nog redelijke kans dat die overlijden. Doe dit liever met een backup achter de hand. Als je die niet hebt, zou je een van de 6TB disks eerst in een PC kunnen hangen voor een week o.i.d met daarop een kopie van je NAS data, zodat je er redelijkerwijs vanuit mag gaan dat die schijf niet meer op korte termijn zal falen.

De voor de handliggende aanpak is dat je eerst de 2TB schijf verwijdert, een rebuild laat uitvoeren, dan de 1TB schijf verwijdert, en weer een rebuild laat uitvoeren. Afhankelijk van de leeftijd en toestand van de 3TB schijven is dat wel (het beste plan zonder btrfs upgrade) een goed plan of geen goed plan (want je hebt SHR-1)..
Ik ben hier mee bezig en toch gekozen voor de ingewikkelde weg en een btrfs upgrade aan het doen. Dat is nog best wat werk :D Het moven van de shares is nog redelijk simpel, maar de packages verhuizen is toch iets meer werk. Uiteindelijk ben ik nu de diverse packages een voor een aan het verwijderen en weer opnieuw aan het installeren. Ik heb op andere fora wel een paar sh scripts gevonden maar die werken niet compleet en voordat ik meer stuk maak leek me deze handmatige weg een beter idee.
Maar ik blijf straks wel een paar packages over die ik niet kan verwijderen/installeren. Die zal ik dan toch via de ssh moeten verplaatsen denk ik, of is daar nog een andere oplossing voor?

Volgens mij ben ik nog iets belangrijks vergeten... Je kan geen kleinere disks toevoegen aan een Storage pool. Ik heb nu pool2 gestart met mijn nieuwe 6TB schijf. Ik heb nog 2x 3TB die ik later wil toevoegen aan de pool. Dat kan dus niet... Dat zou betekenen dat ik alle data naar pool2 verhuis. Dan pool1 verwijderen, nieuw op btrfs maken met 2x3TB+1TB, weer de data terug verhuizen naar pool1. Dan pool1 uitbreiden met de nieuwe 6TB disk.. Pfoe dat gaat wel een paar uurtjes data kopieren denk ik. Ik vraag me af of het gaat lukken wat ik lees diverse fora waarop men de pool1 niet verwijderd krijgt omdat diverse packages daar nog op staan. Misschien toch maar de btrfs move vergeten...

[ Voor 14% gewijzigd door ChiLLeR op 01-05-2020 11:30 ]

>> Signature?


Acties:
  • 0 Henk 'm!

  • SmiGueL
  • Registratie: September 2005
  • Laatst online: 17:04
ronnym schreef op vrijdag 1 mei 2020 @ 00:55:

Installatie verliep goed alleen als ik Domoticz wil starten dan krijg ik de melding dat site 192.168.2.16:8064 niet benaderbaar is.

In Synology heb ik bij de routeconfiguratie een nieuwe regel aangemaakt met de lokale en routepoort op 8064.
Echter kom ik nog steeds niet op Domoticz.
Probeer je Domoticz te benaderen vanuit je eigen netwerk of extern?
Want als je deze poort in je router forward klinkt het als het laatste.

En in dat geval moet je hem op je externe IP adres benaderen, en niet op 192.168.x.x.

Probeer eerste de boel lokaal werkend te krijgen, en zoals hierboven ook aangegeven gok ik dat je deze poort/package even in je Firewall moet whitelisten. :)

Delidded 4770K 4.7GHz @ H220 || Gigabyte Z87X-UD4H || 16GB @ 2400MHz || Gigabyte GTX 760 || 2x128GB Samsung 830 @ RAID-0 & WD 3 TB || Iiyama XB2483HSU-B1 || Synology DS916+ 3x6TB + 120GB SSD Cache || Synology DS213+ 6TB backup


Acties:
  • 0 Henk 'm!

  • Videopac
  • Registratie: November 2000
  • Laatst online: 23:17

Videopac

Rommelt wat aan.

Mijn DS918+ zit nog steeds op DSM 6.2.2-24922-4. Volgens mijn NAS is hij up-to-date :?
Hebben meer mensen het probleem dat de nieuwste DSM versie niet herkend wordt?

Asustor AS6704T (32GB, 4x16TB MG08), OpenWrt (3x GL.iNet Flint 2 MT6000), Lyrion Media Server, Odroid H2/N2+/C4/C2, DS918+ (4x8TB WD RED)


Acties:
  • +3 Henk 'm!

  • wvkreg
  • Registratie: Januari 2002
  • Laatst online: 20:36
Videopac schreef op vrijdag 1 mei 2020 @ 18:17:
Mijn DS918+ zit nog steeds op DSM 6.2.2-24922-4. Volgens mijn NAS is hij up-to-date :?
Hebben meer mensen het probleem dat de nieuwste DSM versie niet herkend wordt?
Ja, je moet zelf even de pat file downloaden: zie https://www.synology.com/nl-nl/support/download

Acties:
  • +1 Henk 'm!

  • Videopac
  • Registratie: November 2000
  • Laatst online: 23:17

Videopac

Rommelt wat aan.

Prima, maar het systeem wekt de suggestie dat het up-to-date is. Het zou fijn zijn als Synology dat repareert of uitzet.

Asustor AS6704T (32GB, 4x16TB MG08), OpenWrt (3x GL.iNet Flint 2 MT6000), Lyrion Media Server, Odroid H2/N2+/C4/C2, DS918+ (4x8TB WD RED)


Acties:
  • 0 Henk 'm!

  • wvkreg
  • Registratie: Januari 2002
  • Laatst online: 20:36
Ja, is wel eens eerder gebeurd. Wel 'vervelend' :)

Acties:
  • 0 Henk 'm!

  • biomass
  • Registratie: Augustus 2004
  • Laatst online: 19:20
ChiLLeR schreef op vrijdag 1 mei 2020 @ 11:20:
[...] Je kan geen kleinere disks toevoegen aan een Storage pool. Ik heb nu pool2 gestart met mijn nieuwe 6TB schijf.
Sorry dat ik je dat niet van te voren heb ingewreven. Aan de andere kant (Captain Hindsight talk), met de story over de WD EFAX serie kun je misschien beter 2 SHR-1 storage pools maken... Aangenomen dat je 2 6TB EFAX schijven en 2 3TB EFRX hebt.

Acties:
  • +1 Henk 'm!

  • GVR
  • Registratie: November 2004
  • Laatst online: 00:42

GVR

Videopac schreef op vrijdag 1 mei 2020 @ 18:53:
[...]

Prima, maar het systeem wekt de suggestie dat het up-to-date is. Het zou fijn zijn als Synology dat repareert of uitzet.
The update is expected to be available for all regions within the next few weeks, although the time of release in each region may vary slightly. If you want to update to the latest version now, please go to Download Center and manually update your DSM.

Acties:
  • +1 Henk 'm!

  • Prx
  • Registratie: September 2002
  • Laatst online: 23:36

Prx

GVR schreef op vrijdag 1 mei 2020 @ 21:55:
[...]

The update is expected to be available for all regions within the next few weeks, although the time of release in each region may vary slightly. If you want to update to the latest version now, please go to Download Center and manually update your DSM.
Dit precies. Je ziet ook in de changelog dat de fix versies altijd melding maken van "within the next few days" en de minor versies altijd "within the next few weeks". Dus handmatig updaten als je inderdaad niet wilt/kunt wachten.

Bron: https://www.synology.com/nl-nl/releaseNote/DS918+

Acties:
  • 0 Henk 'm!

  • Videopac
  • Registratie: November 2000
  • Laatst online: 23:17

Videopac

Rommelt wat aan.

Prx schreef op vrijdag 1 mei 2020 @ 22:06:
[...]


Dit precies. Je ziet ook in de changelog dat de fix versies altijd melding maken van "within the next few days" en de minor versies altijd "within the next few weeks". Dus handmatig updaten als je inderdaad niet wilt/kunt wachten.

Bron: https://www.synology.com/nl-nl/releaseNote/DS918+
Er was al 2,5 maand een nieuwere DSM versie beschikbaar. Dat is meer dan een paar weken (wat al lang is). En zet dan niet neer dat je de nieuwste versie hebt als je dat niet kunt garanderen.

Asustor AS6704T (32GB, 4x16TB MG08), OpenWrt (3x GL.iNet Flint 2 MT6000), Lyrion Media Server, Odroid H2/N2+/C4/C2, DS918+ (4x8TB WD RED)


Acties:
  • 0 Henk 'm!
Ik prpbeer een wildcard certificate aan te vragen maar krijg de melding:
Failed to connect to Let's Encrypt. Please make sure the domain name is valid.

Ik heb het volgende formaat gevolgd: (met xxxxxxxx is gelijk aan mijn Synology ID)
Domain name: xxxxxxxx.synology.me
Email: ...
Subject Alternative Name: *.xxxxxxxx.synology.me

Op de router staat poort 80 open en is geforward naar de Synology NAS.

Uit de log:
code:
1
2
3
2020-05-01T22:59:34+02:00 DS716 syno-letsencrypt: syno-letsencrypt.cpp:116 Failed to do new authorization, may retry with another type. [{"error":200,"file":"client_v2.cpp","msg":"do new auth by path: failed to do challenge."}]
2020-05-01T22:59:34+02:00 DS716 synoscgi_SYNO.Core.Certificate.LetsEncrypt_1_create[10826]: certificate.cpp:965 syno-letsencrypt failed. 102 [Failed to new certificate.]
2020-05-01T22:59:34+02:00 DS716 synoscgi_SYNO.Core.Certificate.LetsEncrypt_1_create[10826]: certificate.cpp:1393 Failed to create Let's Encrypt certificate. [102][Failed to new certificate.]

Enig idee wat is mis is?

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • biomass
  • Registratie: Augustus 2004
  • Laatst online: 19:20
Ik weet nu vrij zeker dat ik bij ben - handmatig de .pat file opgehaald en de md5 gechecked , dank!

Acties:
  • 0 Henk 'm!

  • biomass
  • Registratie: Augustus 2004
  • Laatst online: 19:20
kraades schreef op vrijdag 1 mei 2020 @ 23:14:
Ik prpbeer een wildcard certificate aan te vragen maar krijg de melding:
Failed to connect to Let's Encrypt. Please make sure the domain name is valid.

Ik heb het volgende formaat gevolgd: (met xxxxxxxx is gelijk aan mijn Synology ID)
Domain name: xxxxxxxx.synology.me
Email: ...
Subject Alternative Name: *.xxxxxxxx.synology.me

Op de router staat poort 80 open en is geforward naar de Synology NAS.

Uit de log:
code:
1
2
3
2020-05-01T22:59:34+02:00 DS716 syno-letsencrypt: syno-letsencrypt.cpp:116 Failed to do new authorization, may retry with another type. [{"error":200,"file":"client_v2.cpp","msg":"do new auth by path: failed to do challenge."}]
2020-05-01T22:59:34+02:00 DS716 synoscgi_SYNO.Core.Certificate.LetsEncrypt_1_create[10826]: certificate.cpp:965 syno-letsencrypt failed. 102 [Failed to new certificate.]
2020-05-01T22:59:34+02:00 DS716 synoscgi_SYNO.Core.Certificate.LetsEncrypt_1_create[10826]: certificate.cpp:1393 Failed to create Let's Encrypt certificate. [102][Failed to new certificate.]

Enig idee wat is mis is?
Prx in "[Synology] Vraag en antwoord - deel 3"
Ik denk dat je dit (niet) wilt lezen, je vraag kwam me bekend voor ;)
Dus wellicht is er een hickup bij de Synology DynDNS.

[ Voor 5% gewijzigd door biomass op 01-05-2020 23:23 ]


Acties:
  • 0 Henk 'm!

  • biomass
  • Registratie: Augustus 2004
  • Laatst online: 19:20
@kraades Wat is de response met de SAN op
code:
1
xyz.synology.me;*.xyz.synology.me

De certbot kan op basis van je Subject Alternative Name eigenlijk alleen xyz.synology.me op poort 80 controleren?

Acties:
  • +1 Henk 'm!
@biomass
Bedankt, maar dan krijg ik dezelfde response.
Andere niet-wildcard certificates kan ik gewoon registeren.
Ik zal het wel melden bij Synology support.

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • ChiLLeR
  • Registratie: Januari 2000
  • Laatst online: 15:59
biomass schreef op vrijdag 1 mei 2020 @ 19:02:
[...]

Sorry dat ik je dat niet van te voren heb ingewreven. Aan de andere kant (Captain Hindsight talk), met de story over de WD EFAX serie kun je misschien beter 2 SHR-1 storage pools maken... Aangenomen dat je 2 6TB EFAX schijven en 2 3TB EFRX hebt.
Klopt die schijven heb ik, maar waarom zou dat beter zijn?

Edit. Ik zie het al: https://arstechnica.com/g...into-unexpected-channels/
Not sure of dat ook echt een issue is voor mij als particulier?

[ Voor 19% gewijzigd door ChiLLeR op 02-05-2020 09:18 ]

>> Signature?


Acties:
  • 0 Henk 'm!

  • elboero
  • Registratie: December 2019
  • Laatst online: 20-01 09:25
Jumpman schreef op donderdag 30 april 2020 @ 14:36:
Al een tijdje loop ik tegen een probleem wat ik niet opgelost krijg.

We hebben vijf computer thuis en eigenlijk wil ik van allemaal de C:\Users\User synchroniseren, zodat als iets crasht of kwijt raakt er een back-up op de NAS staat. Sommige laptops komen soms maanden niet op het thuisnetwerk. Ik wil dit dus via Internet laten werken. De Synology NAS zit aan een 100 Mbit up/down verbinding.

Nu wil ik nog iets en dat is een admin map die alleen door de admins (ouders) gezien kan worden en een aantal diverse mappen met administratie, foto's, schoolwerk etc. die iedereen mag inzien.

Nu ben ik al met Cloud Station in de weer geweest, maar die wil niet de C:\Users\User synchroniseren.
Het andere krijg ik ook niet voor elkaar. Familienaam met al die mappen er in en dan verschillende rechten en ook nog dat hij telkens die mappen synchroniseert. Met Cloud Station maakt hij namelijk een map en profiel per gebruiker aan, dat staat allemaal los van elkaar.

Verwacht ik te veel van een consumenten Synology DS218+ NAS?
Wellicht kom je met een simpel kopie-scriptje al een heel eind. Dan heb je iets, als je dat scriptje bijv. zowel bij het opstarten als bij het afsluiten van elke computer laat draaien. Dan heb je in ieder geval van al die momentopnamen een kopie van je profielmap.

Education is important but big biceps are importanter


Acties:
  • 0 Henk 'm!

  • KnoxNL
  • Registratie: Juli 2009
  • Laatst online: 19:52
Goed ik heb inmiddels de 120J bij mijn ouders staan en draaien, als vervanging voor de 209+ die echt op was. Draait als een zonnetje in de basis.

Ik heb echter 1 probleem met mijn 216+ (primaire NAS). Namelijk bij het minste of geringste wat ik van hem vraag om te doen is hij zo ontzettend traag!
De interface is nog amper responsive. Op dit moment is hij met de initiele backup bezig, maar dat gaat heel gezapig, er is amper IO.

Hij heeft 156 GB gedaan in ongeveer 18 uur.

Wat mij opvalt is dat ondanks die beperkte set aan data, het disk en volume usage constant tegen de 100% aan zitten (alhoewel volume usage nu kalm is).

Zie foto:

Afbeeldingslocatie: https://van-eembergen.com/synobron.jpg

Ook alle andere services zijn supertraag, simpelweg een share benaderen duurt +/- een minuut.

Het kan toch niet zijn dat de belasting uit mijn screenshot (er loopt nu dus alleen actief de backup job) er voor zorgt dat mijn nas zo traag is? Er zitten gewoon 2 WD RED in die een mirror doen met SHR.

Hier nog een filmpje met wat ik bedoel:

LINK

Je ziet mij gewoon hyper backup openen en vervolgens in de resource manager naar de task manager gaan ipv de overview.

Uiteindelijk failed hij daar gewoon op, hij komt er niet eens doorheen!

Hopelijk heeft iemand een oplossing/idee hoe dit komt, want ik word er aardig moedeloos van dat mijn NAS bij zo'n geringe belasting op alle protocollen (web/smb/etc) unresponsive wordt...

Acties:
  • +1 Henk 'm!

  • JdM
  • Registratie: Februari 2002
  • Laatst online: 19:17

JdM

Humbled

@KnoxNL ik kan alleen maar zeggen dat het bij dit soort backup-taak herkenbaar is (met een 216Play en een 718+). De eerste backup vraagt blijkbaar toch veel van het systeem, technische uitleg moet ik je schuldig blijven.
Begrijp ik het goed dat je nu over internet aan het backuppen bent naar de 120J? Dan ligt de vertraging mogelijk ook deels daarin. Is het niet verstandiger om dan de intiële backup gewoon thuis op het LAN te doen en dan pas de 120J naar je ouders te verhuizen?

Acties:
  • 0 Henk 'm!

  • KnoxNL
  • Registratie: Juli 2009
  • Laatst online: 19:52
JdM schreef op zaterdag 2 mei 2020 @ 10:07:
@KnoxNL ik kan alleen maar zeggen dat het bij dit soort backup-taak herkenbaar is (met een 216Play en een 718+). De eerste backup vraagt blijkbaar toch veel van het systeem, technische uitleg moet ik je schuldig blijven.
Begrijp ik het goed dat je nu over internet aan het backuppen bent naar de 120J? Dan ligt de vertraging mogelijk ook deels daarin. Is het niet verstandiger om dan de intiële backup gewoon thuis op het LAN te doen en dan pas de 120J naar je ouders te verhuizen?
Ik maak inderdaad de backups over internet. Dit deed ik al jaren zo. Is ook geen probleem omdat alles hier verglaast is, en ik over 750 Mbit up en down beschik en mijn ouders 100 Mbit up en down.

Dat de initiele kopie lang duurt vind ik ook geen probleem, is begrijpelijk.

Waar het mij om gaat is dat er amper IO is over het netwerk (zie screenshot en filmpje) maar dat de NAS toch zeer unresponsive is. Dat rijmt toch niet met elkaar? Let wel, er loopt nog geen halve MB data over de network interface.

Ik verdenk sowieso disk IO. Ook bij parren/extracten in download station gaat e.e.a. bijzonder traag.

Raar is dat absolute throughput gewoon in orde is. Als de NAS rustig is en ik doe via mijn (bekabelde) desktop gewoon file transfers, tikken de write/read speeds keurig de 1 Gbit aan. T is echt een vaag probleem....

Mocht niemand een echt goede tip hebben overweeg ik als de backup klaar is de SHR raid 1 te ontmantelen en tijdelijk gewoon op 1 schijf te gaan draaien, kijken of dat verschil maakt.

Maar dat is wel rigoreus.

Overigens zijn beide schijven volgens quick EN extended smart tests gewoon in orde....

Acties:
  • 0 Henk 'm!

  • FrankHe
  • Registratie: November 2008
  • Laatst online: 22-09 22:18
Is dit een bekend probleem? Bij mij gaat die niet automatisch verder dan versie DSM 6.2.2-24922 Update 4. Het zou fijn zijn als ze vanuit Synology hierover actief een bericht de wereld in duwen. Ik vind er ook niets over terug op de support pagina's van Synology.

Acties:
  • 0 Henk 'm!

  • Theone098
  • Registratie: Februari 2015
  • Laatst online: 22-09 09:31
KnoxNL schreef op zaterdag 2 mei 2020 @ 10:16:
[...]


Ik maak inderdaad de backups over internet. Dit deed ik al jaren zo. Is ook geen probleem omdat alles hier verglaast is, en ik over 750 Mbit up en down beschik en mijn ouders 100 Mbit up en down.

Dat de initiele kopie lang duurt vind ik ook geen probleem, is begrijpelijk.

Waar het mij om gaat is dat er amper IO is over het netwerk (zie screenshot en filmpje) maar dat de NAS toch zeer unresponsive is. Dat rijmt toch niet met elkaar? Let wel, er loopt nog geen halve MB data over de network interface.

Ik verdenk sowieso disk IO. Ook bij parren/extracten in download station gaat e.e.a. bijzonder traag.

Raar is dat absolute throughput gewoon in orde is. Als de NAS rustig is en ik doe via mijn (bekabelde) desktop gewoon file transfers, tikken de write/read speeds keurig de 1 Gbit aan. T is echt een vaag probleem....

Mocht niemand een echt goede tip hebben overweeg ik als de backup klaar is de SHR raid 1 te ontmantelen en tijdelijk gewoon op 1 schijf te gaan draaien, kijken of dat verschil maakt.

Maar dat is wel rigoreus.

Overigens zijn beide schijven volgens quick EN extended smart tests gewoon in orde....
Kort antwoord: ziet er redelijk normaal uit, ik heb dezelfde ervaring.

Lang antwoord:
Ik heb een DS1815+ met 16Gb en met 4 disks in RAID5 die een back-up over het LAN naar een andere DS maakt.Ik ervaar hetzelfde.
Het gaat om de disk-IO, niet zozeer netwerk-IO, waardoor het traag wordt. Het programma (deel van het programma) wordt van disk geladen en deze hebben het al extreem druk. Niets om je zorgen over te maken.

Ik verwacht niet dat het opbreken van de RAID1 het sneller gaat maken, tenzij je twee verschillende disks hebt, waarbij je nu alleen van de snellere disk gebruik gaat maken.

Rarren en parren is vooral CPU intensief. Ik doe dat meestal via mijn PC, waarbij ik het NAS als netwerkschijf gebruik. Dat gaat prima.

[ Voor 3% gewijzigd door Theone098 op 02-05-2020 11:12 ]


Acties:
  • +1 Henk 'm!

  • biomass
  • Registratie: Augustus 2004
  • Laatst online: 19:20
@ChiLLeR https://www.synology.com/...t_recommend_mode=true&p=1

Als je SMR en PMR mixed in een storage pool, dan zou het verschillende schrijfgedrag bij een rebuild voor problemen kunnen zorgen. De grap is natuurlijk dat je dat niet echt kan testen voor je het koopt, straks overkomt het je gewoon...

Acties:
  • 0 Henk 'm!

  • ronnym
  • Registratie: December 2004
  • Laatst online: 16:11
SmiGueL schreef op vrijdag 1 mei 2020 @ 11:46:
[...]


Probeer je Domoticz te benaderen vanuit je eigen netwerk of extern?
Want als je deze poort in je router forward klinkt het als het laatste.

En in dat geval moet je hem op je externe IP adres benaderen, en niet op 192.168.x.x.

Probeer eerste de boel lokaal werkend te krijgen, en zoals hierboven ook aangegeven gok ik dat je deze poort/package even in je Firewall moet whitelisten. :)
Ik heb het anders opgelost.

Had nog een andere nieuwe synology liggen die ik nog moest aansluiten. Deze heb ik aangesloten en domoticz op geïnstalleerd.

Daar draaide het wel in een keer op.

Als data op de oude verplaats ik naar de nieuwe. De oude synology stel ik opnieuw in en geef het aan mijn schoonouders

Acties:
  • +1 Henk 'm!

  • Gizz
  • Registratie: Maart 2001
  • Laatst online: 21:51

Gizz

Dunder-Mifflin, Inc.

KnoxNL schreef op zaterdag 2 mei 2020 @ 09:47:
Het kan toch niet zijn dat de belasting uit mijn screenshot (er loopt nu dus alleen actief de backup job) er voor zorgt dat mijn nas zo traag is? Er zitten gewoon 2 WD RED in die een mirror doen met SHR.
Zoals @biomass al aangeeft is gewoon WD red's in je NAS zetten tegenwoordig niet meer heel gewoon: nieuws: WD verduidelijkt gebruik smr bij hdd's en belooft dit voortaan te melden

Als je smr-schijven hebt en veel random writes doet (iets wat ik me kan voorstellen bij het maken van een backup van veel kleine losse files, maar ik ben geen expert), dan kan de schijf het niet meer bijbenen en intern vastlopen. Ik denk niet dat je dat in de resource monitor van Synology kan terugzien, omdat het opsparen van data om daarna met smr weg te schrijven iets is dat door de schijf zelf geregeld wordt.

Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX


Acties:
  • 0 Henk 'm!

  • Greatsword
  • Registratie: Februari 2010
  • Niet online

Greatsword

"...Terra Incognita..."

Hoe zijn jullie ervaringen met HEVC / x265 i.c.m. Plex?

Heb de 718+ en door het gebruik van ondertiteling zal hij veel moeten transcoden.

Veel series die ik heb zijn nu zo’n 45GB per seizoen, dus dan tikt het aardig aan.

HEVC / x265 is dus een goede oplossing om de benodigde opslagruimte te beperken, maar vraagt natuurlijk wel meer van de CPU.

[ Voor 7% gewijzigd door Greatsword op 02-05-2020 14:07 ]

“…There is nothing either good or bad, but thinking makes it so…”


Acties:
  • 0 Henk 'm!

  • ChiLLeR
  • Registratie: Januari 2000
  • Laatst online: 15:59
biomass schreef op zaterdag 2 mei 2020 @ 11:24:
@ChiLLeR https://www.synology.com/...t_recommend_mode=true&p=1

Als je SMR en PMR mixed in een storage pool, dan zou het verschillende schrijfgedrag bij een rebuild voor problemen kunnen zorgen. De grap is natuurlijk dat je dat niet echt kan testen voor je het koopt, straks overkomt het je gewoon...
Hmm balen, stom dat ik niet deze lijst heb gechecked! Dank voor de link. Ik ging er vanuit dat de Red drives allemaal goed zouden zijn, ook omdat ik er al 2 heb. Zou eerst voor de IronWolfs gaan maar vanwege geluid toch voor de WD Red gekozen, beter dus niet kunnen doen. Ik ga ze terug sturen, een zit nog in de folie de ander is wel al open, hopelijk kan dat nog retour worden gestuurd. Ik ga ze vervangen door de IronWolf 6TB VN001. Goede les voor de volgende keer om dit eerst te checken... Wil niet over 2 jaar erachter komen dat er 2 schijven tegelijkertijd crashen.

Ik kan nu de oude 2TB schijf niet meer terug plaatsen omdat de pool al gerepareerd is en vergroot is. Dus even wachten wat mijn retour aanvraag doet, en dan op goed geluk even draaien op een pool met een schijf minder. Of eerst de nieuwe bestellen en dan geld retour van de ander krijgen, dat is een beter idee denk ik.

[ Voor 21% gewijzigd door ChiLLeR op 02-05-2020 13:28 ]

>> Signature?


Acties:
  • +2 Henk 'm!

  • FrankHe
  • Registratie: November 2008
  • Laatst online: 22-09 22:18
Gizz schreef op zaterdag 2 mei 2020 @ 11:49:
[...]

Zoals @biomass al aangeeft is gewoon WD red's in je NAS zetten tegenwoordig niet meer heel gewoon: nieuws: WD verduidelijkt gebruik smr bij hdd's en belooft dit voortaan te melden

Als je smr-schijven hebt en veel random writes doet (iets wat ik me kan voorstellen bij het maken van een backup van veel kleine losse files, maar ik ben geen expert), dan kan de schijf het niet meer bijbenen en intern vastlopen. Ik denk niet dat je dat in de resource monitor van Synology kan terugzien, omdat het opsparen van data om daarna met smr weg te schrijven iets is dat door de schijf zelf geregeld wordt.
Het gaat niet zozeer om vastlopen. Het probleem is dat een SMR-schijf op momenten lang met zichzelf bezig kan zijn. Als de schijf zich niet tijdig terugmeldt bij de RAID-controller dan zal de controller de conclusie trekt dat de schijf niet heeft gereageerd en dus niet meer te redden is. De schijf wordt door de controller uit de RAID-set gegooid waardoor de RAID opnieuw hersteld moet worden. Bij het herstellen is er een grote kans dat hetzelfde probleem zich nogmaals voordoet met een andere schijf in de set waardoor de set compleet zal crashen. De schijven zijn nog prima en bevatten alle data, ze zijn alleen te langzaam in hun communicatie terug naar de controller om ingezet te worden in een RAID-opstelling.

Acties:
  • 0 Henk 'm!

  • Gizz
  • Registratie: Maart 2001
  • Laatst online: 21:51

Gizz

Dunder-Mifflin, Inc.

FrankHe schreef op zaterdag 2 mei 2020 @ 13:22:
[...]

Het gaat niet zozeer om vastlopen. Het probleem is dat een SMR-schijf op momenten lang met zichzelf bezig kan zijn.
We bedoelen hetzelfde maar omschrijven het anders :)

Dat de SMR-schijf lang met zichzelf bezig is leidt ertoe dat andere processen vertragen / vastlopen. Ik bedoelde niet dat de schijf stuk gaat en er sprake is van dataverlies.

Overigens is het 'kwijtraken' van schijven één van de problemen bij smr-schijven in een RAID / SHR-opstelling. Dat de boel blijft werken maar je uitermate bedroevende performance haalt, waar in het geval van @ChiLLeR @KnoxNL sprake van lijkt te zijn, is ook een probleem veroorzaakt door de smr-techniek.

Canon EOS 5Dm3 + 5D + 7D + 300D + 1000FN + EF 17-40 4L + EF 35 1.4L + EF 50 1.8 + EF 80-200 2.8L + 550EX


Acties:
  • +1 Henk 'm!

  • ChiLLeR
  • Registratie: Januari 2000
  • Laatst online: 15:59
Gizz schreef op zaterdag 2 mei 2020 @ 13:30:
[...]

We bedoelen hetzelfde maar omschrijven het anders :)

Dat de SMR-schijf lang met zichzelf bezig is leidt ertoe dat andere processen vertragen / vastlopen. Ik bedoelde niet dat de schijf stuk gaat en er sprake is van dataverlies.

Overigens is het 'kwijtraken' van schijven één van de problemen bij smr-schijven in een RAID / SHR-opstelling. Dat de boel blijft werken maar je uitermate bedroevende performance haalt, waar in het geval van @ChiLLeR sprake van lijkt te zijn, is ook een probleem veroorzaakt door de smr-techniek.
Nee je bedoeld @KnoxNL die performance issues heeft. Ik heb een compatibiliteit issue met de DS416play, die officieel de meeste schijven van de EFAX serie niet ondersteund word door Synology.

>> Signature?


Acties:
  • 0 Henk 'm!

  • Freekers
  • Registratie: April 2009
  • Niet online

Freekers

⭐⭐⭐⭐⭐

FrankHe schreef op zaterdag 2 mei 2020 @ 10:53:
Is dit een bekend probleem? Bij mij gaat die niet automatisch verder dan versie DSM 6.2.2-24922 Update 4. Het zou fijn zijn als ze vanuit Synology hierover actief een bericht de wereld in duwen. Ik vind er ook niets over terug op de support pagina's van Synology.
Staat letterlijk in de changelog van elke update:

The update is expected to be available for all regions within the next few weeks, although the time of release in each region may vary slightly. If you want to update to the latest version now, please go to Download Center and manually update your DSM.

🔋 MG Marvel R Luxury 70kWh | ☀️ 2225Wp oost, 1580Wp zuid, 2225Wp west | 🌡️ Daikin 3,5kW + 3x 2,5kW l/l & Ariston Nuos Split 270L l/w warmtepomp


Acties:
  • 0 Henk 'm!

  • FrankHe
  • Registratie: November 2008
  • Laatst online: 22-09 22:18
Freekers schreef op zaterdag 2 mei 2020 @ 13:46:
[...]


Staat letterlijk in de changelog van elke update:

The update is expected to be available for all regions within the next few weeks, although the time of release in each region may vary slightly. If you want to update to the latest version now, please go to Download Center and manually update your DSM.
Sinds 5 november 2019 zijn we ondertussen zo'n 25 weken verder. Dat is waar ik een probleem mee heb.

Acties:
  • 0 Henk 'm!

  • Freekers
  • Registratie: April 2009
  • Niet online

Freekers

⭐⭐⭐⭐⭐

FrankHe schreef op zaterdag 2 mei 2020 @ 13:51:
[...]

Sinds 5 november 2019 zijn we ondertussen zo'n 25 weken verder. Dat is waar ik een probleem mee heb.
Ik snap wat je bedoelt. Die van mij heeft eergisteren ook pas de update naar Update 6 gekregen. Maar aangezien er geen security fixes in zitten, heb ik er niet zoveel problemen mee dat deze zo laat is doorgekomen. Normaliter gaat het wat sneller. Misschien zijn ze nu voorzichtiger gezien de thuiswerk omstandigheden.

🔋 MG Marvel R Luxury 70kWh | ☀️ 2225Wp oost, 1580Wp zuid, 2225Wp west | 🌡️ Daikin 3,5kW + 3x 2,5kW l/l & Ariston Nuos Split 270L l/w warmtepomp


Acties:
  • 0 Henk 'm!

  • KnoxNL
  • Registratie: Juli 2009
  • Laatst online: 19:52
Theone098 schreef op zaterdag 2 mei 2020 @ 11:11:
[...]

Kort antwoord: ziet er redelijk normaal uit, ik heb dezelfde ervaring.

Lang antwoord:
Ik heb een DS1815+ met 16Gb en met 4 disks in RAID5 die een back-up over de LAN poort naar een andere DS maakt.Ik ervaar hetzelfde.
Het gaat om de disk-IO, niet zozeer netwerk-IO, waardoor het traag wordt. Het programma (deel van het programma) wordt van disk geladen en deze hebben het al extreem druk. Niets om je zorgen over te maken.

Ik verwacht niet dat het opbreken van de RAID1 het sneller gaat maken, tenzij je twee verschillende disks hebt, waarbij je nu alleen van de snellere disk gebruik gaat maken.

Rarren en parren is vooral CPU intensief. Ik doe dat meestal via mijn PC, waarbij ik het NAS als netwerkschijf gebruik. Dat gaat prima.
Tja,

ik snap wat je zegt, maar als de backup job als enige loopt, en er weinig over de LAN poort loopt, waar kan de disk dan al 24 uur druk mee zijn? Does not compute. Echt, iets klopt er niet.

Encryptie e.d. laat ik op de client doen, dus de 120J.

De 216+ zou vooral reads moeten genereren, maar als mijn backup zo langzaam loopt zou dat nooit een dergelijke performance degradatie mogen hebben.

En jij maakt backup over lan, ik over wan. Jouw theoretische backup snelheid is dus veel hoger. De mijne is max 100 mbit (beperking internet verbinding discloactie. Als ik nou heel een Gbit lijn had en die dichttrok, dan snap ik dat de schijven veel IO te verwerken hebben, maar niet bij max 100 mbit waarvan ik nu in de praktijk 10 haal omdat die disken klem lopen....
@Gizz Ik heb, als ik alles goed uitgeziocht heb, ook na tips hier uit het forum, geen smr schijven.

Maar dan nog is het raar dat het bron systeem daar last van zou hebben want die moet lezen voor een backup, geen random writes doen.

Ter illusrtatie een screenshot va nde 120j, die dus het schrijfwerk moet doen EN client side encryption staat aan. Dat ding staat gewoon uit zijn neus te peuteren.

Afbeeldingslocatie: https://van-eembergen.com/syno120.jpg

[ Voor 15% gewijzigd door KnoxNL op 02-05-2020 14:41 ]


Acties:
  • 0 Henk 'm!

  • smeerbartje
  • Registratie: September 2006
  • Laatst online: 22-09 15:48
Open eens een ssh sessie en display de output van top.
Is hij veel aan het swappen? Andere processen op maximaal?
KnoxNL schreef op zaterdag 2 mei 2020 @ 10:16:
[...]


Ik maak inderdaad de backups over internet. Dit deed ik al jaren zo. Is ook geen probleem omdat alles hier verglaast is, en ik over 750 Mbit up en down beschik en mijn ouders 100 Mbit up en down.

Dat de initiele kopie lang duurt vind ik ook geen probleem, is begrijpelijk.

Waar het mij om gaat is dat er amper IO is over het netwerk (zie screenshot en filmpje) maar dat de NAS toch zeer unresponsive is. Dat rijmt toch niet met elkaar? Let wel, er loopt nog geen halve MB data over de network interface.

Ik verdenk sowieso disk IO. Ook bij parren/extracten in download station gaat e.e.a. bijzonder traag.

Raar is dat absolute throughput gewoon in orde is. Als de NAS rustig is en ik doe via mijn (bekabelde) desktop gewoon file transfers, tikken de write/read speeds keurig de 1 Gbit aan. T is echt een vaag probleem....

Mocht niemand een echt goede tip hebben overweeg ik als de backup klaar is de SHR raid 1 te ontmantelen en tijdelijk gewoon op 1 schijf te gaan draaien, kijken of dat verschil maakt.

Maar dat is wel rigoreus.

Overigens zijn beide schijven volgens quick EN extended smart tests gewoon in orde....

Acties:
  • 0 Henk 'm!

  • KnoxNL
  • Registratie: Juli 2009
  • Laatst online: 19:52
smeerbartje schreef op zaterdag 2 mei 2020 @ 14:43:
Open eens een ssh sessie en display de output van top.
Is hij veel aan het swappen? Andere processen op maximaal?


[...]
Ik zie niet per se iets geks.

Ter info:

Het inloggen over ssh en uitvoeren van top heeft minuten geduurd. Zo unresponsive is hij....

Afbeeldingslocatie: https://van-eembergen.com/synotop.jpg

EDIT: Ik ga eens alle packages die niet essentieel zijn uitschakelen.

[ Voor 7% gewijzigd door KnoxNL op 02-05-2020 14:58 ]


Acties:
  • 0 Henk 'm!

  • KnoxNL
  • Registratie: Juli 2009
  • Laatst online: 19:52
Back suspended,

daarna niet nodige packages gestopt/verwijderd.
Ruim 600 GB data verwijderd, nu defrag aan het doen. Hopelijk daarna beter als ik de backup resume:

Afbeeldingslocatie: https://van-eembergen.com/synodefrag.jpg

Acties:
  • 0 Henk 'm!

  • Chrisje1983
  • Registratie: Februari 2012
  • Laatst online: 22:48
KnoxNL schreef op zaterdag 2 mei 2020 @ 14:34:
[...]

Tja,

ik snap wat je zegt, maar als de backup job als enige loopt, en er weinig over de LAN poort loopt, waar kan de disk dan al 24 uur druk mee zijn? Does not compute. Echt, iets klopt er niet.

[Afbeelding]
Mocht dit nou niet wat worden, is het misschien een idee om rsync te gebruiken van je ds216+ naar de j220 bij je ouders? De j220 laat je dan zelf de backup uitvoeren. Dit kost je wel dubbel schijfruimte natuurlijk, ik doe het eigenlijk al jaren op deze manier.

Bij mij was de reden om rsync te gebruiken dan ook dat als de hoofd nas uit de lucht is, ik alleen maar het ip adres hoef te veranderen op de tweede nas en in elk geval mijn opslag weer in de lucht is.
Daarnaast heb ik mijn hoofd nas op deze manier ontlast van het backup proces.

Acties:
  • 0 Henk 'm!

  • KnoxNL
  • Registratie: Juli 2009
  • Laatst online: 19:52
Chrisje1983 schreef op zaterdag 2 mei 2020 @ 16:32:
[...]


Mocht dit nou niet wat worden, is het misschien een idee om rsync te gebruiken van je ds216+ naar de j220 bij je ouders? De j220 laat je dan zelf de backup uitvoeren. Dit kost je wel dubbel schijfruimte natuurlijk, ik doe het eigenlijk al jaren op deze manier.

Bij mij was de reden om rsync te gebruiken dan ook dat als de hoofd nas uit de lucht is, ik alleen maar het ip adres hoef te veranderen op de tweede nas en in elk geval mijn opslag weer in de lucht is.
Daarnaast heb ik mijn hoofd nas op deze manier ontlast van het backup proces.
Ik zou terug kunnen naar rsync inderdaad. Zo was het altijd, omdat de 209+ geen dsm 6 ondersteunde en dus geen hyper backup vault.

1 van de "voordelen" van een nieuwe nas vond ik nou net dat ik eindelijk gewoon hyper backup vault kon gebruiken. Maar inderdaad, eventueel kan ik overwegen om terug te gaan.

Acties:
  • 0 Henk 'm!

  • Theone098
  • Registratie: Februari 2015
  • Laatst online: 22-09 09:31
KnoxNL schreef op zaterdag 2 mei 2020 @ 14:34:
[...]

Tja,

ik snap wat je zegt, maar als de backup job als enige loopt, en er weinig over de LAN poort loopt, waar kan de disk dan al 24 uur druk mee zijn? Does not compute. Echt, iets klopt er niet.
Dan klopt het bij mij ook niet. Mijn ervaring: het duurt lang voordat uberhaupt de back-up start. Vervolgens is er een stoot data over het LAN. Daarna veel disk/IO maar geen verkeer op het LAN. Dit herhaalt zich een paar keer.
KnoxNL schreef op zaterdag 2 mei 2020 @ 14:34:
[...]
Encryptie e.d. laat ik op de client doen, dus de 120J.
Dat doet bij mij ook de client.
KnoxNL schreef op zaterdag 2 mei 2020 @ 14:34:
[...]

De 216+ zou vooral reads moeten genereren, maar als mijn backup zo langzaam loopt zou dat nooit een dergelijke performance degradatie mogen hebben.

En jij maakt backup over lan, ik over wan. Jouw theoretische backup snelheid is dus veel hoger. De mijne is max 100 mbit (beperking internet verbinding discloactie. Als ik nou heel een Gbit lijn had en die dichttrok, dan snap ik dat de schijven veel IO te verwerken hebben, maar niet bij max 100 mbit waarvan ik nu in de praktijk 10 haal omdat die disken klem lopen....
Dat is consistent met mijn bevindingen. Het is disk/IO zonder dat er data over het LAN gaat.
KnoxNL schreef op zaterdag 2 mei 2020 @ 14:34:
[...]

@Gizz Ik heb, als ik alles goed uitgeziocht heb, ook na tips hier uit het forum, geen smr schijven.

Maar dan nog is het raar dat het bron systeem daar last van zou hebben want die moet lezen voor een backup, geen random writes doen.

Ter illusrtatie een screenshot va nde 120j, die dus het schrijfwerk moet doen EN client side encryption staat aan. Dat ding staat gewoon uit zijn neus te peuteren.

[Afbeelding]
Yep, dat zie ik ook. Sorry, ik zie alleen maar consistentie.
Back-up is vooral schijf intensief en dat leidt tot traagheid.


Ter referentie: mijn initiële back-up van ongeveer 5TB duurt ergens tussen 15 uur en 24 uur, over LAN.

Bron NAS: 4x WD green RAID5, btrfs
Target NAS: 2x 3TB WD green, beide als apart volume, ext4.
Netwerk: 10Gbps back-bone, 2x1Gb poorten op beide Synology's.
Back-up: rsync

Acties:
  • 0 Henk 'm!

  • Theone098
  • Registratie: Februari 2015
  • Laatst online: 22-09 09:31
KnoxNL schreef op zaterdag 2 mei 2020 @ 14:55:
[...]

Ik zie niet per se iets geks.

Ter info:

Het inloggen over ssh en uitvoeren van top heeft minuten geduurd. Zo unresponsive is hij....
Hmm, dat is wel heel erg.

Probeer eens Cloudsync uit te zetten. Die vreet bij mij resources als iets moet worden encrypt en naar de cloud moet worden gezet. Ik heb deze pas weer aangezet nadat de back-up klaar was.

Acties:
  • 0 Henk 'm!

  • KnoxNL
  • Registratie: Juli 2009
  • Laatst online: 19:52
Theone098 schreef op zaterdag 2 mei 2020 @ 16:46:
[...]


Dan klopt het bij mij ook niet. Mijn ervaring: het duurt lang voordat uberhaupt de back-up start. Vervolgens is er een stoot data over het LAN. Daarna veel disk/IO maar geen verkeer op het LAN. Dit herhaalt zich een paar keer.


[...]


Dat doet bij mij ook de client.


[...]


Dat is consistent met mijn bevindingen. Het is disk/IO zonder dat er data over het LAN gaat.


[...]

Yep, dat zie ik ook. Sorry, ik zie alleen maar consitentie.
Back-up is vooral schijf intensief en dat leidt tot traagheid.


Ter referentie: mijn initiële back-up van ongeveer 5TB duurt ergens tussen 15 uur en 24 uur, over LAN.

Bron NAS: 4x WD green RAID5, btrfs
Target NAS: 2x 3TB WD green, beide als apart volume, ext4.
Netwerk: 10Gbps back-bone, 2x1Gb poorten op beide Synology's.
Back-up: rsync
Ok,

dat is duidelijk dan. Veel overeenkomsten en hoewel het nog maar 2 ervaringen zijn doen we dan maar even de aanname dat het default behaviour is. Kan ik nog mee leven, ik heb geen haast met de backup en na de initiele backup heb ik maar kleine delta's die midden in de nacht lopen, dus geen last van.

Dan de hamvraag: Is jouw bronsysteem dan ook zo unresponsive als het mijne tijdens een backup job?

Want dat is wat mij stoort. Inloggen duurt minuten, packages geven foutmeldingen door time outs op storage io, minuten inlogtijd via SSH (dat is echt 0 belasting) etc etc etc?

Acties:
  • 0 Henk 'm!

  • KnoxNL
  • Registratie: Juli 2009
  • Laatst online: 19:52
Cloudsync heeft niets te doen, want die is al heel lang in sync :)

Acties:
  • 0 Henk 'm!

  • KnoxNL
  • Registratie: Juli 2009
  • Laatst online: 19:52
Ik vraag mij af of ik er goed aan heb gedaan om shr icm brtfs te kiezen.

Voorheen deed ik gewoon raid1 met ext4.

Acties:
  • 0 Henk 'm!

  • Chrisje1983
  • Registratie: Februari 2012
  • Laatst online: 22:48
KnoxNL schreef op zaterdag 2 mei 2020 @ 16:35:
[...]

Ik zou terug kunnen naar rsync inderdaad. Zo was het altijd, omdat de 209+ geen dsm 6 ondersteunde en dus geen hyper backup vault.

1 van de "voordelen" van een nieuwe nas vond ik nou net dat ik eindelijk gewoon hyper backup vault kon gebruiken. Maar inderdaad, eventueel kan ik overwegen om terug te gaan.
Oke ik had even niet begrepen dat je hiervoor al rsync gebruikte.

Ik gebruik ook hyper backup op de 1ste nas voor de app instellingen en op de 2de nas voor de echte backup maar vind hyper backup een hork van een programma, ook nog nooit geprobeerd om een back-up terug te zetten maar ga er vanuit dat het werkt.
Pagina: 1 ... 65 ... 186 Laatste

Let op:
Dit topic is onderdeel van de drie topics over Synology:In dit Vraag en Antwoord topic mogen alle vragen over Synology-producten tenzij:
  • ... het een vraag betreft over een addon package voor Synology; daar is een apart topic voor.
  • ... het een aankondiging of discussie-item betreft wat in het Nieuws en discussie topic hoort.
  • ... jouw vraag al beantwoord is in de Veelgestelde vragen (FAQ).