Wel wat betreft access naar Synology. Maar er is geen 2FA naar de rest van je LAN als je ervoor kiest dit ook beschikbaar te stellen.Ben(V) schreef op zaterdag 1 februari 2020 @ 15:03:
Omdat het er al inzit, alleen niet gecombineerd in een Applicatie, wat niets zou toevoegen.
OpenVPN is beschikbaar en als gratis package en 2fa zit gewoon in het controle panel bij de user settings.
Met het indrukken van de reset doe je een soft-reset waarmee het netwerk/firewall deel een resetje krijgt. De firewall wordt uitgezet maar je rules blijven wel in tact. Ik heb mij zelf wel eens buiten gesloten met een firewall rule dus wellicht is jou hetzelfde overkomen? In ieder geval moet je de firewall wel weer aanzetten na deze resetSp33dFr34k schreef op vrijdag 31 januari 2020 @ 19:31:
Hij is deaud?!
EDIT: Na 4 seconden reset ingedrukt te houden een piep, paar seconden later kan ik er weer in. Wtf is hier aan de hand?
Dat klinkt als een plausibele verklaring, thanks! Ik had namelijk inderdaad aan de firewall lopen rommelen om Synology toegang te geven.mickjuh schreef op maandag 3 februari 2020 @ 09:27:
[...]
Met het indrukken van de reset doe je een soft-reset waarmee het netwerk/firewall deel een resetje krijgt. De firewall wordt uitgezet maar je rules blijven wel in tact. Ik heb mij zelf wel eens buiten gesloten met een firewall rule dus wellicht is jou hetzelfde overkomen? In ieder geval moet je de firewall wel weer aanzetten na deze reset
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Uit tutorials voor het bouwen van containers met docker had ik begrepen dat ook als je via SSH een container zou starten deze in de GUI van DSM naar voren zou komen. Nu heb ik dat gedaan maar ik zie hem niet terug komen. Alleen een oude staat er nog die ik voorheen had maar die draait niet. Terwijl wel degelijk een container actief is op de achtergrond.
Doe ik iets fout of kloppen die tutorials gewoon niet?
Doe ik iets fout of kloppen die tutorials gewoon niet?
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Ofwel, ik heb iets niet goed gedaan. Weer even terug naar de tekentafel.kraades schreef op dinsdag 4 februari 2020 @ 21:08:
@Gonadan
Als ik als root een docker create doe via SSH dan zie ik deze inderdaad ook direct in de GUI.
Edit: zal wel iets met dubbele naamgeving zijn geweest. Na wat opruimwerk en opnieuw aanmaken werkt het ineens wel.
[ Voor 16% gewijzigd door Gonadan op 04-02-2020 22:10 ]
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Met Docker probeer ik Overleaf draaiend te krijgen op een DS918+ met extra geheugen. Daarbij loop ik vast bij het aanmaken van de admin, zoals beschreven in deze handleiding. Omdat Synology voor zover ik weet niet direct overweg kan met de docker-compose.yml-file, heb ik drie docker-containers aangemaakt.
Overleaf met de volgende instellingen:
ports:
- 40080:80
links:
- mongo
- redis
volumes:
- /docker/sh/data:/var/lib/sharelatex
- /docker/sh/config:/var/run
environment:
- SHARELATEX_APP_NAME: Overleaf Community Edition
- SHARELATEX_MONGO_URL: mongodb://mongo/sharelatex
- SHARELATEX_REDIS_HOST: redis
- REDIS_HOST: redis
Redis met de volgende instellingen:
ports:
- 6379:6369
volumes:
- /docker/redis/data:/data
Mongo met de volgende instellingen:
ports:
- 27017:27017
volumes:
- /docker/mongo/data:/data/db
environment:
MONGO_INITDB_ROOT_USERNAME: <username>
MONGO_INITDB_ROOT_PASSWORD: <password>
Hierbij de kanttekening dat de verschillende containers een aantal standaard environment variabelen aanmaken. Die heb ik hierboven niet genoemd. De drie containers nemen default de laatste versie.
Installeren lijkt te lukken. Wanneer ik naar <ip>:40080/launchpad ga, dan krijg ik de foutmelding "Something went wrong, sorry.". Wanneer ik naar <ip>:40080/login ga, krijg ik een inlogscherm.
Heeft iemand hier ervaring mee of ziet waar ik een fout in de instellingen maak?
Overleaf met de volgende instellingen:
ports:
- 40080:80
links:
- mongo
- redis
volumes:
- /docker/sh/data:/var/lib/sharelatex
- /docker/sh/config:/var/run
environment:
- SHARELATEX_APP_NAME: Overleaf Community Edition
- SHARELATEX_MONGO_URL: mongodb://mongo/sharelatex
- SHARELATEX_REDIS_HOST: redis
- REDIS_HOST: redis
Redis met de volgende instellingen:
ports:
- 6379:6369
volumes:
- /docker/redis/data:/data
Mongo met de volgende instellingen:
ports:
- 27017:27017
volumes:
- /docker/mongo/data:/data/db
environment:
MONGO_INITDB_ROOT_USERNAME: <username>
MONGO_INITDB_ROOT_PASSWORD: <password>
Hierbij de kanttekening dat de verschillende containers een aantal standaard environment variabelen aanmaken. Die heb ik hierboven niet genoemd. De drie containers nemen default de laatste versie.
Installeren lijkt te lukken. Wanneer ik naar <ip>:40080/launchpad ga, dan krijg ik de foutmelding "Something went wrong, sorry.". Wanneer ik naar <ip>:40080/login ga, krijg ik een inlogscherm.
Heeft iemand hier ervaring mee of ziet waar ik een fout in de instellingen maak?
Vraag,
Aan mijn nas DS216+II hangt een externe Hardisk via E-Sata port van mijn Nas.
Nu wil ik dat ik via een script of zoiets de Externe HD uit of aan kunnen zetten.
Doel: Externe HD aan zetten, backup via Hyperbackup naar mijn externe HD.
Back-up klaar? Externe HD uit zetten.
En dit laten werken via de taakplanner.
Ik heb geen ervaring met scripting, dus al iemand mij kan helpen?
Mag ook met een totaal ander oplossing...
Ik wil gewoon een Offline back-up omgeving.
Met vr.gr.
Gerard
Aan mijn nas DS216+II hangt een externe Hardisk via E-Sata port van mijn Nas.
Nu wil ik dat ik via een script of zoiets de Externe HD uit of aan kunnen zetten.
Doel: Externe HD aan zetten, backup via Hyperbackup naar mijn externe HD.
Back-up klaar? Externe HD uit zetten.
En dit laten werken via de taakplanner.
Ik heb geen ervaring met scripting, dus al iemand mij kan helpen?
Mag ook met een totaal ander oplossing...
Ik wil gewoon een Offline back-up omgeving.
Met vr.gr.
Gerard
Bedankt, maar nu nog voor E-Sata Disk...kraades schreef op donderdag 6 februari 2020 @ 17:09:
@oxyde
Misschien dat dit helpt?
kraades in "[Synology] Vraag en antwoord - deel 2"
@Opi In de yml file zie ik /var/run/docker.sock:/var/run/docker.sock en daar kan een gewone synology user niet bij, dat kan alleen via sudo. Lijkt er dus op dat je het alleen via de command line kan instaleren (disclaimer: ben pas sinds een week bezig met synology en docker
)
@Laagheim Dank je voor de reactie. Ik dacht het te kunnen ondervangen met /docker/sh/config:/var/run, maar volgens jou dus niet?
@Opi Ik liep er tegenaan bij het installeren van portainer. Voor zover ik weet kan een gewone user niet bij de systeem bestanden. Misschien kan je wel met ln (link) een koppeling maken met een folder waar je user wel bij kan maar dan moet je nog steeds sudo ln /var/run/docker.sock /volumeX/homes/etcetc doen.
Excuses, verkeerd gelezen.
Ik vermoed op een vergelijkbare manier en zou het als ik jou was even aan support vragen hoe de eject etc. te simuleren.
👉🏻 Blog 👈🏻
Dank je voor je antwoord.kraades schreef op donderdag 6 februari 2020 @ 21:57:
[...]
Excuses, verkeerd gelezen.
Ik vermoed op een vergelijkbare manier en zou het als ik jou was even aan support vragen hoe de eject etc. te simuleren.
mogelijk weten jullie me hiermee te helpen, ben op zoek naar een oplossing dat foto`s uit map x automatisch gekopieerd worden zonder duplicaten naar map y op de nas zelf.
Dit in verband met meerdere telefoons die de foto`s uploaden naar de nas vanuit de Moments app. Maar ik wil alle foto`s in de gedeelde bibliotheek te zien krijgen. Nu is dat iedere keer een handmatige actie, die ik op de computer nog zou kunnen scripten. Maar die ik liever dagelijks of wekelijks automatisch op de NAS zelf zou willen uitvoeren. Hoe kan ik dit het beste aanpakken.
Dit in verband met meerdere telefoons die de foto`s uploaden naar de nas vanuit de Moments app. Maar ik wil alle foto`s in de gedeelde bibliotheek te zien krijgen. Nu is dat iedere keer een handmatige actie, die ik op de computer nog zou kunnen scripten. Maar die ik liever dagelijks of wekelijks automatisch op de NAS zelf zou willen uitvoeren. Hoe kan ik dit het beste aanpakken.
Maak een script en laat het dagelijks door de taakplanner uitvoeren.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ejecten is iets dat voor usb devices en niet voor eSata devices, maar ik neem aan dat je de disk gewoon wilt down spinnen.oxyde schreef op donderdag 6 februari 2020 @ 17:00:
Vraag,
Aan mijn nas DS216+II hangt een externe Hardisk via E-Sata port van mijn Nas.
Nu wil ik dat ik via een script of zoiets de Externe HD uit of aan kunnen zetten.
Doel: Externe HD aan zetten, backup via Hyperbackup naar mijn externe HD.
Back-up klaar? Externe HD uit zetten.
En dit laten werken via de taakplanner.
Ik heb geen ervaring met scripting, dus al iemand mij kan helpen?
Mag ook met een totaal ander oplossing...
Ik wil gewoon een Offline back-up omgeving.
Met vr.gr.
Gerard
Dit kun je met hdparm als volgt doen.
Log in op de commandline.
Geeft het commando df, die toont dan je devices zodat je kunt zien hoe je eSata disk heet.
Als je bijvoorbeeld vind dat hij /dev/sdq1 heet dan kun je hem downspinnen met het volgende commando:
Starten hoeft niet dat gaat automatisch als je de disk gaat gebruiken.sudo hdparm -y /dev/sdq1
Dit commando kun je dus gewoon in de taakplanner van je backup zetten op het eind.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Leuk idee, maar niet wat ik zoek. Moet echt uit gaan.Ben(V) schreef op vrijdag 7 februari 2020 @ 10:01:
[...]
Ejecten is iets dat voor usb devices en niet voor eSata devices, maar ik neem aan dat je de disk gewoon wilt down spinnen.
Dit kun je met hdparm als volgt doen.
Log in op de commandline.
Geeft het commando df, die toont dan je devices zodat je kunt zien hoe je eSata disk heet.
Als je bijvoorbeeld vind dat hij /dev/sdq1 heet dan kun je hem downspinnen met het volgende commando:
[...]
Starten hoeft niet dat gaat automatisch als je de disk gaat gebruiken.
Dit commando kun je dus gewoon in de taakplanner van je backup zetten op het eind.
BEDANKT.
Ben(V) schreef op vrijdag 7 februari 2020 @ 09:52:
Maak een script en laat het dagelijks door de taakplanner uitvoeren.
@Ben(V)
In Synology termen heet het voor zowel USB als eSATA disks: "ejecting".
https://www.synology.com/...externaldevice_devicelist
In Synology termen heet het voor zowel USB als eSATA disks: "ejecting".
https://www.synology.com/...externaldevice_devicelist
👉🏻 Blog 👈🏻
BEDANKT voor de info.kraades schreef op vrijdag 7 februari 2020 @ 12:06:
@Ben(V)
In Synology termen heet het voor zowel USB als eSATA disks: "ejecting".
https://www.synology.com/...externaldevice_devicelist
Nu nog een script bedenken.. en via taakplanner laten uitvoeren.
Gerard.
@kraadeskraades schreef op vrijdag 7 februari 2020 @ 12:06:
@Ben(V)
In Synology termen heet het voor zowel USB als eSATA disks: "ejecting".
https://www.synology.com/...externaldevice_devicelist
Synology kan roepen wat ze willen, maar eject is toch echt iets anders.
Nadat je een usb device eject hebt is hij weg voor het systeem en wordt pas weer herkent als je het device uit de USB poort haalt en er weer instopt.
@oxyde
Spin down is echt het maixmale wat erin zit, anders zul je de spanning van je external disk moeten halen met een relais dat door je Nas bestuurd gaat worden en ik vrees dat zoiets je doel voorbij streeft.
Je kunt het als volgt doen.
Installeer hyperbackup.
Maakt een scheduled backup taak aan.
In de taakplanner zet je die taak stop zodat hij wel blijft bestaan maar niet meer uitgevoerd word.
Ga naar de commandline.zoek het juiste taak id op met het volgende commando:
Kijk meteen even hoe je eSata device heet met het commando:synoschedtask --get
Maak een script bestandje aan met daarin deze regels en sla dat ergens op:df
(vervang id=3 met het juiste taakid en /dev/sdq1 met de gevonden naam van van je eSata disk)synoschedtask --run id=3 check_status=0 check_time=0
hdparms -y /dev/sdq1
Maak vervolgens in de taakplanner een scheduled taak met een user defined script aan en plaats de locatie van dat script daarin.
Schedule dat script daarna zoals je zelf wilt en laat het uitvoeren als root.
Het kan zijn dat het niet werkt als hij die scheduled task gewoon start en daarna meteen verder gaat met het hdparm commando.
Als dat zo is laat het even weten dan zoek ik even verder of de echte backuptaak ergens te vinden is.
[ Voor 42% gewijzigd door Ben(V) op 07-02-2020 13:15 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
@Ben(V)
De laatste keer dat ik keek zitten we hier toch echt op een Synology gerelateerd forum dus het lijkt mij niet meer dan logisch om het bij de Synology/DSM terminologie te houden. En dat @oxyde eventjes een Synology ticket aanmaakt hoe hij een eSATA disk online/offline kan zetten gebruikmakend van de Synology/DSM API zodat dit in DSM netjes wordt verwerkt.
De laatste keer dat ik keek zitten we hier toch echt op een Synology gerelateerd forum dus het lijkt mij niet meer dan logisch om het bij de Synology/DSM terminologie te houden. En dat @oxyde eventjes een Synology ticket aanmaakt hoe hij een eSATA disk online/offline kan zetten gebruikmakend van de Synology/DSM API zodat dit in DSM netjes wordt verwerkt.
👉🏻 Blog 👈🏻
Denk niet dat hij zo wie zo op een eject achtige functie zit te wachten.
Om die disk dan weer in het systeem beschikbaar te maken zal hij dan eerst de kabel eruit moet trekken en er weer insteken.
Om die disk dan weer in het systeem beschikbaar te maken zal hij dan eerst de kabel eruit moet trekken en er weer insteken.
[ Voor 97% gewijzigd door Ben(V) op 07-02-2020 14:32 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Misschien dat dat voor eSATA zo werkt. Ik heb geen eSATA disk. Maar een USB device kun je zonder de kabel eruit te trekken/in te stoppen weer binden. Mijns inziens de moeite waard om het even te checken bij Synology support.
👉🏻 Blog 👈🏻
Blijkbaar heb je het niet geprobeert, want het werkt echt niet zo.
Als je een Usb disk eject is hij verdwenen uit DSM en moet je de kabel er uithalen en er opnieuw instoppen voordat DSM hem weer ziet.
Een eSata kun je niet ejecten, dat is eigenlijk hetzelfde als een gewone Sata disk, als hij aangesloten is ziet het systeem hem en kun je hem gebruiken en verder niets.
Het enige wat je kun doen is of de spanning eraf, of de Esata kabel eruit of je kunt hem down laten spinnen (sleep mode), meer niet.
Hij zou kunnen proberen of een eSata disk ook reageert op het instellen van een hibernation na zoveel minuten idle time, maar aangezien DSM het daar specifiek over Usb drives heeft zou het zomaar kunnen dat dit met een eSata disk niet werkt, maar dat is een kwestie van uitproberen.
Het hdparam commando moet echter wel werken op een eSata disk, want die werkt gewoon met Sata commando's
Als je een Usb disk eject is hij verdwenen uit DSM en moet je de kabel er uithalen en er opnieuw instoppen voordat DSM hem weer ziet.
Een eSata kun je niet ejecten, dat is eigenlijk hetzelfde als een gewone Sata disk, als hij aangesloten is ziet het systeem hem en kun je hem gebruiken en verder niets.
Het enige wat je kun doen is of de spanning eraf, of de Esata kabel eruit of je kunt hem down laten spinnen (sleep mode), meer niet.
Hij zou kunnen proberen of een eSata disk ook reageert op het instellen van een hibernation na zoveel minuten idle time, maar aangezien DSM het daar specifiek over Usb drives heeft zou het zomaar kunnen dat dit met een eSata disk niet werkt, maar dat is een kwestie van uitproberen.
Het hdparam commando moet echter wel werken op een eSata disk, want die werkt gewoon met Sata commando's
[ Voor 28% gewijzigd door Ben(V) op 07-02-2020 15:14 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Je bent wel weer erg stellig. Volgens o.a. deze Reddit kan het wel https://www.reddit.com/r/...old_rotating_usb_backups/ Ik heb ook al vaker scriptjes voorbij zien komen die hier gebruik van maken (alleen zelf niet geprobeerd omdat ik er geen behoefte aan heb)Ben(V) schreef op vrijdag 7 februari 2020 @ 15:07:
Blijkbaar heb je het niet geprobeert, want het werkt echt niet zo.
Als je een Usb disk eject is hij verdwenen uit DSM en moet je de kabel er uithalen en er opnieuw instoppen voordat DSM hem weer ziet.
Waar is Jos de Nooyer toch gebleven?
Heren bedankt, wel interessant!
Ga het een een ander proberen.
Heb nu ook een ticket aangemaakt bij Synology.
Gerard
Ga het een een ander proberen.
Heb nu ook een ticket aangemaakt bij Synology.
Gerard
Bij deze.Ben(V) schreef op vrijdag 7 februari 2020 @ 15:07:
Blijkbaar heb je het niet geprobeert, want het werkt echt niet zo.
root@DS716:~# sync root@DS716:~# ls /volumeUSB1/ # usb disk beschikbaar @eaDir usbshare root@DS716:~# /usr/syno/bin/synousbdisk -enum Total 1 USB devices: sdq root@DS716:~# /usr/syno/bin/synousbdisk -umount sdq Unmount USB device sdq succeeded. root@DS716:~# ls /volumeUSB1/ # usb disk niet beschikbaar @eaDir root@DS716:~# cat /tmp/usbtab sdq="/proc/bus/usb/003/003" root@DS716:~# > /tmp/usbtab # werk dsm gui bij root@DS716:~# cd /sys/bus/usb/drivers/usb root@DS716:/sys/bus/usb/drivers/usb# ls 1-2 1-5 3-1 bind module uevent unbind usb1 usb2 usb3 usb4 root@DS716:/sys/bus/usb/drivers/usb# echo 3-1 > unbind # mijn usb disk is 3-1 root@DS716:/sys/bus/usb/drivers/usb# echo 3-1 > bind root@DS716:/sys/bus/usb/drivers/usb# ls /volumeUSB1/ # usb disk beschikbaar @eaDir usbshare root@DS716:/sys/bus/usb/drivers/usb#
👉🏻 Blog 👈🏻
Ik had het over wat je in Dsm via de gui kunt doen.
Via de commandline kun je natuurlijk vanalles meer.
Via de commandline kun je natuurlijk vanalles meer.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Werkt dit ook zo met een E-Sata Disk?kraades schreef op vrijdag 7 februari 2020 @ 18:24:
[...]
Bij deze.
root@DS716:~# sync root@DS716:~# ls /volumeUSB1/ # usb disk beschikbaar @eaDir usbshare root@DS716:~# /usr/syno/bin/synousbdisk -enum Total 1 USB devices: sdq root@DS716:~# /usr/syno/bin/synousbdisk -umount sdq Unmount USB device sdq succeeded. root@DS716:~# ls /volumeUSB1/ # usb disk niet beschikbaar @eaDir root@DS716:~# cat /tmp/usbtab sdq="/proc/bus/usb/003/003" root@DS716:~# > /tmp/usbtab # werk dsm gui bij root@DS716:~# cd /sys/bus/usb/drivers/usb root@DS716:/sys/bus/usb/drivers/usb# ls 1-2 1-5 3-1 bind module uevent unbind usb1 usb2 usb3 usb4 root@DS716:/sys/bus/usb/drivers/usb# echo 3-1 > unbind # mijn usb disk is 3-1 root@DS716:/sys/bus/usb/drivers/usb# echo 3-1 > bind root@DS716:/sys/bus/usb/drivers/usb# ls /volumeUSB1/ # usb disk beschikbaar @eaDir usbshare root@DS716:/sys/bus/usb/drivers/usb#
Dat weet hij niet, want zijn oplossing is knip en plakwerk van het internet.
Geen eigen kennis/ervaring.
Geen eigen kennis/ervaring.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
V.w.b. USB weet ik zeker want dat gebruik ik zelf ook. V.w.b. eSATA kun je zoals gezegd het beste even aan Synology support vragen.
👉🏻 Blog 👈🏻
Doe ik!kraades schreef op zaterdag 8 februari 2020 @ 13:49:
[...]
V.w.b. USB weet ik zeker want dat gebruik ik zelf ook. V.w.b. eSATA kun je zoals gezegd het beste even aan Synology support vragen.
Bedankt!
Antwoord Synology:
Dear Customer,
Thank you for contacting Synology support.
Please note that so far Synology NAS doesn't support connecting eSATA port directly to the NAS. It may be able to detected and show the shared folder in File Station, but we didn't test it officially. You may see some files indicate the eSATA port is used to connect eSATA drive, but actually it support the Synology expansion unit only.
Therefore, so far it doesn't support using the script to control the eSATA device behavior. Thanks for your understanding.
If have any question, please let us know.
Take care and have a good day,
Technical Support
Frank Tsai
Waarom zit er dan E-Sata port op de nas?
Dear Customer,
Thank you for contacting Synology support.
Please note that so far Synology NAS doesn't support connecting eSATA port directly to the NAS. It may be able to detected and show the shared folder in File Station, but we didn't test it officially. You may see some files indicate the eSATA port is used to connect eSATA drive, but actually it support the Synology expansion unit only.
Therefore, so far it doesn't support using the script to control the eSATA device behavior. Thanks for your understanding.
If have any question, please let us know.
Take care and have a good day,
Technical Support
Frank Tsai
Waarom zit er dan E-Sata port op de nas?

[ Voor 9% gewijzigd door oxyde op 09-02-2020 12:47 ]
Die is voor gebruik met een Synology Expansion box zoals ze schrijven en voor ander gebruik ondersteunen zij het niet.
Neemt niet weg dat het wel gewoon werkt, alleen niet zoals een USB disk.
Een usb disk wordt automatisch herkent en er wordt automatisch een volume voor aangemaakt en ook een share.
Neemt niet weg dat het wel gewoon werkt, alleen niet zoals een USB disk.
Een usb disk wordt automatisch herkent en er wordt automatisch een volume voor aangemaakt en ook een share.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Bedankt voor je uitlegBen(V) schreef op zondag 9 februari 2020 @ 14:35:
Die is voor gebruik met een Synology Expansion box zoals ze schrijven en voor ander gebruik ondersteunen zij het niet.
Neemt niet weg dat het wel gewoon werkt, alleen niet zoals een USB disk.
Een usb disk wordt automatisch herkent en er wordt automatisch een volume voor aangemaakt en ook een share.
Na een aantal jaar ergernis heb ik dan besloten om mijn 211J met pensioen te sturen en een 218+ te bestellen. Ik wil de huidige schijven die in raid-1 draaien meenemen. Nu is daarover veel op internet te vinden alleen niet of het nu echt de moeite waard is om "opnieuw" te beginnen in EXT4 of brtfs. Ik ben benieuwd of hier positieve of negatieve ervaringen zijn
XXXVI
Zou ik niet doen.
Gewoon migreren is het simpelste.
Scheelt weer een hoop gedoe met alle packages opnieuw te installeren en backup/restore van al je data.
Het enige verschil is dat je oude disken 32 bits geformatteerd zijn en dat heeft als beperking dat de maximale volume grootte 16TB is.
Dat is nauwelijks van belang voor een 2 bay Nas die je in Raid 1 wilt gebruiken.
Gewoon migreren is het simpelste.
Scheelt weer een hoop gedoe met alle packages opnieuw te installeren en backup/restore van al je data.
Het enige verschil is dat je oude disken 32 bits geformatteerd zijn en dat heeft als beperking dat de maximale volume grootte 16TB is.
Dat is nauwelijks van belang voor een 2 bay Nas die je in Raid 1 wilt gebruiken.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Wie 'O wie zou me kunnen helpen?
Als ik via Putty inlog op m'n Synology NAS en vervolgens onderstaande 2 regels in de commandline uitvoer dan werkt alles perfect
source /volume1/homes/admin/lgtv-venv/bin/activate
lgtv LGwebOSTV openBrowserAt http://192.168.1.202/Deur...20_13_34_42_deurbel_2.jpg
Maar als ik vervolgens deze 2 regels wil laten uitvoeren middels een PHP-script dat uiteindelijk "extern" wordt aangeroepen, dan werkt het niet. Ik krijg ook geen foutmeldingen in de browser wanneer ik die PHP aanroep. Alleen maar die "begin + eind" die ik er zelf ter debug heb bijgezet. Hieronder het script dat dus niet werkt:
Wat doe ik verkeerd?
C.q. hoe krijg ik die 2 regels vanuit PHP (of op een andere manier, als het maar via een website getriggerd kan worden) op de Synology "gestart"?
Als ik via Putty inlog op m'n Synology NAS en vervolgens onderstaande 2 regels in de commandline uitvoer dan werkt alles perfect
source /volume1/homes/admin/lgtv-venv/bin/activate
lgtv LGwebOSTV openBrowserAt http://192.168.1.202/Deur...20_13_34_42_deurbel_2.jpg
Maar als ik vervolgens deze 2 regels wil laten uitvoeren middels een PHP-script dat uiteindelijk "extern" wordt aangeroepen, dan werkt het niet. Ik krijg ook geen foutmeldingen in de browser wanneer ik die PHP aanroep. Alleen maar die "begin + eind" die ik er zelf ter debug heb bijgezet. Hieronder het script dat dus niet werkt:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
| <?php ini_set('display_errors', 'On'); error_reporting(E_ALL); echo "begin"; shell_exec("source /volume1/homes/admin/lgtv-venv/bin/activate"); shell_exec("lgtv LGwebOSTV openBrowserAt http://192.168.1.202/Deurbel/9-2-2020/9-2-2020_13_34_42_deurbel_2.jpg"); echo "eind"; ?> |
Wat doe ik verkeerd?
C.q. hoe krijg ik die 2 regels vanuit PHP (of op een andere manier, als het maar via een website getriggerd kan worden) op de Synology "gestart"?
[ Voor 4% gewijzigd door Atmoz op 09-02-2020 19:17 ]
@Atmoz onder welke gebruiker log je in en onder welke gebruiker wordt PHP uitgevoerd. Hebben die dezelfde rechten? (ik hoop eigenlijk van niet
)
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Ik log met admin in in Putty, en volgens mij staat ook het PHP-script onder die user.Gonadan schreef op zondag 9 februari 2020 @ 20:24:
@Atmoz onder welke gebruiker log je in en onder welke gebruiker wordt PHP uitgevoerd. Hebben die dezelfde rechten? (ik hoop eigenlijk van niet)
Je denkt dus ook dat het iets met rechten te maken heeft?
Ik ben namelijk nu zover dat ik deze foutmelding krijg:
[edit]begintFailed to import the site module Traceback (most recent call last): File "/volume1/@appstore/py3k/usr/local/lib/python3.5/site.py", line 563, in main() File "/volume1/@appstore/py3k/usr/local/lib/python3.5/site.py", line 546, in main known_paths = venv(known_paths) File "/volume1/@appstore/py3k/usr/local/lib/python3.5/site.py", line 470, in venv with open(virtual_conf, encoding='utf-8') as f: PermissionError: [Errno 13] Permission denied: '/volume1/homes/admin/lgtv-venv/pyvenv.cfg' eind
Die foutmelding komt trouwens bij het gebruik van deze PHP-code:
code:
1
2
| echo shell_exec("source /volume1/homes/admin/lgtv-venv/bin/activate" . " 2>&1"); echo shell_exec("/volume1/homes/admin/lgtv-venv/bin/lgtv LGwebOSTV openBrowserAt http://192.168.1.202/Deurbel.jpg" . " 2>&1"); |
Zonder het "pad" naar lgtv komt er deze melding: "sh: lgtv: command not found".
Dus vandaar dat ik dat /volume1/homes/admin/lgtv-venv/bin/ ervoor gezet heb.
[ Voor 19% gewijzigd door Atmoz op 09-02-2020 20:32 ]
Meestal is dat wel het geval. Het is namelijk bijzonder onverstandig om een webserver onder uitgebreide privileges te draaien. Mocht een kwaadwillende namelijk wat invloed kunnen uitoefenen op wat zo'n pagina daadwerkelijk doet dan zijn ook gelijk alle remmen eraf.Atmoz schreef op zondag 9 februari 2020 @ 20:26:
[...]
Ik log met admin in in Putty, en volgens mij staat ook het PHP-script onder die user.
Je denkt dus ook dat het iets met rechten te maken heeft?
Ik ben namelijk nu zover dat ik deze foutmelding krijg:
[...]
Gezien de foutmelding zat ik aardig in de richting. Nu dus een kwestie van afpellen wat je precies nodig hebt en zorgen dat je dat zo veilig mogelijk kunt ontsluiten.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Zo te zien is het een python script dat het aanroept.
Beetje vreemd omdat vanuit een php script aan te roepen.
Maak gewoon een bash script.
Php heeft natuurlijk geen rechten om dat script uit te vieren, die draait gewoon onder z'n eigen user .
Beetje vreemd omdat vanuit een php script aan te roepen.
Maak gewoon een bash script.
Php heeft natuurlijk geen rechten om dat script uit te vieren, die draait gewoon onder z'n eigen user .
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Thanks!Gonadan schreef op zondag 9 februari 2020 @ 20:31:
[...]
Meestal is dat wel het geval. Het is namelijk bijzonder onverstandig om een webserver onder uitgebreide privileges te draaien. Mocht een kwaadwillende namelijk wat invloed kunnen uitoefenen op wat zo'n pagina daadwerkelijk doet dan zijn ook gelijk alle remmen eraf.
Gezien de foutmelding zat ik aardig in de richting. Nu dus een kwestie van afpellen wat je precies nodig hebt en zorgen dat je dat zo veilig mogelijk kunt ontsluiten.
Ik snap je helemaal, maar met rechten "dichtzetten" wordt dit probleem natuurlijk alleen maar moeilijker op te lossen. De webserver hangt niet aan het internet, dus ik hoop eigenlijk dat er (op het moment even tijdelijk) niet veel kan gebeuren.
Persoonlijk weet ik er té weinig vanaf (Python, Bash, PHP, etc...) om dit zelf te kunnen oplossen.
En het jammere is dan ook: ik heb het "moeilijke" gedeelte al helemaal werkend (foto zichtbaar maken op de tv). Alleen werkt het dus nu jammer genoeg alleen "handmatig" via Putty... Mijn projectje kan alleen slagen als ik dit laatste stukje ook nog automatiseer...
Nog één kleine stap en ik heb precies klaar wat ik wil: zodra er iemand op de deurbel drukt komt er een foto van diegene op de tv. (ook tussen Netflix of Youtube door). Echt relax
Maarja, zover zijn we dus nog niet

[edit]
Thanks voor je reactie!Ben(V) schreef op zondag 9 februari 2020 @ 20:33:
Zo te zien is het een python script dat het aanroept.
Beetje vreemd omdat vanuit een php script aan te roepen.
Maak gewoon een bash script.
Php heeft natuurlijk geen rechten om dat script uit te vieren, die draait gewoon onder z'n eigen user .
Hoe zou dat Bash script (echt serieus nog NOOIT mee gewerkt) er dan moeten uitzien?
En wat ik nog minder snap: hoe roep ik dat dan via een website aan?
[ Voor 16% gewijzigd door Atmoz op 09-02-2020 20:39 ]
Waarvandaan/waarmee probeer je het aan te roepen dan?
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
PHP kent zoiets als safe mode. Volgens mij kun je dat in DSM ergens configureren. Inclusief path.
👉🏻 Blog 👈🏻
Een bash script is niets anders dan commandline commando's in een bestandje en als je die dan laat uitvoeren worden die commandos een voor een uitgevoerd.
Het is net als bij een .bat voor windows
Het is net als bij een .bat voor windows
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Vanaf (bijvoorbeeld) m'n telefoon, iPad of laptop. Gewoon door in de browser naar dat IP/scriptje te gaan.Gonadan schreef op zondag 9 februari 2020 @ 20:44:
Waarvandaan/waarmee probeer je het aan te roepen dan?
Maar dat is eigenlijk alleen voor in deze "test-periode"... het scriptje wordt (nu ook al) getriggerd door de deurbel (Arduino + EthernetShield).
Klopt, maar dat heb ik allemaal al "goed" gezet. (tenminste: zover ik weet!kraades schreef op zondag 9 februari 2020 @ 20:44:
PHP kent zoiets als safe mode. Volgens mij kun je dat in DSM ergens configureren. Inclusief path.
Ah ok, helder!Ben(V) schreef op zondag 9 februari 2020 @ 20:46:
Een bash script is niets anders dan commandline commando's in een bestandje en als je die dan laat uitvoeren worden die commandos een voor een uitgevoerd.
Het is net als bij een .bat voor windows
Merci.
Maargoed, dan nog moet er iets op de webserver komen wat dan weer dat scriptje "triggerd" vanuit een website.... Dus wat schiet ik dan ermee op door het eerst in een Bash te zetten om deze vervolgens weer vanuit een PHP-script aan te roepen?
@Atmoz in de foutmelding zie je dat hij een configuratiebestand uit je admin map probeert te benaderen waar hij niet bij mag. Als daar niet al te belangrijke gegevens in staan zou je die ook beschikbaar kunnen maken op een locatie waar PHP er wel bij mag.
Overigens is het meestal wel aan te raden om de standaard admin user uit te schakelen en een eigen te maken. Maar je schreef dat de NAS niet publiek bereikbaar is dus dan is het niet zo'n issue.
Overigens is het meestal wel aan te raden om de standaard admin user uit te schakelen en een eigen te maken. Maar je schreef dat de NAS niet publiek bereikbaar is dus dan is het niet zo'n issue.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Wat je ermee opschiet is dat je nu na elk commando the shell weer aanroept met het exec commando.
Maar het probleem is gewoon een rechtenkwestie.
Een script wordt gewoon uitgevoerd door de user waarmee je ingelogd bent en php wordt door de php processor uitgevoerd en die heeft de rechten niet.
Je zou je php script kunnen aanpassen zodat hij eerst inlogd met de juiste rechten.
Lees dit eerst eens:
https://www.synology.com/...plication_webserv_general
Maar het probleem is gewoon een rechtenkwestie.
Een script wordt gewoon uitgevoerd door de user waarmee je ingelogd bent en php wordt door de php processor uitgevoerd en die heeft de rechten niet.
Je zou je php script kunnen aanpassen zodat hij eerst inlogd met de juiste rechten.
Lees dit eerst eens:
https://www.synology.com/...plication_webserv_general
[ Voor 9% gewijzigd door Ben(V) op 09-02-2020 20:59 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik heb even wat met rechten zitten spelen en ben nu weer iets verder.Gonadan schreef op zondag 9 februari 2020 @ 20:53:
@Atmoz in de foutmelding zie je dat hij een configuratiebestand uit je admin map probeert te benaderen waar hij niet bij mag. Als daar niet al te belangrijke gegevens in staan zou je die ook beschikbaar kunnen maken op een locatie waar PHP er wel bij mag.
Maar toch wéér een foutmelding

Dit is het script:
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
| <?php $old_path = getcwd(); chdir('/volume1/homes/admin/lgtv-venv/bin/'); ini_set('display_errors', 'On'); error_reporting(E_ALL); echo "begint"; echo exec("whoami"); echo shell_exec("source /volume1/web/lgtv-venv/bin/activate" . " 2>&1"); echo shell_exec("/volume1/web/lgtv-venv/bin/lgtv LGwebOSTV openBrowserAt http://192.168.1.202/Deurbel.jpg" . " 2>&1"); $a = fopen("/volume1/homes/admin/lgtv-venv/test.txt", "w+"); fputs($a,"test"); fclose($a); chdir($old_path); echo "eind"; ?> |
De foutmelding daarbij is:
beginthttpTraceback (most recent call last): File "/volume1/web/lgtv-venv/bin/lgtv", line 9, in load_entry_point('LGTV==0.2', 'console_scripts', 'lgtv')() File "/volume1/homes/admin/lgtv-venv/lib/python3.5/site-packages/LGTV/__init__.py", line 161, in main ws = LGTVRemote(name, **config[name]) KeyError: 'LGwebOSTV' eind
Klopt, ik denk dat het dat ook is.Ben(V) schreef op zondag 9 februari 2020 @ 20:58:
Wat je ermee opschiet is dat je nu na elk commando the shell weer aanroept met het exec commando.
Maar het probleem is gewoon een rechtenkwestie.
Een script wordt gewoon uitgevoerd door de user waarmee je ingelogd bent en php wordt door de php processor uitgevoerd en die heeft de rechten niet.
Je zou je php script kunnen aanpassen zodat hij eerst inlogd met de juiste rechten.
Lees dit eerst eens:
https://www.synology.com/...plication_webserv_general
Ik krijg het echter niet gefixt
Heb in DSM flink wat zitten klooien met rechten, en heb ook wat directory's verplaatst enzo, maar het wilt allemaal niet helpen jammer genoeg.
@Atmoz je vraagstuk lijkt wat meer te liggen in de lijn van het maken van PHP-scripts.
Wat je ook zou kunnen doen is een topic in de Devschuur maken, grote kans dat je daar veel meer hulp kunt vinden over dat onderwerp dan in hier.
Wat je ook zou kunnen doen is een topic in de Devschuur maken, grote kans dat je daar veel meer hulp kunt vinden over dat onderwerp dan in hier.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Is er een mogelijkheid om dmv LACP (of een van de andere vormen die Synology biedt) transfers boven de 1gbit uit te laten komen?
Situatie nu is dat een backup (Veeam) vanaf een VM op 10 gbit weggeschreven wordt naar een synology die met LACP 2 om 2 op de core switches hangt, 4 gbit totaal.
Beetje zitten rommelen en ik kom niet boven de 120MB/s uit met SMB verkeer. De veeam server gaat op de schop en ik kan met een nieuwe VM alle kanten op. De bedoeling is dat ik WS2019 ga draaien met daarop Veeam Backup & replication. Mounten kan eventueel met NFS of SMB(v3).
Korte zoektocht leert dat ik SMB multipath moet gebruiken, geen idee of dat de sleutel is tot >120MB/s verkeer. Iemand de gouden tip?
(Alles werkt overigens prima, maar als t sneller kan dan graag)
Situatie nu is dat een backup (Veeam) vanaf een VM op 10 gbit weggeschreven wordt naar een synology die met LACP 2 om 2 op de core switches hangt, 4 gbit totaal.
Beetje zitten rommelen en ik kom niet boven de 120MB/s uit met SMB verkeer. De veeam server gaat op de schop en ik kan met een nieuwe VM alle kanten op. De bedoeling is dat ik WS2019 ga draaien met daarop Veeam Backup & replication. Mounten kan eventueel met NFS of SMB(v3).
Korte zoektocht leert dat ik SMB multipath moet gebruiken, geen idee of dat de sleutel is tot >120MB/s verkeer. Iemand de gouden tip?
(Alles werkt overigens prima, maar als t sneller kan dan graag)
Smb multipath is enkel op Windows systemen beschikbaar.
Samba (de smb implementatie voor Linux) ondersteund dit nog niet.
Het zit wel in laatste versie maar is nog experimenteel en dat zou ik voor een backup niet aanraden.
Lacp kan alleen maar een bond maken van twee of meer netwerk poorten, maar dat verhoogt alleen de bandbreedte en niet de maximale snelheid van een enkelvoudige connectie.
Als je de backup in twee of meer gelijktijdige backups kunt knippen kan dat wel helpen.
Het enige echte alternatief is een Nas met een 10Gb netwerkaansluiting gebruiken.
Samba (de smb implementatie voor Linux) ondersteund dit nog niet.
Het zit wel in laatste versie maar is nog experimenteel en dat zou ik voor een backup niet aanraden.
Lacp kan alleen maar een bond maken van twee of meer netwerk poorten, maar dat verhoogt alleen de bandbreedte en niet de maximale snelheid van een enkelvoudige connectie.
Als je de backup in twee of meer gelijktijdige backups kunt knippen kan dat wel helpen.
Het enige echte alternatief is een Nas met een 10Gb netwerkaansluiting gebruiken.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Het gaat inderdaad om meerdere backup taken, maar die lijkt ie door dezelfde “pijp” van 1 gbit te moeten. Alternatief was 2 bonds maken met 2 backup routes om zo wel 2 gbit vol te kunnen maken.
Met nfs kan het ook niet?
10 gbit is helaas geen optie. NAS is met een insteek kaartje wel naar 10 gbit te krijgen, de switches helaas niet.
Met nfs kan het ook niet?
10 gbit is helaas geen optie. NAS is met een insteek kaartje wel naar 10 gbit te krijgen, de switches helaas niet.
[ Voor 20% gewijzigd door gastje01 op 10-02-2020 20:21 ]
Als je een echte lacp hebt gemaakt met een managed switch die dat aankan kun je gewoon twee backups gelijktijdig draaien.
Dan worden er gewoon twee poorten gelijktijdig gebruikt.
Je moet natuurlijk wel twee backup processen hebben draaien anders wachten ze natuurlijk gewoon op elkaar.
Ik draai hier een backup vanaf twee verschillende Pc's gelijktijdig naar mijn Nas en dan kom ik boven de 1Gb/s uit.
Overigens is backup behoorlijk zwaar voor de cpu van de Nas dus controleer ook of daar de bittkeneck niet zit.
Nfs is antiek en wordt niets meer aan ontwikkelt dus dat kun je helemaal vergeten.
Dan worden er gewoon twee poorten gelijktijdig gebruikt.
Je moet natuurlijk wel twee backup processen hebben draaien anders wachten ze natuurlijk gewoon op elkaar.
Ik draai hier een backup vanaf twee verschillende Pc's gelijktijdig naar mijn Nas en dan kom ik boven de 1Gb/s uit.
Overigens is backup behoorlijk zwaar voor de cpu van de Nas dus controleer ook of daar de bittkeneck niet zit.
Nfs is antiek en wordt niets meer aan ontwikkelt dus dat kun je helemaal vergeten.
[ Voor 7% gewijzigd door Ben(V) op 10-02-2020 20:36 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Het is een ‘echte’ LACP volgens 802.3ad. Switch en de Synology geven beiden keurig 4gbit aan. Ik had al getest met 2x file transfers van de NAS naar de VM, die delen helaas gewoon 1000 mbit waarbij beide transfers op 55-60 MB/s bleven steken tot er 1 klaar was. Dit is wel met een oude WS2008 server (ja ik weet dat ik dit niet meer moet gebruiken, bestanden kopiëren we nu weg en dan gaat ie def uit).
Ik heb het nog niet getest, maar ik denk dat dit met Veeam ook zo zal gaan, die benadert de syno gewoon als een netwerkshare. Door 2 losse IP adressen te gebruiken wilde ik 2 routes afdwingen, maar dat hoeft volgens jou niet?
Verder denk ik dat de CPU impact wel mee zal vallen, het echte maken van de backup zal door Veeam worden gedaan op een vrij potente server (WS2019).
Ik heb het nog niet getest, maar ik denk dat dit met Veeam ook zo zal gaan, die benadert de syno gewoon als een netwerkshare. Door 2 losse IP adressen te gebruiken wilde ik 2 routes afdwingen, maar dat hoeft volgens jou niet?
Verder denk ik dat de CPU impact wel mee zal vallen, het echte maken van de backup zal door Veeam worden gedaan op een vrij potente server (WS2019).
[ Voor 8% gewijzigd door gastje01 op 10-02-2020 21:11 ]
Ik weet niet wat je precies doet met twee maal filetransfer, maar als je gewoon iets copieerd met de windows verkenner dan werkt dat niet.
De verkenner gebruikt gewoon maar een connectie naar dezelfde share, dus alles gaat dan door dezelfde poort.
Volgens mij heb ik nergens gezegd dat twee verschillende ipadressen gebruiken niet werkt, dat zou moeten werken.
Je moet dan uiteraard geen bond meer gebruiken.
Wat je ook zou kunnen proberen is twee shares op te zetten om zo parallel te werken.
Die shares kunnen op de Nas naar dezelfde locatie wijzen als dat nodig is.
De verkenner gebruikt gewoon maar een connectie naar dezelfde share, dus alles gaat dan door dezelfde poort.
Volgens mij heb ik nergens gezegd dat twee verschillende ipadressen gebruiken niet werkt, dat zou moeten werken.
Je moet dan uiteraard geen bond meer gebruiken.
Wat je ook zou kunnen proberen is twee shares op te zetten om zo parallel te werken.
Die shares kunnen op de Nas naar dezelfde locatie wijzen als dat nodig is.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik gebruik al vele jaren mijn Synology NAS naar volle tevredenheid (DS214+) en ik gebruik mijn NAS ook al jaren als VPN server (Open VPN).
Nu kan ik als ik in het buitenland ben nooit een VPN verbinding maken, ik kom daar natuurlijk pas achter als ik in het buitenland ben, en aangezien dit meestal voor een weekendje is, is dit normaal geen probleem.
Nu wil ik eens kijken bij welke instelling dit weg komt, maar ik zal wel gek worden, maar ik kan het nergens vinden
Bij de VPN server opties staat zoiets niet bij.
Bij firewall regels staat locatie niet aangevinkt.
Waar kan ik deze instelling vinden
Nu kan ik als ik in het buitenland ben nooit een VPN verbinding maken, ik kom daar natuurlijk pas achter als ik in het buitenland ben, en aangezien dit meestal voor een weekendje is, is dit normaal geen probleem.
Nu wil ik eens kijken bij welke instelling dit weg komt, maar ik zal wel gek worden, maar ik kan het nergens vinden
Bij de VPN server opties staat zoiets niet bij.
Bij firewall regels staat locatie niet aangevinkt.
Waar kan ik deze instelling vinden
Zal hoogst waarschijnlijk niets met je Nas te maken hebben, maar met de internet connectie die je in het buitenland hebt.
Heel veel internetconnecties in hotels, bedrijven, publieke wifi etc laten enkel http verkeer door.
Je kunt proberen je OpenVPN verbinding op poort 433 te zetten, die laten ze meestal wel door.
Heel veel internetconnecties in hotels, bedrijven, publieke wifi etc laten enkel http verkeer door.
Je kunt proberen je OpenVPN verbinding op poort 433 te zetten, die laten ze meestal wel door.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik heb een WebDAV-verbinding gemaakt via de Synology GUI. Nou wil ik die WebDAV-mount via command line benaderen. Maar... Waar staat 'ie? Ik ben van Ubuntu 'gewend' om het handmatig te configureren, waarbij ik zelf het mountpoint definieer.
@Grolsch Het kan ook aan je firewall-instellingen liggen. Je kan vrij gemakkelijk verbindingen uit het buitenland blokkeren (lijkt niet 100% waterdicht te zijn, maar dat terzijde).
@Grolsch Het kan ook aan je firewall-instellingen liggen. Je kan vrij gemakkelijk verbindingen uit het buitenland blokkeren (lijkt niet 100% waterdicht te zijn, maar dat terzijde).
[ Voor 27% gewijzigd door sOid op 11-02-2020 18:12 ]
Als je die locatie niet weet is het misschien slimmer je tot de gui te beperken.
Maar het is uiteraard gewoon op de share dus je gebruikt en die dus te vinden op:
/volume1/<sharename>
Of op een ander volume nummer als je er mneer hebt.
Maar het is uiteraard gewoon op de share dus je gebruikt en die dus te vinden op:
/volume1/<sharename>
Of op een ander volume nummer als je er mneer hebt.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Krijg momenteel een beetje de sch**t van Synology. Na net gerecovered te zijn (dacht ik) van een volume crash is hij weer eens niet bereikbaar. Kom thuis, blijft het blauwe lampje knipperen, verder niets. Beetje googlen, kom ik hier uit:
https://www.synology.com/...ED_is_flashing_constantly
Ik heb geen externe apparaten, schijven heb ik verwijderd, nog steeds hetzelfde. Nog iets vreemds is, ik kan hem ook niet uitzetten, hij gaat automatisch weer aan. Stroom eraf en erop = automatisch inschakelen, blauwe lampje blijft knipperen. Zou dit het probleem zijn wat hier laatst voorbij kwam met die bagger CPU batch oid? Natuurlijk heb ik weer die pech... Benieuwd of er meer zijn hier met deze ervaringen?
https://www.synology.com/...ED_is_flashing_constantly
Ik heb geen externe apparaten, schijven heb ik verwijderd, nog steeds hetzelfde. Nog iets vreemds is, ik kan hem ook niet uitzetten, hij gaat automatisch weer aan. Stroom eraf en erop = automatisch inschakelen, blauwe lampje blijft knipperen. Zou dit het probleem zijn wat hier laatst voorbij kwam met die bagger CPU batch oid? Natuurlijk heb ik weer die pech... Benieuwd of er meer zijn hier met deze ervaringen?
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Waarom zou dat slimmer zijn? Ik weet prima hoe ik basisscriptjes moet schrijven enzo, en daar heb ik het voor nodigBen(V) schreef op dinsdag 11 februari 2020 @ 21:04:
Als je die locatie niet weet is het misschien slimmer je tot de gui te beperken.
Maar het is uiteraard gewoon op de share dus je gebruikt en die dus te vinden op:
/volume1/<sharename>
Of op een ander volume nummer als je er mneer hebt.
Ik keek al bij /volume1 maar daar staat dus niks tussen. Ik zie daar (shares die ik zelf heb aangemaakt uit overzicht verwijderd):
code:
1
2
3
4
5
6
7
8
| @AntiVirus @docker music @SynologyApplicationService @appstore @download photo @synologydrive @autoupdate **** **** @SynologyDriveShareSync ******* ****** @Plex.core.gz *********** @cloudsync @eaDir @quarantine @tmp **** homes @S2S ***************** @database @iSCSI @SynoFinder-log video docker ***** @synologrotated.core |
Waar zou het dan om kunnen gaan? Ik heb al wat voor mij onbekende shares benaderd, maar daar staat m'n WebDAV-connectie met Stackstorage niet tussen

@Sp33dFr34k Heb je eventuele extra geheugenmodule ook verwijderd?
Webdav is enkel een protocol en verder niets.
Als jij een connectie met webdav maakt dan log je alleen maar in op je Nas met het webdsv protocol.
Daarna zijn de shares waar die user rechten op heeft beschikbaar.
Er is dus helemaal geen specifieke webdav mount.
Als jij een connectie met webdav maakt dan log je alleen maar in op je Nas met het webdsv protocol.
Daarna zijn de shares waar die user rechten op heeft beschikbaar.
Er is dus helemaal geen specifieke webdav mount.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Dat hij weer opstart nadat de de power eraf gehaalt hebt is normaal, dat is een instelling in je controle panelSp33dFr34k schreef op woensdag 12 februari 2020 @ 18:15:
Krijg momenteel een beetje de sch**t van Synology. Na net gerecovered te zijn (dacht ik) van een volume crash is hij weer eens niet bereikbaar. Kom thuis, blijft het blauwe lampje knipperen, verder niets. Beetje googlen, kom ik hier uit:
https://www.synology.com/...ED_is_flashing_constantly
Ik heb geen externe apparaten, schijven heb ik verwijderd, nog steeds hetzelfde. Nog iets vreemds is, ik kan hem ook niet uitzetten, hij gaat automatisch weer aan. Stroom eraf en erop = automatisch inschakelen, blauwe lampje blijft knipperen. Zou dit het probleem zijn wat hier laatst voorbij kwam met die bagger CPU batch oid? Natuurlijk heb ik weer die pech... Benieuwd of er meer zijn hier met deze ervaringen?
Maar zonder disken en dus zonder Dsm is dat wel vreemd.
Hoe ging de moederbord test?
[ Voor 3% gewijzigd door Ben(V) op 12-02-2020 20:27 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik heb het originele RAM latje er terug in gestopt en nu draait ie al zo'n 2,5 uur. Ik had eerder ook al de SSD's eruit gehaald. Fijn die compatibiliteitsproblemen... eerder zei hij dat schijf 4 een probleem had terwijl de extended smart test wel gewoon passed is erna. Even kijken hoe ik een moederbord test uitvoer...
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Wellicht gebruik ik de termen verkeerd. Maar anyway, ik heb gevonden wat ik zocht in /etc/mtab. Blijkbaar wordt de WebDAV-connectie weggeschreven onder /var/tmp/user/1026/gvfs/dav:host=<eenhelehooppersoonlijkeinfo>Ben(V) schreef op woensdag 12 februari 2020 @ 20:17:
Webdav is enkel een protocol en verder niets.
Als jij een connectie met webdav maakt dan log je alleen maar in op je Nas met het webdsv protocol.
Daarna zijn de shares waar die user rechten op heeft beschikbaar.
Er is dus helemaal geen specifieke webdav mount.
Ben benieuwd of dit altijd zo blijft, ook na een reboot. Zal wel niet, gezien /tmp.
Gebruik ik ook. Is bij mij altijd gelijk gebleven.sOid schreef op woensdag 12 februari 2020 @ 21:15:
[...]
Wellicht gebruik ik de termen verkeerd. Maar anyway, ik heb gevonden wat ik zocht in /etc/mtab. Blijkbaar wordt de WebDAV-connectie weggeschreven onder /var/tmp/user/1026/gvfs/dav:host=<eenhelehooppersoonlijkeinfo>
Ben benieuwd of dit altijd zo blijft, ook na een reboot. Zal wel niet, gezien /tmp.
kraades in "[Synology] Vraag en antwoord - deel 2"
👉🏻 Blog 👈🏻
Ha, goed om te lezen! Ik zie dat je er oorspronkelijk wat problemen mee had. Zijn die opgelost? Is de verbinding stabiel genoeg om er backups naar weg te schrijven? (Ga ik met borgbackup doen, mocht je dat kennen.)kraades schreef op woensdag 12 februari 2020 @ 21:22:
[...]
Gebruik ik ook. Is bij mij altijd gelijk gebleven.
kraades in "[Synology] Vraag en antwoord - deel 2"
Een tmp folder is per definitie niet gegarandeerd beschikbaar.
Snap ook hekemaal niet wat je daar wilt, gebruik gewoon een share zou ik zeggen.
Snap ook hekemaal niet wat je daar wilt, gebruik gewoon een share zou ik zeggen.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Inmiddels is de verbinding stabiel genoeg.sOid schreef op woensdag 12 februari 2020 @ 21:27:
[...]
Ha, goed om te lezen! Ik zie dat je er oorspronkelijk wat problemen mee had. Zijn die opgelost? Is de verbinding stabiel genoeg om er backups naar weg te schrijven? (Ga ik met borgbackup doen, mocht je dat kennen.)
Voor het probleem met de sparse files en Hyper backup is een niet ondersteunde workaround.
Zoek naar gijs.io in https://www.transip.nl/kn...k-mijn-synology-koppelen/.
👉🏻 Blog 👈🏻
Als jij een manier hebt om die WebDAV-verbinding met Stack als nette share te maken, hou ik me aanbevolen. Ik heb het iig niet gevonden.Ben(V) schreef op woensdag 12 februari 2020 @ 21:29:
Een tmp folder is per definitie niet gegarandeerd beschikbaar.
Snap ook hekemaal niet wat je daar wilt, gebruik gewoon een share zou ik zeggen.
In een script moet ik verwijzen naar een map op die verbinding, dus dan heb ik toch echt dat pad nodig.
Elke share heeft toch gewoon een locatie onder volume1.
Zoals ik al zei is webdav enkel een protocol en als je een connectie hebt kun je bij elke share komen als de rechten maar goed staan.
Lijkt me niet handig voor zoiets een locatie onder /var/tmp te gebruiken.
Die zit op de systeem partitie en daar heb je maar beperkte ruimte en als je de systeem partitie vol laat lopen stopt je systeem.
Zoals ik al zei is webdav enkel een protocol en als je een connectie hebt kun je bij elke share komen als de rechten maar goed staan.
Lijkt me niet handig voor zoiets een locatie onder /var/tmp te gebruiken.
Die zit op de systeem partitie en daar heb je maar beperkte ruimte en als je de systeem partitie vol laat lopen stopt je systeem.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Welke ram had je er dan in gestopt of had je er soms meer dan 8GB in totaal?Sp33dFr34k schreef op woensdag 12 februari 2020 @ 20:54:
Ik heb het originele RAM latje er terug in gestopt en nu draait ie al zo'n 2,5 uur. Ik had eerder ook al de SSD's eruit gehaald. Fijn die compatibiliteitsproblemen... eerder zei hij dat schijf 4 een probleem had terwijl de extended smart test wel gewoon passed is erna. Even kijken hoe ik een moederbord test uitvoer...
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik heb helaas niet al te veel kennis van synology en linux. Sinds kort echter de trotse eigenaar van een DS218+ en wil graag een script gebruiken om data van locatie x naar locatie Y te verplaatsen. de data die verplaatst wordt zijn foto`s die d.m.v. synology moments app op de telefoon gesynchroniseerd worden naar de homes van gebruikers. nu heb ik onderstaand script gemaakt, maar hij lijkt niet te werken. zouden jullie me kunnen helpen hiermee ? Wil graag dat duplicaten niet meegekopieerd worden. Heb verder alles geanonimiseerd in het script, maar er zit een spatie tussen telefoon en gebruikersnaam om de map zo heet.
rsync -a -v --ignore-existing --protect-args"/volume1/homes/gebruikernaam/drive/moments/mobile/telefoon" "/volume1/photo/jaar/telefoon gebruikernaam"
rsync -a -v --ignore-existing --protect-args"/volume1/homes/gebruikernaam/drive/moments/mobile/telefoon" "/volume1/photo/jaar/telefoon gebruikernaam"
Het zal dan wel toeval zijn, maar ik heb nog nooit in het buitenland een VPN verbinding op kunnen zetten, geprobeerd via 3G/4G/WiFi/etc.Ben(V) schreef op dinsdag 11 februari 2020 @ 13:16:
Zal hoogst waarschijnlijk niets met je Nas te maken hebben, maar met de internet connectie die je in het buitenland hebt.
Heel veel internetconnecties in hotels, bedrijven, publieke wifi etc laten enkel http verkeer door.
Je kunt proberen je OpenVPN verbinding op poort 433 te zetten, die laten ze meestal wel door.
De enigste plek die ik ken / weet waar je iets van een locatie kunt aangeven zit in de firewall regels, maar daar staat het niet aan:

Beetje overbodig dat met rsync te doen.wolfstein89 schreef op donderdag 13 februari 2020 @ 11:20:
Ik heb helaas niet al te veel kennis van synology en linux. Sinds kort echter de trotse eigenaar van een DS218+ en wil graag een script gebruiken om data van locatie x naar locatie Y te verplaatsen. de data die verplaatst wordt zijn foto`s die d.m.v. synology moments app op de telefoon gesynchroniseerd worden naar de homes van gebruikers. nu heb ik onderstaand script gemaakt, maar hij lijkt niet te werken. zouden jullie me kunnen helpen hiermee ? Wil graag dat duplicaten niet meegekopieerd worden. Heb verder alles geanonimiseerd in het script, maar er zit een spatie tussen telefoon en gebruikersnaam om de map zo heet.
rsync -a -v --ignore-existing --protect-args"/volume1/homes/gebruikernaam/drive/moments/mobile/telefoon" "/volume1/photo/jaar/telefoon gebruikernaam"
Gebruik gewoon het cp commando:
dus bijvoorbeeld:
DIe -n (-noclobber) zorgt ervoor dat een bestand niet overschreven wordt.cp -n "/volume1/homes/gebruikernaam/drive/moments/mobile/telefoon/*.jpg" "/volume1/photo/jaar/telefoon gebruikernaam"
Zet dat in de taakpalnner en laat het bijvoorbeeld elke nacht draaien ( of om de 5 minuten als je dat zou willen).
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Nou, blijkbaar heeft die dus geen share bij /volume1. Zie niks staan. Ook niet als ik inlog als root. Overigens gebruik ik het al een tijd met Duplicatie (daar wil ik om verschillende redenen van af) en heb nog nooit problemen gehad met de beperkte ruimte die jij beschrijft, maar dat is goed om in het achterhoofd te houden.Ben(V) schreef op woensdag 12 februari 2020 @ 22:22:
Elke share heeft toch gewoon een locatie onder volume1.
Zoals ik al zei is webdav enkel een protocol en als je een connectie hebt kun je bij elke share komen als de rechten maar goed staan.
Lijkt me niet handig voor zoiets een locatie onder /var/tmp te gebruiken.
Die zit op de systeem partitie en daar heb je maar beperkte ruimte en als je de systeem partitie vol laat lopen stopt je systeem.
@kraades Thanks, dat bevestigt mijn vermoeden. Ga ik indd aan Synology support vragen. Zal het hier wel terugkoppelen als ik wat van ze hoor
Dan kijk je toch echt met je neus.
In de listing die je een aantal post terug plaatste kan ik zo een handvol shares zien staan.
Zoals:
video, music, dockers, homes enz enz.
In de listing die je een aantal post terug plaatste kan ik zo een handvol shares zien staan.
Zoals:
video, music, dockers, homes enz enz.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ja, maar dus niets van WebDAV/Stack. Dat zijn allemaal lokale shares, gewoon op de harddisks in de NAS. Heb ze allemaal stuk voor stuk benaderd zonder de data tegen te komen die ik verwacht.Ben(V) schreef op donderdag 13 februari 2020 @ 18:59:
Dan kijk je toch echt met je neus.
In de listing die je een aantal post terug plaatste kan ik zo een handvol shares zien staan.
Zoals:
video, music, dockers, homes enz enz.
Aangezien je @kraades en mij blijkbaar niet gelooft, zou ik zeggen: probeer zelf eens een verbinding met een WebDAV-server te maken. Benieuwd of het bij jou wel onder /volume1 komt te staan.
@sOid Als je zeker weet dat de gebruikersrechten goed staan dan moet het ergens in je scriptje/commando niet goed staan. Synology doet wel eens raar. Webdav gebruik ik niet maar bijv. bij afp moet je hostname.local doen ipv alleen hostname en bij ftp achter de folder naam hoort een / anders werkt het niet. Misschien is jouw probleem ook zo iets sufs.
Je kunt in File Station ( tools pulldown) gewoon een remote connection maken met WebDAV naar waar je ook toe wilt.
Zie echt je probleem niet maar dat zal wel aan mij liggen.
Zie echt je probleem niet maar dat zal wel aan mij liggen.
[ Voor 5% gewijzigd door Ben(V) op 13-02-2020 21:50 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik ben al een tijdje aan het proberen om traefik aan de praat te krijgen op mijn Synology 918+ NAS. Situatie is dat ik momenteel een 6 tal dockers heb draaien (Radarr, Sonarr, Plex) en deze draaien allemaal op verschillende poorten. Nu wil ik graag met mijn eigen domein laten draaien op https://radarr.eigendomein.nl.
Maar alles bij elkaar krijg ik het helaas nog niet werken met Traefik 2.0. Uiteraard heb ik poort 80 en 443 al vrij gemaakt op de NAS. Momenteel krijg op mijn domein (of op het ip adres van de nas) netjes op poort 80 al wel een 404 not found (geserveerd door traefik).
In mijn Google zoektochten kom ik veel voorbeelden tegen maar niet i.c.m. een docker op een synology nas helaas. Heeft iemand misschien een voorbeeld docker-compose & traefik.yml ?
Na een paar uur verder heb ik eindelijk een aantal dingen werken (of eigenlijk weer niet). Inmiddels is mijn applicatie bereikbaar vanaf "bazarr.domeinnaam.nl". Alleen traefik dasbhoard is nu weer niet te bereiken, terwijl ik deze eerst wel werkend heb gehad. Misschien is het makkelijk dat ik mijn docker-compose hier even plak. Ik heb bij het inrichten nog niet op de security gelet, en dit is ook iets wat als alles werkt ook ga aanpakken. Maar graag zou ik eerst alles werken willen hebben. Momenteel krijg ik op het dashboard een bad gateway error. (www.domein.nl) maar het subdomein werkt prima.
docker-compose pastbin
Maar alles bij elkaar krijg ik het helaas nog niet werken met Traefik 2.0. Uiteraard heb ik poort 80 en 443 al vrij gemaakt op de NAS. Momenteel krijg op mijn domein (of op het ip adres van de nas) netjes op poort 80 al wel een 404 not found (geserveerd door traefik).
In mijn Google zoektochten kom ik veel voorbeelden tegen maar niet i.c.m. een docker op een synology nas helaas. Heeft iemand misschien een voorbeeld docker-compose & traefik.yml ?
Na een paar uur verder heb ik eindelijk een aantal dingen werken (of eigenlijk weer niet). Inmiddels is mijn applicatie bereikbaar vanaf "bazarr.domeinnaam.nl". Alleen traefik dasbhoard is nu weer niet te bereiken, terwijl ik deze eerst wel werkend heb gehad. Misschien is het makkelijk dat ik mijn docker-compose hier even plak. Ik heb bij het inrichten nog niet op de security gelet, en dit is ook iets wat als alles werkt ook ga aanpakken. Maar graag zou ik eerst alles werken willen hebben. Momenteel krijg ik op het dashboard een bad gateway error. (www.domein.nl) maar het subdomein werkt prima.
docker-compose pastbin
[ Voor 30% gewijzigd door Senaxx op 14-02-2020 04:06 ]
@Senaxx Om eerlijk te zijn is het mij ook nooit gelukt om Traefik werkend te krijgen. Ik heb jouw beoogde setup echter wel werkend gekregen met de reverse proxy van Synology zelf, die kun je vinden in de application portal.
@Ben(V) Ja ik had er 16GB in zitten, heb nu het originele 4GB stickje weer teruggezet. Als dit zo stabiel blijft draaien dan koop ik er wel een 4GB Synology stickje bij, want ik zie dat ik standaard al aan de 50% RAM gebruik zit momenteel.
@Ben(V) Ja ik had er 16GB in zitten, heb nu het originele 4GB stickje weer teruggezet. Als dit zo stabiel blijft draaien dan koop ik er wel een 4GB Synology stickje bij, want ik zie dat ik standaard al aan de 50% RAM gebruik zit momenteel.
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Probleem is niet de compatibility van het geheugen maar het feit dat de cpu die in jouw Nas zit maximaal 8GB kan adresseren.
Als je er meer instopt krijg je hele rare problemen.
En hoeveel ram er echt in gebruik is kun je niet zomaar zien onder Linux.
Linux laat elk proces dat eens is opgestart gewoon in memory staan, totdat dat geheugen ergens anders voor nodig is, die 50% is dus een nietszeggend getal.
Pas als je systeem naar disk gaat swappen heb je te weinig geheugen.
Dat gebeurd niet zo gauw, het is Linux en geen geheugenvreter zoals windows.
Als je er meer instopt krijg je hele rare problemen.
En hoeveel ram er echt in gebruik is kun je niet zomaar zien onder Linux.
Linux laat elk proces dat eens is opgestart gewoon in memory staan, totdat dat geheugen ergens anders voor nodig is, die 50% is dus een nietszeggend getal.
Pas als je systeem naar disk gaat swappen heb je te weinig geheugen.
Dat gebeurd niet zo gauw, het is Linux en geen geheugenvreter zoals windows.
[ Voor 51% gewijzigd door Ben(V) op 14-02-2020 14:49 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Een vraagje tussendoor.
Ik heb nog een DS411+II staan die ik eigenlijk wil voorzien van iets meer opslagruimte.
Van origine accepteerd deze maximaal 3TB schijven (4x3=12TB). Weet iemand of deze limiet nog steeds actief is of immiddels door software updates iets opgerekt is.
Edit:
Als ik volgende link mag geloven zit er een 64-bit (x64) CPU in dit model, dus dat zal het probleem niet zijn.
https://www.synology.com/...le_volume_size_limitation
Ik zou natuurlijk een grotere schijf kunnen kopen en kijken of het werkt, maar ik heb liever de bevestiging vooraf. Dan hoef ik niets terug te sturen als het niet blijkt te werken.
Ik heb nog een DS411+II staan die ik eigenlijk wil voorzien van iets meer opslagruimte.
Van origine accepteerd deze maximaal 3TB schijven (4x3=12TB). Weet iemand of deze limiet nog steeds actief is of immiddels door software updates iets opgerekt is.
Edit:
Als ik volgende link mag geloven zit er een 64-bit (x64) CPU in dit model, dus dat zal het probleem niet zijn.
https://www.synology.com/...le_volume_size_limitation
Ik zou natuurlijk een grotere schijf kunnen kopen en kijken of het werkt, maar ik heb liever de bevestiging vooraf. Dan hoef ik niets terug te sturen als het niet blijkt te werken.
[ Voor 45% gewijzigd door pickboy op 14-02-2020 15:17 ]
Ik ben al een tijdje tevreden gebruiker van Synology Drive. Prima replacement van Dropbox. Ik vraag me al een tijdje iets af, namelijk het verschil tussen "team folders" en "shared with me". Kan iemand me dit uitleggen?

Nee die limiet was gewoon de grootste schijf die bestond toen dat model uitgebracht werd.pickboy schreef op vrijdag 14 februari 2020 @ 15:12:
Een vraagje tussendoor.
Ik heb nog een DS411+II staan die ik eigenlijk wil voorzien van iets meer opslagruimte.
Van origine accepteerd deze maximaal 3TB schijven (4x3=12TB). Weet iemand of deze limiet nog steeds actief is of immiddels door software updates iets opgerekt is.
Edit:
Als ik volgende link mag geloven zit er een 64-bit (x64) CPU in dit model, dus dat zal het probleem niet zijn.
https://www.synology.com/...le_volume_size_limitation
Ik zou natuurlijk een grotere schijf kunnen kopen en kijken of het werkt, maar ik heb liever de bevestiging vooraf. Dan hoef ik niets terug te sturen als het niet blijkt te werken.
De echte limiet staat in de link die je zelf gaf.
Denk er wel aan dat je als je grotere schijven in wilt zetten je dat een voor een moet doen, dat je tussendoor moet wachten tot hij klaar is met z'n recovery en dat je de extra ruimte pas krijgt nadat de twee schijven vervangen hebt.
Als je geen Shr hebt maar raid 5 krijg je die extra ruimte pas als je vier schijven vervangen hebt.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik maak eerst een kopie op een externe schijf. Dan kan ik ze in 1 keer vervangen en daarna de kopie terugzetten.Ben(V) schreef op vrijdag 14 februari 2020 @ 18:37:
[...]
Nee die limiet was gewoon de grootste schijf die bestond toen dat model uitgebracht werd.
De echte limiet staat in de link die je zelf gaf.
Denk er wel aan dat je als je grotere schijven in wilt zetten je dat een voor een moet doen, dat je tussendoor moet wachten tot hij klaar is met z'n recovery en dat je de extra ruimte pas krijgt nadat de twee schijven vervangen hebt.
Als je geen Shr hebt maar raid 5 krijg je die extra ruimte pas als je vier schijven vervangen hebt.
Dat kan maar dan ben je ook al je package kwijt en moet je die opnieuw installeren en configureren.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Update over mijn rare perikelen. Ik kreeg ooit een melding over disk 4 dat hier iets mis mee zou zijn. Ik heb daarop (na het terugzetten van het originele geheugen) een SMART test uitgevoerd, snelle was sowieso goed, uitgebreide duurde een hele dag voor een 4TB schijf. Die was ook goed. Ik heb de schijf daarna verwijderd uit de NAS, in de PC nogmaals uitgebreide SMART test gedaan met de WD software, die was ook goed. Toch had ik nog steeds wat probleempjes. Dus ik heb de NAS aangezet zonder schijf 4, uitgezet en weer gerepareerd met schijf 4 erin. Het lijkt nu vooralsnog een stuk beter te zijn qua snelheid, en nog geen probleempjes tegengekomen. Ik weet dat ie officieel gezien problemen zelf zou moeten kunnen herstellen, maar ik heb het idee dat het nu toch een stuk beter is... To be continued?
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Ik heb hier een DS918 met 2 volumes maar heb dit teruggebracht naar 1.
Volume 1 gaat weg heb alles overgezet naar volume 2.
Maar als ik volume 1 wil verwijderen zegt hij dat er een package nog gebruik maakt van volume 1.
Drive maar die staat op volume 2 evenals de database van drive.
wat zie ik over het hoofd?
Volume 1 gaat weg heb alles overgezet naar volume 2.
Maar als ik volume 1 wil verwijderen zegt hij dat er een package nog gebruik maakt van volume 1.
Drive maar die staat op volume 2 evenals de database van drive.
wat zie ik over het hoofd?
@ComTech misschien te maken dat de standaard package locatie nog ingesteld staat op volume 1 (Package center / Instellingen / standaardvolume)?
@bluecupra
Ook die heb ik goed staan had dat gelijk gedaan toen ik begon met alle package opnieuw te installeren.
Ook die heb ik goed staan had dat gelijk gedaan toen ik begon met alle package opnieuw te installeren.
@ComTech Heb je na herinstallatie van de package de NAS eens opnieuw opgestart?
Herstarten ja dat is natuurlijk wel een goeie
Morgenavond maar eens proberen !
Morgenavond maar eens proberen !
Let op:
Dit topic is onderdeel van de drie topics over Synology:In dit Vraag en Antwoord topic mogen alle vragen over Synology-producten tenzij:
Dit topic is onderdeel van de drie topics over Synology:In dit Vraag en Antwoord topic mogen alle vragen over Synology-producten tenzij:
- ... het een vraag betreft over een addon package voor Synology; daar is een apart topic voor.
- ... het een aankondiging of discussie-item betreft wat in het Nieuws en discussie topic hoort.
- ... jouw vraag al beantwoord is in de Veelgestelde vragen (FAQ).