In Docker draaien dan kan je gewoon de nieuwste "pullen", cursus Docker is een apart item dat kan je vinden op internetwvkreg schreef op woensdag 26 april 2017 @ 11:37:
Wanneer komt er eens een update voor NZBget? 16.4 is wel erg oud nu. Op het synoforum vind ik geen antwoord. Iemand hier een idee? Ben tijdelijk maar naar Sabnzbd geswitcht, maar die is logger en soms wat traag, zelfs op een DS916+ met 8GB
Ik wil hier eigenlijk niet aan beginnen. Zie geen voordelen in Docker behalve dat dan dus 
Maar beetje teveel custom..
Maar beetje teveel custom..
Dan overzie je het grote security voordeel, docker draait autonoom processen zonder root/access in je echte DSM OS. Ik heb alle downloaders gemigreerd naar Docker.wvkreg schreef op woensdag 26 april 2017 @ 11:41:
Ik wil hier eigenlijk niet aan beginnen. Zie geen voordelen in Docker behalve dat dan dus
Maar beetje teveel custom..
Synology heeft in DSM 6.x de regels voor 3thparty packages aangescherpt waardoor het ineens niet zo gemakkelijk is om e.a. te programmeren omdat security een hele grote rol speelt. Ze weren steeds meer zaken uit het OS of maken het complexer en in dat laatste geval overzien programmeurs het soms niet en laten de hobby vallen.
Docker is the future ;-) dat zie je al aan het feit dat de grootste package community met NZBget op 16 is blijven steken. My2cents...
[ Voor 37% gewijzigd door stormfly op 26-04-2017 11:53 ]
Ik heb zelf ook een poging gewaagd met docker maar kreeg auto processing niet voor elkaar. ik liep tegen problemen met rechten e.d. aan. Files die gelocked waren en dergelijk. Omdat ik geen oplossing heb kunnen vinden heb ik alles maar weer terug gezet via de synology packages.stormfly schreef op woensdag 26 april 2017 @ 11:50:
[...]
Dan overzie je het grote security voordeel, docker draait autonoom processen zonder root/access in je echte DSM OS. Ik heb alle downloaders gemigreerd naar Docker.
Ik maak gebruik van Couchpotato, Sickrage en NZBget, mocht er iemand een duidelijke instructie hebben of tips waar op te letten dan houd ik me aanbevolen ;-), ik ben er intussen wel uit dat Docker echt een verademing is!
Enige wat ik binnen docker nog mis is de mogelijkheid om een container live te zetten welke gewoon een IP in mijn lan krijgt, zonder hiervoor iets in CLI te moeten doen.
Kan je aangeven, alleen bij het nieuw uitrollen van een container. Alleen dan heb je soms poortconflicten, maar dat meldt hij vanzelf ;-) Lees: je moet de synocommunity nzbget verwijderen voor dat je de docker nzbget op dezelfde nas opstarten, anders is 6789 al in gebruik.ironleg schreef op woensdag 26 april 2017 @ 11:55:
[...]
Enige wat ik binnen docker nog mis is de mogelijkheid om een container live te zetten welke gewoon een IP in mijn lan krijgt, zonder hiervoor iets in CLI te moeten doen.
Aangaande die howto, tja dat is voor iedereen specifiek hoe je zelf denkt over postprocessing.
klopt! De containers starten en het aanmaken van de volumes was het probleem niet.stormfly schreef op woensdag 26 april 2017 @ 12:01:
[...]
Kan je aangeven, alleen bij het nieuw uitrollen van een container. Alleen dan heb je soms poortconflicten, maar dat meldt hij vanzelf ;-) Lees: je moet de synocommunity nzbget verwijderen voor dat je de docker nzbget op dezelfde nas opstarten, anders is 6789 al in gebruik.
Aangaande die howto, tja dat is voor iedereen specifiek hoe je zelf denkt over postprocessing.
Ik had gebruik gemaakt van de linuxserver.io images en die deden het afzonderlijk van elkaar prima, echter enkel de post processing werkte niet echt lekker. Ik dacht dat het probleem was dat bij postprocessing de file gelocked was en daardoor postprocessing failed was.
Ik vermoed dat het in de nzb2media scripts iets te maken had met de setting van de remote file locations.
Ik bekijk docker eens. Ergens een manual te vinden?
Kijk hier eens voor NZBGet.wvkreg schreef op woensdag 26 april 2017 @ 17:01:
Ik bekijk docker eens. Ergens een manual te vinden?
Docker images kunnen standaard niet in elkaars mappen of containers. Als je de bovenstaande guide van Drfrankenstein.co.uk volgt dan moet je er wel uit komen. Belangrijk is dat je de mappen juist mapped en de gebruikers- en groepsid juist instelt. Het is even uitzoeken maar een verademing als het werkt.ironleg schreef op woensdag 26 april 2017 @ 12:10:
[...]
klopt! De containers starten en het aanmaken van de volumes was het probleem niet.
Ik had gebruik gemaakt van de linuxserver.io images en die deden het afzonderlijk van elkaar prima, echter enkel de post processing werkte niet echt lekker. Ik dacht dat het probleem was dat bij postprocessing de file gelocked was en daardoor postprocessing failed was.
Ik vermoed dat het in de nzb2media scripts iets te maken had met de setting van de remote file locations.
Alles wat aangeroepen wordt vanuit de docker moet verwijzen naar /downloads/, of hoe je deze ook linkt, /volume0/... is vanuit de docker niet benaderbaar.
[ Voor 8% gewijzigd door The_Worst op 26-04-2017 17:37 ]
If you hide your whole life, you'll forget who you even are. Uplay: TheWorstNL | Steam + Origin + PSN: The_Worst_NL
Ik zal het met deze manual nog eens proberen. Ik had in ieder geval wel in NZBget /downloads/ gemappend en op de Sickrage /tv/. Ik meen dat ik daarna ook nog op beide de /tv/ en een /downloads/ mapping aan gemaakt te hebben, omdat ik er vanuit ging dat als NZBget ging postprocessen hij niet in /tv/ kon komen.The_Worst schreef op woensdag 26 april 2017 @ 17:34:
[...]
Docker images kunnen standaard niet in elkaars mappen of containers. Als je de bovenstaande guide van Drfrankenstein.co.uk volgt dan moet je er wel uit komen. Belangrijk is dat je de mappen juist mapped en de gebruikers- en groepsid juist instelt. Het is even uitzoeken maar een verademing als het werkt.
Alles wat aangeroepen wordt vanuit de docker moet verwijzen naar /downloads/, of hoe je deze ook linkt, /volume0/... is vanuit de docker niet benaderbaar.
Ik ben ook met dat Docker gedoe bezig maar kom er ook niet uit. Ten eerste draait nzbget niet op poort 6789 maar op 32333 en ten tweede geeft hij de volgende messages:
Ik heb al geprobeerd om via de console van de container die mappen aan te maken in /downloads (die is dus wel correct gemapped) maar ook dat helpt niet. Aanmaken vanuit DSM ook niet. Ik zie vast iets simpels over het hoofd maar wat? Ik heb de guide van drfrankenstein gebruikt.
code:
1
2
3
4
5
| INFO Thu Apr 27 2017 00:47:42 nzbget 18.1 server-mode INFO Thu Apr 27 2017 00:47:42 Pausing all activities due to errors in configuration ERROR Thu Apr 27 2017 00:47:42 nzbget.conf(46): Invalid value for option "NzbDir" (/downloads/nzb): could not read information for directory /downloads/nzb: errno 13, Permission denied ERROR Thu Apr 27 2017 00:47:42 nzbget.conf(52): Invalid value for option "QueueDir" (/downloads/queue): could not read information for directory /downloads/queue: errno 13, Permission denied ERROR Thu Apr 27 2017 00:47:42 nzbget.conf(55): Invalid value for option "TempDir" (/downloads/tmp): could not read information for directory /downloads/tmp: errno 13, Permission denied |
Ik heb al geprobeerd om via de console van de container die mappen aan te maken in /downloads (die is dus wel correct gemapped) maar ook dat helpt niet. Aanmaken vanuit DSM ook niet. Ik zie vast iets simpels over het hoofd maar wat? Ik heb de guide van drfrankenstein gebruikt.
DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |
Aangaande de poort ben je het vinkje vergeten te zetten bij het aanmaken van de Docker (kan nu niet meer). Dat hij het netwerk van de host moet delen en niet via een dynamische poort.
Post eens een screenshot van je gedeelde volume mappen? Als je die guide exact gevolgd hebt werkt het niet, de mappen aan de nas kant (dus niet in de docker) moet je laten beginnen met /volumeX/downloads. Bij mij is dat volume 1.
Post eens een screenshot van je gedeelde volume mappen? Als je die guide exact gevolgd hebt werkt het niet, de mappen aan de nas kant (dus niet in de docker) moet je laten beginnen met /volumeX/downloads. Bij mij is dat volume 1.
[ Voor 26% gewijzigd door stormfly op 27-04-2017 08:00 ]
Ik heb laatst een 216+II aangeschaft met de hoop dat deze NAS mij de nodig performance zou geven om de nodige packages te draaien. Blijkt toch vies tegen te vallen, mijn oude WD live werkt eigenlijk stabieler als download apparaat.
Is het teveel om te verwachten dat NZBget, Radarr, Sonarr en Headphones naast elkaar draaien zonder al te veel problemen? Eventueel met een plex server ernaast?
Is het teveel om te verwachten dat NZBget, Radarr, Sonarr en Headphones naast elkaar draaien zonder al te veel problemen? Eventueel met een plex server ernaast?
@docker vragen
Als je de command line gebruikt kun je makkelijk sturen en documenteren voor als je later nog eens moet aanmaken.
Voorbeeld: kraades in "[Synology] Packages"
Let op de user en group id en bepaal van tevoren de structuur op je Synology en map deze naar wat de container verwacht. Gebruik eventueel links op de Synology (ln) om Bart elkaar te verwijzen.
Linuxserver.io heeft een hoop populaire applicaties die allemaal op dezelfde manier werken. Permissie problemen zijn niet aan de orde.
@lasaror
Dan is er denk ik iets anders aan de hand. Je nas moet dat aankunnen. Welke processen zijn er bovenaan? Via de gui of via htop commando te achterhalen.
Edit:
Waarom werkt de @ niet meer in mijn posts?
Als je de command line gebruikt kun je makkelijk sturen en documenteren voor als je later nog eens moet aanmaken.
Voorbeeld: kraades in "[Synology] Packages"
Let op de user en group id en bepaal van tevoren de structuur op je Synology en map deze naar wat de container verwacht. Gebruik eventueel links op de Synology (ln) om Bart elkaar te verwijzen.
Linuxserver.io heeft een hoop populaire applicaties die allemaal op dezelfde manier werken. Permissie problemen zijn niet aan de orde.
@lasaror
Dan is er denk ik iets anders aan de hand. Je nas moet dat aankunnen. Welke processen zijn er bovenaan? Via de gui of via htop commando te achterhalen.
Edit:
Waarom werkt de @ niet meer in mijn posts?
[ Voor 23% gewijzigd door technorabilia op 27-04-2017 08:32 ]
👉🏻 Blog 👈🏻
Ik heb downloads gemapped naar /volume1/download een niet zoals in de guide van @kraades naar /docker/nzbget/downloads. Dat verschil valt me zo op, kan het zijn dat docker geen rechten heeft op de Synology mappen?
DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |
Ik heb hetzelfde NAS, draai ook Sonarr en Radarr (binnen Docker) naast een hele rits andere native packages en Docker containers. De performance is uitstekend! Downloads gaan met maximaal 16 MB/s.lasharor schreef op donderdag 27 april 2017 @ 08:06:
Ik heb laatst een 216+II aangeschaft met de hoop dat deze NAS mij de nodig performance zou geven om de nodige packages te draaien. Blijkt toch vies tegen te vallen, mijn oude WD live werkt eigenlijk stabieler als download apparaat.
Is het teveel om te verwachten dat NZBget, Radarr, Sonarr en Headphones naast elkaar draaien zonder al te veel problemen? Eventueel met een plex server ernaast?
Heb wel de standaard 1GB RAM vervangen door 8GB. Vrij simpele ingreep (link) waardoor het NAS nu meer dan voldoende RAM tot z'n beschikking heeft.
Sorry ik maak een denkfout, iets te veel de linux pet op. Als je via de GUI mapped ipv CLI dan moet er het volgende staan.Arfman schreef op donderdag 27 april 2017 @ 08:56:
Ik heb downloads gemapped naar /volume1/download een niet zoals in de guide van @kraades naar /docker/nzbget/downloads. Dat verschil valt me zo op, kan het zijn dat docker geen rechten heeft op de Synology mappen?
De linker kolom is dan de echte locatie op de NAS en de rechter kolom is dan de map waarin de Docker moet kijken om (onderwater) op de echt map uit te komen van de NAS. In mijn setup als NZBget iets wegschrijft in config dan staat dat " persistent" op de NAS.
Dat wil zegen als ik de docker container weggooi en opnieuw deploy vanuit de backup file dat hij exact hetzelfde opstart als voordat ik hem weggooide. Dat mappen van de config wordt nog wel eens vergeten waardoor je bij het weggooien van de Docker (of updaten = weggooien) dan is al je werk weg.

[ Voor 22% gewijzigd door stormfly op 27-04-2017 09:21 ]
Het staat hetzelfde ingesteld bij mij en toch krijg ik nog steeds permission denied. Ik snap het niet, maar wel bedankt voor je replystormfly schreef op donderdag 27 april 2017 @ 09:20:
[...]
Sorry ik maak een denkfout, iets te veel de linux pet op. Als je via de GUI mapped ipv CLI dan moet er het volgende staan.
De linker kolom is dan de echte locatie op de NAS en de rechter kolom is dan de map waarin de Docker moet kijken om (onderwater) op de echt map uit te komen van de NAS. In mijn setup als NZBget iets wegschrijft in config dan staat dat " persistent" op de NAS.
Dat wil zegen als ik de docker container weggooi en opnieuw deploy vanuit de backup file dat hij exact hetzelfde opstart als voordat ik hem weggooide. Dat mappen van de config wordt nog wel eens vergeten waardoor je bij het weggooien van de Docker (of updaten = weggooien) dan is al je werk weg.![]()
[afbeelding]
DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |
Ik heb wel Everyone rechten gegeven op /downloads/Arfman schreef op donderdag 27 april 2017 @ 09:39:
[...]
Het staat hetzelfde ingesteld bij mij en toch krijg ik nog steeds permission denied. Ik snap het niet, maar wel bedankt voor je reply
@stormfly : dank u, dat was hem inderdaad!stormfly schreef op donderdag 27 april 2017 @ 09:40:
[...]
Ik heb wel Everyone rechten gegeven op /downloads/
Kan ik dit proces nu ook onder een eigen account draaien eigenlijk? Zodat mijn downloadsoftware niet bij mijn persoonlijke documenten kan? Just in case zegmaar?
DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |
Ondertussen weer iets verder. Ik heb host networking gebruikt en nu draait nzbget weer "gewoon" onder 6789. Prima. Ik snap ook iets meer van de achterliggende techniek van Docker en daarom kan ik het volgende probleem wel verklaren maar nog niet oplossen:
Import failed, path does not exist or is not accessible by Sonarr
Ik heb even een test TV show gedownload en dat gaat goed. Sonarr kijkt echter naar het pad wat nzbget aangeeft, dat is namelijk /downloads/complete/series/blabla. (dat geeft nzbget door aan Sonarr). Echter kan Sonarr niet bij /downloads/complete/series/blabla (dat is namelijk het pad wat nzbget in Docker ziet maar niet beschikbaar is buiten de container), die moet eigenlijk kijken naar /volume1/download/complete/series/blabla.
Goed, probleem omschreven, maar hoe fix ik dit?
EDIT: OK, gevonden
Ik heb Sonarr ook in een Docker container gegooid en de mappings hetzelfde gemaakt als in de nzbget container (dus /downloads naar /volume1/Download etc.). Nu kan hij ze wel zien en gaat netjes de bestanden verplaatsen.
Import failed, path does not exist or is not accessible by Sonarr
Ik heb even een test TV show gedownload en dat gaat goed. Sonarr kijkt echter naar het pad wat nzbget aangeeft, dat is namelijk /downloads/complete/series/blabla. (dat geeft nzbget door aan Sonarr). Echter kan Sonarr niet bij /downloads/complete/series/blabla (dat is namelijk het pad wat nzbget in Docker ziet maar niet beschikbaar is buiten de container), die moet eigenlijk kijken naar /volume1/download/complete/series/blabla.
Goed, probleem omschreven, maar hoe fix ik dit?
EDIT: OK, gevonden
Ik heb Sonarr ook in een Docker container gegooid en de mappings hetzelfde gemaakt als in de nzbget container (dus /downloads naar /volume1/Download etc.). Nu kan hij ze wel zien en gaat netjes de bestanden verplaatsen.
[ Voor 13% gewijzigd door Arfman op 27-04-2017 15:04 ]
DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |
@Arfman mooi spul hé?
Hebben jullie nog post process tips? Ik gebruikte jaren SickRage. Maar nu ook Sonarr erbij.
Welke heeft jullie voorkeur? Ben nu bezig ze beide te verwijzen naar dezelfde mappen. Zodat alle series niet dubbel binnenkomen.
Ik hoorde ook iets over NzbtoMedia als script?
Hebben jullie nog post process tips? Ik gebruikte jaren SickRage. Maar nu ook Sonarr erbij.
Welke heeft jullie voorkeur? Ben nu bezig ze beide te verwijzen naar dezelfde mappen. Zodat alle series niet dubbel binnenkomen.
Ik hoorde ook iets over NzbtoMedia als script?
Zeker mooi spul @stormfly
Ook wel handig als je het een beetje snapt 
Postprocessing
Ik laat Sonarr gewoon de boel afhandelen, die kan (net zoals Radarr) via de nzbget API uitlezen wanneer de download klaar is en waar hij staat, en Sonarr/Radarr verplaatsen de media dan vanzelf naar de folder die je aangeeft voor je series/films. Ik heb eerlijk gezegd nooit het nut gezien van post processing scripts, zelfs niet in de "ouderwetse" Sickbeard tijd.
Postprocessing
DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |
Eens die tijd is wel anders geworden ik kijk via de Apple TV met de laatste Infuse versie, die maakt het niets uit waar de files staan. Hij indexeert je NAS en geeft al het afspeelbare materiaal weer...dan hoef je eigenlijk niet te postprocessen omdat de speler dit al doet voor je.Arfman schreef op donderdag 27 april 2017 @ 15:19:
PostprocessingIk laat Sonarr gewoon de boel afhandelen, die kan (net zoals Radarr) via de nzbget API uitlezen wanneer de download klaar is en waar hij staat, en Sonarr/Radarr verplaatsen de media dan vanzelf naar de folder die je aangeeft voor je series/films. Ik heb eerlijk gezegd nooit het nut gezien van post processing scripts, zelfs niet in de "ouderwetse" Sickbeard tijd.
Maar ja als alles een beetje netjes in mappen staat is dat wel zo fijn. Kan je eens delen wat jij aan hebt gezet in Sonarr om het netjes weg te zetten?
Heeft er iemand de Autosub Docker container al draaiende? Hij start wel, vindt ook ondertiles. Maar er zijn een aantal dingen die niet echt goed lopen.
Ik tegen wat dingen aan die niet werken. In de repository staat het volgende
Wil ik ze mappen dan heb ik de volgende problemen: Ze moeten eerst bestaan, anders krijg ik ze niet ingevuld. Dus ik heb ze aangemaakt als lege files, maar dan sluit de container direct af. Na een tijdje prutsen kreeg ik de melding: Container does not excist. Vreemd, ik start hem immers op door hem aan te klikken. Maar dat zal een Syno probleem zijn. Toen ik alles gedelete had en opnieuw gedownload werkte het weer.
Ik heb wel de logfile buiten de container kunnen mappen. Blijkbaar is wat ik doe toch goed, anders werkte dit ook niet.
Wat me ook niet lukt is het gebruiken van een postproces file om de gevonden zaken te verplaatsen naar de uiteindelijke bestemming. Ik heb de postproces file 'naast' de log file staan en hem ook op dezelfde manier aangegeven in autosub. Ik krijg als foutmelding:
2017-04-05 16:01:30,842 ERROR downloadSubs: PostProcess: /bin/sh: 1: /usr/local/python/bin/python: not found
Met mijn normale versie van Autosub werkt het wel. Blijkbaar moet het anders worden uitgevoerd
Ik zit nu al weken te spitten maar ik kom er niet uit. Heeft iemand misschien nog wat tips?
Ik tegen wat dingen aan die niet werken. In de repository staat het volgende
Dir directory mapping werkt prima ik krijg ook netjes alles te zien. Maar waar ik tegenaan loop is dat de twee files niet te mappen zijn. Ik kan wel gewoon starten als ik de files niet map.You probably want to mount two files and one directory:
•Configuration file: config.properties
•Database file: database.db
•Your series directory: /my/series
Wil ik ze mappen dan heb ik de volgende problemen: Ze moeten eerst bestaan, anders krijg ik ze niet ingevuld. Dus ik heb ze aangemaakt als lege files, maar dan sluit de container direct af. Na een tijdje prutsen kreeg ik de melding: Container does not excist. Vreemd, ik start hem immers op door hem aan te klikken. Maar dat zal een Syno probleem zijn. Toen ik alles gedelete had en opnieuw gedownload werkte het weer.
Ik heb wel de logfile buiten de container kunnen mappen. Blijkbaar is wat ik doe toch goed, anders werkte dit ook niet.
Wat me ook niet lukt is het gebruiken van een postproces file om de gevonden zaken te verplaatsen naar de uiteindelijke bestemming. Ik heb de postproces file 'naast' de log file staan en hem ook op dezelfde manier aangegeven in autosub. Ik krijg als foutmelding:
2017-04-05 16:01:30,842 ERROR downloadSubs: PostProcess: /bin/sh: 1: /usr/local/python/bin/python: not found
Met mijn normale versie van Autosub werkt het wel. Blijkbaar moet het anders worden uitgevoerd
Ik zit nu al weken te spitten maar ik kom er niet uit. Heeft iemand misschien nog wat tips?
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
@Ortep indien je Plex gebruikt raad ik je aan om naar Sub-Zero te kijken, dan gebeurt het via Plex.
Het leven is als een medaille, het heeft een glimmende en een donkere kant.
@Ortep
Welke image?
Welke image?
Heb je niet perse nodig. In de basis werkt het ook zonder.stormfly schreef op donderdag 27 april 2017 @ 15:17:
@Arfman mooi spul hé?
Ik hoorde ook iets over NzbtoMedia als script?
[ Voor 86% gewijzigd door technorabilia op 27-04-2017 16:13 ]
👉🏻 Blog 👈🏻
Plex? Nee, dat gebruik ik niet.Mentox schreef op donderdag 27 april 2017 @ 16:10:
@Ortep indien je Plex gebruikt raad ik je aan om naar Sub-Zero te kijken, dan gebeurt het via Plex.
widdpim/autosub-bootstrapbill
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
Ja lastig ik heb autosub ook nooit werkend gekregen maar er lijken er meer bijgekomen te zijn.Ortep schreef op donderdag 27 april 2017 @ 16:17:
widdpim/autosub-bootstrapbill
https://hub.docker.com/r/wilcoe/auto-sub/
https://hub.docker.com/r/mbuurman/auto-sub/
https://hub.docker.com/r/r0gger/autosub-bootstrapbill/
https://hub.docker.com/r/widdpim/autosub-bootstrapbill/
Daarvan moet er toch minimaal 1 werkend te krijgen zijn
Die widdpim gaat mij mij ook niet vanzelf, als ik de files leeg aanmaak dan start hij met een db upgrade. Maar ja die files zijn leeg aangemaakt dus die faalt 
Laat ik die files weg dan krijg ik andere foutmeldingen als " container does not exists"
Laat ik die files weg dan krijg ik andere foutmeldingen als " container does not exists"
Je mag de files en/of dirs mappen met de -v maar dat hoeft natuurlijk niet perse. Een tv serie dir is redelijk essentieel. Een config file is handig als backup buiten de container bijvoorbeeld maar hoeft niet perse.
👉🏻 Blog 👈🏻
https://hub.docker.com/r/r0gger/autosub-bootstrapbill/
Deze draait in 3 minuten, up and running. Alleen deze docker heeft een nadeel dat alle config in de docker zit waardoor je dus geen persistent file kan maken. Maar dat is misschien wel te doen via de applicatie zelf die kan volgens mij wel backuppen.
Deze draait in 3 minuten, up and running. Alleen deze docker heeft een nadeel dat alle config in de docker zit waardoor je dus geen persistent file kan maken. Maar dat is misschien wel te doen via de applicatie zelf die kan volgens mij wel backuppen.
Even polsen bij jullie wat jullie hebben draaien:
PackageCenter:
PackageCenter:
- Domoticz die de slimme meter uitleest (vanwege het feit dat hij USB drivers nodig heeft in het OS, anders had ik hem liever geDockert)
- Nog een hele lijst van default Synology originele packages.
- Apache een simpele http server die maar 3 regels tekst serveert om mijn lijn te monitoren (pingdom.com).
- Autosub
- CouchPotato
- HomeBridge verlichting schakelen in huis
- Jackett
- LibreNMS (polling van interne servers met SNMP/Ping)
- NZBget
- SickRage
- Sonarr
- Transmission (als separaat voor een private tracker, denk er over om het gewoon naar download station te migreren)
Je kunt zelf een mapping toevoegen voor de config file als je dat wilt (met de -v parameter).stormfly schreef op donderdag 27 april 2017 @ 16:52:
https://hub.docker.com/r/r0gger/autosub-bootstrapbill/
Deze draait in 3 minuten, up and running. Alleen deze docker heeft een nadeel dat alle config in de docker zit waardoor je dus geen persistent file kan maken. Maar dat is misschien wel te doen via de applicatie zelf die kan volgens mij wel backuppen.
👉🏻 Blog 👈🏻
Klopt alleen moet ik dan even uitzoeken welke folders belangrijk zijn voor AutoSub, met o.a. de config en de database. /opt/ volgens mij.kraades schreef op donderdag 27 april 2017 @ 18:13:
[...]
Je kunt zelf een mapping toevoegen voor de config file als je dat wilt (met de -v parameter).
Zeker!stormfly schreef op donderdag 27 april 2017 @ 15:51:
Maar ja als alles een beetje netjes in mappen staat is dat wel zo fijn. Kan je eens delen wat jij aan hebt gezet in Sonarr om het netjes weg te zetten?
Rename settings:

Metadata genereren voor Kodi:

En dan kun je per serie (of voor alle series via de Series Editor) instellen waar de bestanden staan:

Die Editor heb ik dus vanmiddag gebruikt om alle 40 series in 1 klap van /volume1/Series naar /tv/ te wijzen omdat dat de nieuwe mapping in de Docker container was.
Hoop dat het zo een beetje duidelijk is.
Klopt. Ik heb /config gemapped naar /docker/autosub op mijn NAS en /config opgegeven als backup/restorepath. Works like a charmstormfly schreef op donderdag 27 april 2017 @ 16:52:
https://hub.docker.com/r/r0gger/autosub-bootstrapbill/
Deze draait in 3 minuten, up and running. Alleen deze docker heeft een nadeel dat alle config in de docker zit waardoor je dus geen persistent file kan maken. Maar dat is misschien wel te doen via de applicatie zelf die kan volgens mij wel backuppen.
Package Center:stormfly schreef op donderdag 27 april 2017 @ 17:05:
Even polsen bij jullie wat jullie hebben draaien:
- Apache webserver (nodig voor Let's Encrypt certificaten als ik me goed herinner)
- Deluge (torrent client)
- Docker (duh)
- Domoticz (USB access nodig om P1 kabel connectie te kunnen maken met mijn slimme meter, moet dus nog even "native" draaien)
- Hyper Backup (dagelijkse encrypted backup naar Amazon Drive en als test naar Synology C2)
- MariaDB (shared database voor mijn Kodi mediacenters zodat overal netjes wordt bijgehouden welke series/films ik al heb gekeken en op welk punt in de film/serie ik precies gebleven was)
- Media Server (voor de Sonos in de woonkamer en de mediastreamer boven)
- Mono (voor Sonarr/Radarr maar kan als het goed is weg)
- Python (kan volgens mij ook weg, was ooit voor CouchPotato)
- autosub (subtitles downloaden)
- nzbget (downloadclient voor alles)
- radarr (film management)
- sonarr (tv serie management)
[ Voor 55% gewijzigd door Arfman op 27-04-2017 23:07 ]
DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |
.
[ Voor 99% gewijzigd door Arfman op 27-04-2017 23:07 ]
DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |
Ik zou trouwens wel een Debian chroot willen doen. Iemand ervaring mee met DSM 6+? Werkt dat nog een beetje?
Ik had namelijk wel kapotte Synocommunity packages na mijn upgrade naar DSM6 de vorige keer.
Ik had namelijk wel kapotte Synocommunity packages na mijn upgrade naar DSM6 de vorige keer.
Geen idee wat chroot is, maar als ik het zo Google lijkt het op iets wat ook dmv. Docker opgelost kan worden? Of zit ik er dan heel ver naast?
Ondertussen Deluge ook als Docker package draaien. Memory usage sinds ik Docker draai is wel flink omhooggeschoten:

(rode pijl is start gebruik Docker)
Lijkt erop dat de extras die Docker biedt ten koste gaan van het geheugengebruik, wat op zich logisch is omdat er geen shared memory meer is tussen b.v. Sonarr en Radarr (die allebei Mono gebruiken).
Ondertussen Deluge ook als Docker package draaien. Memory usage sinds ik Docker draai is wel flink omhooggeschoten:

(rode pijl is start gebruik Docker)
Lijkt erop dat de extras die Docker biedt ten koste gaan van het geheugengebruik, wat op zich logisch is omdat er geen shared memory meer is tussen b.v. Sonarr en Radarr (die allebei Mono gebruiken).
DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |
Dat heb ik zeker, ik gebruik No-track in Debian chroot. http://bit.ly/2oMMy84.chronoz schreef op zondag 30 april 2017 @ 18:58:
Ik zou trouwens wel een Debian chroot willen doen. Iemand ervaring mee met DSM 6+? Werkt dat nog een beetje?
Ik had namelijk wel kapotte Synocommunity packages na mijn upgrade naar DSM6 de vorige keer.
De rede dat ik chroot ben gaan gebruiken is dat pi-hole wou gaan gebruiken.
Kwam een tutorial tegen voor pi-hole op dsm, maar helaas kreeg ik geen internet op mijn pc als ik mijn data door stuurde naar mijn nas.

Toen kwam ik notrack tegen de tutorial gevolgd en alles werkt nu goed
Bijna al mijn packages draaien nu in Docker. Enige wat nog moet is MariaDB voor mij shared Kodi database. Iemand enig idee hoe ik deze database kan migreren? Heb al een MariaDB draaien in Docker maar is het zo simpel als de database exporteren en importeren?
DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |
Zou het dan niet beter zijn om, in plaats van elke package zijn eigen docker image te geven, één image te maken met iets van Debian en daar alle zooi in te draaien? Dan is het nog steeds gescheiden van het OS van de Nas maar blijft het geheugengebruik binnen de perken. Ik zie eerlijk gezegd weinig meerwaarde in elk package zijn eigen image te geven. Eerder de nadelen zoals al het extra config werk en het extra geheugengebruik van al die eigen mini-OSsen.Arfman schreef op zondag 30 april 2017 @ 20:55:
Geen idee wat chroot is, maar als ik het zo Google lijkt het op iets wat ook dmv. Docker opgelost kan worden? Of zit ik er dan heel ver naast?
Ondertussen Deluge ook als Docker package draaien. Memory usage sinds ik Docker draai is wel flink omhooggeschoten:
[afbeelding]
(rode pijl is start gebruik Docker)
Lijkt erop dat de extras die Docker biedt ten koste gaan van het geheugengebruik, wat op zich logisch is omdat er geen shared memory meer is tussen b.v. Sonarr en Radarr (die allebei Mono gebruiken).
Dat had ook gekund, lood om oud ijzer denk ik. Je wint er misschien iets geheugen mee, misschien niet. Configwerk was zeer minimaal, meeste packages kon ik zo de bestaande config uit exporteren en weer importeren (nzgbet, sonarr, radarr). Bovendien ben ik geen Linux specialist, ik denk dat het me meer moeite had gekost om al die packages onder Debian te laten draaien.mvds schreef op vrijdag 5 mei 2017 @ 14:48:
[...]
Zou het dan niet beter zijn om, in plaats van elke package zijn eigen docker image te geven, één image te maken met iets van Debian en daar alle zooi in te draaien? Dan is het nog steeds gescheiden van het OS van de Nas maar blijft het geheugengebruik binnen de perken. Ik zie eerlijk gezegd weinig meerwaarde in elk package zijn eigen image te geven. Eerder de nadelen zoals al het extra config werk en het extra geheugengebruik van al die eigen mini-OSsen.
DRoME LAN Gaming | iRacing profiel | Kia e-Niro 64kWh | Hyundai Ioniq 28kWh | PV 5.760Wp |
Ik weet het ook niet zeker hoorArfman schreef op vrijdag 5 mei 2017 @ 14:52:
[...]
Dat had ook gekund, lood om oud ijzer denk ik. Je wint er misschien iets geheugen mee, misschien niet. Configwerk was zeer minimaal, meeste packages kon ik zo de bestaande config uit exporteren en weer importeren (nzgbet, sonarr, radarr). Bovendien ben ik geen Linux specialist, ik denk dat het me meer moeite had gekost om al die packages onder Debian te laten draaien.
Zelf zou ik er dan eerder voor kiezen om één container te laten draaien met alle downloadzaken.
Volgens mij is Docker toch voornamelijk handig om de zaken gescheiden te houden van het OS van de Nas, toch?
Ik lees dat jullie veel apps binnen docker hebben draaien. Wat is hier het voordeel van ten behoeven van het standaard draaien van een package?
Docker is niet echt virtualisatie zoals ESXI. Alles draait op hetzelfde OS. Dat maakt het ook efficiënter.mvds schreef op vrijdag 5 mei 2017 @ 15:14:
[...]
Ik weet het ook niet zeker hoorMaar als je Sonarr, NZBGet, Couchpotato, Spotnet, Transmission allemaal binnen hun eigen container laat draaien zal het (gewoon mijn idee) best aardig op gaan lopen met het geheugengebruik lijkt mij. Elke container heeft toch zijn eigen OS draaien.
Zelf zou ik er dan eerder voor kiezen om één container te laten draaien met alle downloadzaken.
Volgens mij is Docker toch voornamelijk handig om de zaken gescheiden te houden van het OS van de Nas, toch?
Het is veiliger omdat je wel wat scheiding hebt tussen de containers. En het is makkelijk te installeren door kant en klare containers.
Zelf geen Docker helaas, vind de modellen die het ondersteunen te duur.
Het staat in een zin boven je beschreven.Robbie T schreef op vrijdag 5 mei 2017 @ 15:22:
Ik lees dat jullie veel apps binnen docker hebben draaien. Wat is hier het voordeel van ten behoeven van het standaard draaien van een package?
Alle programma's die in een dock draaien zijn gescheiden van het rest van het systeem. Ze hebben geen toegang tot de NAS tenzij je dit expliciet toestaat en je hoeft geen hacks toe te passen om packages te draaien. Docks draaien dus ook onafhankelijk van DSM waardoor je geen last van incompatibiliteit hebt bij een upgrade van DSM.
If you hide your whole life, you'll forget who you even are. Uplay: TheWorstNL | Steam + Origin + PSN: The_Worst_NL
Ik draai nog DSM 5 omdat de synocommunity nog niet over is op packages die compatible zijn met versie 6.
Dus als ik het goed begrijp kan ik de overstap maken naar DSM 6 en diezelfde packages die ik nu gebruik laten draaien in docker?
(Zo ja, dan moet ik mij echt even verdiepen in hoe docker precies werkt.)
Dus als ik het goed begrijp kan ik de overstap maken naar DSM 6 en diezelfde packages die ik nu gebruik laten draaien in docker?
(Zo ja, dan moet ik mij echt even verdiepen in hoe docker precies werkt.)
Je hebt een 214+ toch? Daar wordt Docker voor zover ik weet niet op ondersteund.avec_style schreef op vrijdag 5 mei 2017 @ 15:49:
Ik draai nog DSM 5 omdat de synocommunity nog niet over is op packages die compatible zijn met versie 6.
Dus als ik het goed begrijp kan ik de overstap maken naar DSM 6 en diezelfde packages die ik nu gebruik laten draaien in docker?
(Zo ja, dan moet ik mij echt even verdiepen in hoe docker precies werkt.)
Eigenaar/brouwer Milky Road Brewery
Die vraag komt vaker voorbij, zie o.a.Robbie T schreef op vrijdag 5 mei 2017 @ 15:22:
Ik lees dat jullie veel apps binnen docker hebben draaien. Wat is hier het voordeel van ten behoeven van het standaard draaien van een package?
https://gathering.tweakers.net/forum/list_message/49376819#49376819
(maar meer algemeen https://gathering.tweakers.net/forum/list_messages/1538893?data%5Bfilter_keywords%5D=docker%20voordelen)
Iemand al gewerkt met watchtower? Ik gebruikte het voor me docker pakketten maar mijn pgid en puid werd niet bij gewerkt,was dus een dingetje om weer allemaal in te vullen,geen man overboord natuurlijk maar om dat nu elke dag te controleren of alles nog werkt is natuurlijk niet echt relax,of weet iemand of daar al een oplossing voor is
Thanks voor de updates! Voornamelijk het sandbox idee en geen incompatibiliteit.
Nog even voor mijn beeldvorming, Sonarr is nu van buitenaf bereikbaar, dat kan ook als het via docker draait?
Nog even voor mijn beeldvorming, Sonarr is nu van buitenaf bereikbaar, dat kan ook als het via docker draait?
JupsRobbie T schreef op vrijdag 5 mei 2017 @ 16:42:
Thanks voor de updates! Voornamelijk het sandbox idee en geen incompatibiliteit.
Nog even voor mijn beeldvorming, Sonarr is nu van buitenaf bereikbaar, dat kan ook als het via docker draait?
Nee kan er ook niet veel over vinden. Heb je een linkje?virtua69 schreef op vrijdag 5 mei 2017 @ 16:33:
Iemand al gewerkt met watchtower?
https://blog.rylander.io/...ge-and-container-updates/stormfly schreef op vrijdag 5 mei 2017 @ 16:51:
[...]
Nee kan er ook niet veel over vinden. Heb je een linkje?
en uit docker zelf: https://hub.docker.com/r/centurylink/watchtower/
als je het leest denk je al gauw dat het er eigenlijk standaard bij hoort bij je containers, althans dat vond ik dan op het 1ste moment dat ik het las.
[ Voor 29% gewijzigd door Virtua op 05-05-2017 21:29 ]
Wauw dat is een mooie tool morgen eens mee spelen! Thanks voor de tip, het enige nadeel aan docker is het omslachtige updaten. Maar dit biedt hoop.virtua69 schreef op vrijdag 5 mei 2017 @ 21:05:
[...]
https://blog.rylander.io/...ge-and-container-updates/
en uit docker zelf: https://hub.docker.com/r/centurylink/watchtower/
als je het leest denk je al gauw dat het er eigenlijk standaard bij hoort bij je containers, althans dat vond ik dan op het 1ste moment dat ik het las.
vond ik dus ookstormfly schreef op vrijdag 5 mei 2017 @ 23:29:
[...]
Wauw dat is een mooie tool morgen eens mee spelen! Thanks voor de tip, het enige nadeel aan docker is het omslachtige updaten. Maar dit biedt hoop.
Hij draait ik heb even van alle containers een export gemaakt, je weet nooit wat voor schade zo'n tool aanricht.
Maar als ik jouw post goed lees, dan zet hij de PGID en de PUID niet goed terug als hij een container update?
Verwoord ik dat zo goed?
Ik denk dat je gelijk hebt, alle puid en guids staat op 911
maargoed dat is wel te fixxen denk ik
maargoed dat is wel te fixxen denk ik
stormfly schreef op zaterdag 6 mei 2017 @ 07:19:
[...]
Hij draait ik heb even van alle containers een export gemaakt, je weet nooit wat voor schade zo'n tool aanricht.![]()
Maar als ik jouw post goed lees, dan zet hij de PGID en de PUID niet goed terug als hij een container update?
Verwoord ik dat zo goed?
Gadget-freakz.com. Feedback en tips zijn welkom.
Is er iemand die Spotweb API calls aan de praat heeft met nginx ipv apache? Spotweb an sich draait goed, maar ik krijg de API niet aan de praat icm bijv. Sonarr.
Het zou een kwestie moeten zijn van iets als onderstaande toevoegen aan /etc/nginx/sites-enabled/default
De testpagina http://<ip:NAS>/spotweb/api?t=c geeft een 404.
Deze code in /etc/nginx/sites-enabled/default gezet en de nginx service herstart en het werkt!
Het zou een kwestie moeten zijn van iets als onderstaande toevoegen aan /etc/nginx/sites-enabled/default
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
| server { listen 80; # IP & Naam van de NAS server_name 192.168.1.252 synology; access_log /var/log/nginx/access.log; error_log /var/log/nginx/error.log; root /volume1/web; index index.html index.htm index.php; location / { if ($uri !~ "api/"){ rewrite api/?$ /spotweb/index.php?page=newznabapi last; } } location ~ \.php$ { include /etc/nginx/fastcgi_params; fastcgi_pass unix:/var/run/php-fpm/php56-fpm.sock; fastcgi_index index.php; fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name; } } |
De testpagina http://<ip:NAS>/spotweb/api?t=c geeft een 404.
Deze code in /etc/nginx/sites-enabled/default gezet en de nginx service herstart en het werkt!
[ Voor 49% gewijzigd door Raziel op 16-05-2017 22:36 ]
Verwijderd
Iemand hier die de backups van synology nas 1 naar synology nas 2 in zijn eigen netwerk goed aan de praat heeft gekregen met DSM 6?
Bij DSM 5 had ik geen problemen ,maar nu ik wat meer nassen heb dacht ik: ik upgrade alles naar DSM 6. Maar ik krijg het nu niet meer voor elkaar om simpele backups te maken.
Feitelijk wil ik gewoon 1 gedeelde map van synology 1 naar synology 2 kopieeren, dus gewoon alle bestanden en dat 1 keer per week en alleen aanpassen wat er die week veranderd is. Dus niet meerdere backups bijhouden of wat dan ook en ik wil gewoon de bestanden zien en niet een compresfile of wat dan ook.
Ik heb nu een map met films gekopieerd en ik heb daarvoor op de 1e nas (waar het origineel staat) hyper backup geinstalleerd en op de 2e nas (bestemming van de copy) hyper vault backup. Maar ik krijg nu toch een berg vreemde bestanden, waaronder 0.bucket , 0.lock etc.
Waar is die oude backup manier gebleven waar hij gewoon een hele folder kon overzetten 1 op 1?
Ik ga het nu maar handmatig doen, maar als iemand een gouden tip heeft. Ik wil in mijn bacup gewoon kunnen browsen met de verkenner van mijn windows pc en niet via een tool van synology, dat moet bij hyperbackup kennelijk wel.
Ik heb dit zelf gevonden: https://www.synology-foru...ckup-volgens-oude-metode/
Daar staat dat synology de oude methode gaat terugbrengen, maar wanneer? Dat bericht is al uit 2016...
Voor nu ga ik het dus handmatig doen en bijhouden met de tool van Syncovery op mijn Windows computers, maar dat vereist van mij weer werk en het was juist zo fijn dat synology dat zelf voor mij deed.
Ik ga wel die nieuwe methode van synology testen, maar veel vertrouwen heb ik er niet in. Ik heb juist een extra nas gekocht om die volledig als backupserver in te stellen en dan loop ik hier tegenaan
Bij DSM 5 had ik geen problemen ,maar nu ik wat meer nassen heb dacht ik: ik upgrade alles naar DSM 6. Maar ik krijg het nu niet meer voor elkaar om simpele backups te maken.
Feitelijk wil ik gewoon 1 gedeelde map van synology 1 naar synology 2 kopieeren, dus gewoon alle bestanden en dat 1 keer per week en alleen aanpassen wat er die week veranderd is. Dus niet meerdere backups bijhouden of wat dan ook en ik wil gewoon de bestanden zien en niet een compresfile of wat dan ook.
Ik heb nu een map met films gekopieerd en ik heb daarvoor op de 1e nas (waar het origineel staat) hyper backup geinstalleerd en op de 2e nas (bestemming van de copy) hyper vault backup. Maar ik krijg nu toch een berg vreemde bestanden, waaronder 0.bucket , 0.lock etc.
Waar is die oude backup manier gebleven waar hij gewoon een hele folder kon overzetten 1 op 1?
Ik ga het nu maar handmatig doen, maar als iemand een gouden tip heeft. Ik wil in mijn bacup gewoon kunnen browsen met de verkenner van mijn windows pc en niet via een tool van synology, dat moet bij hyperbackup kennelijk wel.
Ik heb dit zelf gevonden: https://www.synology-foru...ckup-volgens-oude-metode/
Daar staat dat synology de oude methode gaat terugbrengen, maar wanneer? Dat bericht is al uit 2016...
Voor nu ga ik het dus handmatig doen en bijhouden met de tool van Syncovery op mijn Windows computers, maar dat vereist van mij weer werk en het was juist zo fijn dat synology dat zelf voor mij deed.
Ik ga wel die nieuwe methode van synology testen, maar veel vertrouwen heb ik er niet in. Ik heb juist een extra nas gekocht om die volledig als backupserver in te stellen en dan loop ik hier tegenaan

[ Voor 30% gewijzigd door Verwijderd op 07-05-2017 22:14 ]
stormfly schreef op zaterdag 6 mei 2017 @ 07:19:
[...]
Klopt helemaal
Hij draait ik heb even van alle containers een export gemaakt, je weet nooit wat voor schade zo'n tool aanricht.![]()
Maar als ik jouw post goed lees, dan zet hij de PGID en de PUID niet goed terug als hij een container update?
Verwoord ik dat zo goed?
Verwijderd
Die methode is er. Je moet de onderste "Externe gegevens copieren gebruiken.Verwijderd schreef op zondag 7 mei 2017 @ 22:04:
Feitelijk wil ik gewoon 1 gedeelde map van synology 1 naar synology 2 kopieeren, dus gewoon alle bestanden en dat 1 keer per week en alleen aanpassen wat er die week veranderd is. Dus niet meerdere backups bijhouden of wat dan ook en ik wil gewoon de bestanden zien en niet een compresfile of wat dan ook.
Zie screenprint.

Bij die methode is mijn ervaring dat de time stamp van de files op de backup NAS de time stamp van het moment van de backup mee krijgt. Als je de file dan direct vanaf de backup NAS haalt, heb je een incorrecte time stamp.Verwijderd schreef op maandag 8 mei 2017 @ 05:15:
[...]
Die methode is er. Je moet de onderste "Externe gegevens copieren gebruiken.
Zie screenprint.
[afbeelding]
Indien je Hyper Backup gebruikt op de bron NAS om de file terug te halen, wordt de time stamp wel juist. Dit laatste heb ik nooit getest, maar heb ik vernomen van Synology. Het time stamp issue heb ik destijds bij Synology gemeld (intended behavior).
Domotz is maar gratis voor een korte trial periode voor Synology gebruikers of niet?
Verwijderd
Het kunnen maken van een echte 1:1 copie lijkt mij belangrijker dan een timestamp.meesje schreef op maandag 8 mei 2017 @ 10:19:
[...]
Bij die methode is mijn ervaring dat de time stamp van de files op de backup NAS de time stamp van het moment van de backup mee krijgt. Als je de file dan direct vanaf de backup NAS haalt, heb je een incorrecte time stamp.
Indien je Hyper Backup gebruikt op de bron NAS om de file terug te halen, wordt de time stamp wel juist. Dit laatste heb ik nooit getest, maar heb ik vernomen van Synology. Het time stamp issue heb ik destijds bij Synology gemeld (intended behavior).
Mijn opmerking was maar gewoon een toevoeging op jouw opmerking. De vraagsteller kan toch zelf bepalen wat hij belangrijk vind? Zoeken in je backup o.b.v. een datum (wanneer b.v. een document oorspronkelijk is aangemaakt) kan toch handig zijn? Nu krijgt het backup document de datum van de backup.Verwijderd schreef op maandag 8 mei 2017 @ 18:22:
[...]
Het kunnen maken van een echte 1:1 copie lijkt mij belangrijker dan een timestamp.
Na het installeren van SABnzbd, kan ik deze niet starten. Krijg namelijk de volgende melding: "Kon de pakket service niet uitvoeren."
Heeft iemand hier een oplossing voor?
Zelf heb ik SAB al verwijderd, Syno opnieuw laten opstarten, en vervolgens opnieuw geïnstalleerd. Betreft om SABnzbd v.2.0.0-24.
Mijn Synology draait op: DSM 6.1.1-15101 Update 2.
Heeft iemand hier een oplossing voor?
Zelf heb ik SAB al verwijderd, Syno opnieuw laten opstarten, en vervolgens opnieuw geïnstalleerd. Betreft om SABnzbd v.2.0.0-24.
Mijn Synology draait op: DSM 6.1.1-15101 Update 2.
Jewel 4 Kids voor leuke haarknipjes voor baby's & kinderen, Chunks en de nieuwste rage van Loom Bands!
Sabnzbd starten als root, simpel te vinden door te googlen. Of Docker gebruiken.
Ik ga het eindelijk toegeven , ik wordt wel happy van radarr nu !! zeker nu de discovery tab er ook is bijgekomen ! bye bye Couch!
PSN: NjayNL | Star Citizen Referal code | Oculus Quest
Ik vind het rete annoying dat je films naam + jaartal moet bevatten. Voor oude films die ik heb zou ik dat allemaal moeten gaan aanpassen. Kloppen de verwijzingen in Kodi niet meer ... Hij ziet aan de mapnaam wel dat de film er is, maar het bestand (die hetzelfde heet) kan Radarr dan weer niet zien.Njay schreef op dinsdag 16 mei 2017 @ 22:07:
Ik ga het eindelijk toegeven , ik wordt wel happy van radarr nu !! zeker nu de discovery tab er ook is bijgekomen ! bye bye Couch!
Hmm ik gebruik het alleen om nieuwe films te downloaden dan clear ik ze uit de lijst.Raziel schreef op dinsdag 16 mei 2017 @ 22:39:
[...]
Ik vind het rete annoying dat je films naam + jaartal moet bevatten. Voor oude films die ik heb zou ik dat allemaal moeten gaan aanpassen. Kloppen de verwijzingen in Kodi niet meer ... Hij ziet aan de mapnaam wel dat de film er is, maar het bestand (die hetzelfde heet) kan Radarr dan weer niet zien.
al een github bug aangemaakt?
PSN: NjayNL | Star Citizen Referal code | Oculus Quest
Hoe gaat Radarr om met subs?
Worden deze automatisch erbij gezet/gedownload?
Worden deze automatisch erbij gezet/gedownload?
Als gezocht en gedownload? Zover ik weet niet.Marcel_EA schreef op woensdag 17 mei 2017 @ 08:15:
Hoe gaat Radarr om met subs?
Worden deze automatisch erbij gezet/gedownload?
Ok, thanks voor de bevestiging.
Had idd al het een en ander opgezocht hierover en kwam tot dezelfde conclusie.
Had idd al het een en ander opgezocht hierover en kwam tot dezelfde conclusie.
Verwijderd
Ik heb sinds kort problemen met DS Cam op Android. Niets veranderd aan instellingen maar als ik een opname wil bekijken kon ik dat altijd met VLC Player. Werkt niet meer, dus MX Player erop gezet. Ook deze player wil de opnames (H264) niet afspelen. Aan netwerk ligt het niet. Iemand de oplossing hier?
Er zijn genoeg andere oplossingen die dat gene voor je kunnen doen overigens.Marcel_EA schreef op woensdag 17 mei 2017 @ 15:20:
Ok, thanks voor de bevestiging.
Had idd al het een en ander opgezocht hierover en kwam tot dezelfde conclusie.
Persoonlijk zit ik niet op een dergelijke feature te wachten eigenlijk, CP had het maar deed het nauwelijks omdat de media gewoon te nieuw was en er dus niets te vinden en te downloaden was.
Voor mij heeft het geen toegevoegde waarde, ik laat wel andere (dedicated) tools apart draaien om mijn subs binnen te halen.
Ok, duidelijk.schumi2004 schreef op donderdag 18 mei 2017 @ 09:23:
[...]
Er zijn genoeg andere oplossingen die dat gene voor je kunnen doen overigens.
Persoonlijk zit ik niet op een dergelijke feature te wachten eigenlijk, CP had het maar deed het nauwelijks omdat de media gewoon te nieuw was en er dus niets te vinden en te downloaden was.
Voor mij heeft het geen toegevoegde waarde, ik laat wel andere (dedicated) tools apart draaien om mijn subs binnen te halen.
Welke tools gebruik jij daar voor?
Auto-Sub voor Series: [Ervaringen] Auto-Sub Bootstrap BillMarcel_EA schreef op donderdag 18 mei 2017 @ 09:28:
[...]
Ok, duidelijk.
Welke tools gebruik jij daar voor?
Subliminal (manual install) voor Series en Films: Dit kan je wel op weg helpen schumi2004 in "[Synology] Packages"
@schumi2004
Thanks! Ik ga er eens naar kijken.
Thanks! Ik ga er eens naar kijken.
Goede genade, is dat nog steeds zo? Een jaar na de update naar DSM 6 en nog steeds is de enige manier om packages te draaien (op non-Intel Syno's) het laten draaien met root-access? Daar voel ik me niet heel gemakkelijk bij. Of is het niet zo'n groot beveiligingsrisico als ik denk?wvkreg schreef op dinsdag 16 mei 2017 @ 19:06:
Sabnzbd starten als root, simpel te vinden door te googlen. Of Docker gebruiken.
Peace is not simply the absence of war.
Absoluut, op Intel-syno's. Ik heb helaas een DS216play. Prima ding, maar custom packages als root... mwoah. Voelt toch niet prettig.
Peace is not simply the absence of war.
Of gewoon subs binnehalen via Kodi
PSN: NjayNL | Star Citizen Referal code | Oculus Quest
@Njay
Dat is natuurlijk een optie, maar dan moet je wel Kodi hebben draaien.
Ik gebruik nog steeds een Popcorn A300 als mediaspeler. Heb er 4 in huis staan.
Ze draaien nog naar tevredenheid dus zie nog geen reden om te vervangen.
Dat is natuurlijk een optie, maar dan moet je wel Kodi hebben draaien.
Ik gebruik nog steeds een Popcorn A300 als mediaspeler. Heb er 4 in huis staan.
Ze draaien nog naar tevredenheid dus zie nog geen reden om te vervangen.
Iemand enig idee die mij kan sturen in de juiste richting voor het volgende.
Ik heb enige tijd Radarr gebruikt en dat beviel me prima.
Nu....heb ik Radarr in docker draaien op mijn Synology NAS.
Echter wil hij sindsdien niet automatisch downloaden.
Hij ziet de juiste releases wel.....ook die wel en niet mogen gebaseerd op wat ik heb ingesteld.
Maar wat doorsturen naar mijn download client.....dat gebeurt niet.
Iemand enig idee of die dit ook heeft gehad??
Ik heb enige tijd Radarr gebruikt en dat beviel me prima.
Nu....heb ik Radarr in docker draaien op mijn Synology NAS.
Echter wil hij sindsdien niet automatisch downloaden.
Hij ziet de juiste releases wel.....ook die wel en niet mogen gebaseerd op wat ik heb ingesteld.
Maar wat doorsturen naar mijn download client.....dat gebeurt niet.
Iemand enig idee of die dit ook heeft gehad??
Ik kreeg Radarr in docker alleen werkend met rutorrent als download client. Transmission gaf problemen met de downloadstatus in Radarr.Buzzie schreef op zaterdag 20 mei 2017 @ 19:49:
Iemand enig idee die mij kan sturen in de juiste richting voor het volgende.
Ik heb enige tijd Radarr gebruikt en dat beviel me prima.
Nu....heb ik Radarr in docker draaien op mijn Synology NAS.
Echter wil hij sindsdien niet automatisch downloaden.
Hij ziet de juiste releases wel.....ook die wel en niet mogen gebaseerd op wat ik heb ingesteld.
Maar wat doorsturen naar mijn download client.....dat gebeurt niet.
Iemand enig idee of die dit ook heeft gehad??
Al eens geprobeerd?
Over Radarr gesproken.
Het zou mooi zijn als er een optie inzit om alle P2P release groups te droppen en alleen Scene groups te accepteren.
Mijn ignore list was al lang maar elke grab van Radarr (welke default paused in DL client staat) wordt deze langer want het is meestal gewoon een vage P2P group. Daar had ik bij CP toch minder last van. Mogelijk dat een bepaald algoritme iets of wat ge-tweaked moet worden nog.
Het zou mooi zijn als er een optie inzit om alle P2P release groups te droppen en alleen Scene groups te accepteren.
Mijn ignore list was al lang maar elke grab van Radarr (welke default paused in DL client staat) wordt deze langer want het is meestal gewoon een vage P2P group. Daar had ik bij CP toch minder last van. Mogelijk dat een bepaald algoritme iets of wat ge-tweaked moet worden nog.
weet iemand de correcte manier om je docker images te upgraden zonder je settings te verliezen?
ik heb voor sabnzbd een config file in /volume1/docker/sabnzbd/
is het dan gewoon export container settings in docker
en dan gewoon docker pull linuxserver/sabnzbd
en vervolgens de settings terug importen?
ik heb voor sabnzbd een config file in /volume1/docker/sabnzbd/
is het dan gewoon export container settings in docker
en dan gewoon docker pull linuxserver/sabnzbd
en vervolgens de settings terug importen?
Ik denk niet dat er een bijzondere manier is. Sonarr, NZBGet en ook Autoseub kan je gewoon vanuit de software die in de container draait zelf updaten.redboyke schreef op dinsdag 23 mei 2017 @ 18:40:
weet iemand de correcte manier om je docker images te upgraden zonder je settings te verliezen?
Als dat voor SABnzb niet werkt hebben ze daar iets bijzonders gedaan..
[ Voor 4% gewijzigd door Ortep op 23-05-2017 20:08 ]
Only two things are infinite, the universe and human stupidity, Einstein
Alleen de doden kennen het einde van de oorlog, Plato
sabnzbd heeft nog steeds geen autoupdate functie.Ortep schreef op dinsdag 23 mei 2017 @ 20:07:
[...]
Ik denk niet dat er een bijzondere manier is. Sonarr, NZBGet en ook Autoseub kan je gewoon vanuit de software die in de container draait zelf updaten.
Als dat voor SABnzb niet werkt hebben ze daar iets bijzonders gedaan..
Ik ben inmiddels toch wat met Radarr aan het spelen. Is het bij jullie ook zo traag? Bij mijn DS214+ zit ik erg vaak naar die balletjes te kijken:

|| Marktplaats-meuk. Afdingen mag! ;-) || slotje.com for sale || Dank pven! ||
Ik heb het gewoon van uit het programma geprobeerd,sonarr radarr en nextcloud,geen problemen tot nu en alles werkt perfect,was wel een gokje omdat ik gelezen had dat dit eigenlijk anders moet,dat dan weer wel.Ortep schreef op dinsdag 23 mei 2017 @ 20:07:
[...]
Ik denk niet dat er een bijzondere manier is. Sonarr, NZBGet en ook Autoseub kan je gewoon vanuit de software die in de container draait zelf updaten.
Als dat voor SABnzb niet werkt hebben ze daar iets bijzonders gedaan..
Als er een nieuwe versie uitkomt van een container dan kan mogelijk een oudere versie van de desbetreffende software worden geïnstalleerd.
If you hide your whole life, you'll forget who you even are. Uplay: TheWorstNL | Steam + Origin + PSN: The_Worst_NL
Bij niet maar draai ook op een ds916pven schreef op woensdag 24 mei 2017 @ 09:49:
Ik ben inmiddels toch wat met Radarr aan het spelen. Is het bij jullie ook zo traag? Bij mijn DS214+ zit ik erg vaak naar die balletjes te kijken:
[afbeelding]
PSN: NjayNL | Star Citizen Referal code | Oculus Quest
Verwijderd
Volg dit topic al heel lang, nu toch maar eens een vraagje
.
Ik heb een Synology 215j en gebruik Plex. Mappenstructuur is bv tv-shows/naamserie/season1/
Indien ik sonarr gebruik, zal die mappenstructuur dan behouden kunnen blijven?
Ik heb een Synology 215j en gebruik Plex. Mappenstructuur is bv tv-shows/naamserie/season1/
Indien ik sonarr gebruik, zal die mappenstructuur dan behouden kunnen blijven?
Je hebt verder niets extra's geconfigureerd om het te versnellen? Werkelijk alles draait prima vanaf mijn DS214+, behalve Radaarrr(grrrr)
|| Marktplaats-meuk. Afdingen mag! ;-) || slotje.com for sale || Dank pven! ||
Heb rutorrent net geinstalleerd als Docker.chielmi schreef op zondag 21 mei 2017 @ 12:33:
[...]
Ik kreeg Radarr in docker alleen werkend met rutorrent als download client. Transmission gaf problemen met de downloadstatus in Radarr.
Al eens geprobeerd?
nu even afwachten wat er gebeurt of een release naar rutorrent wordt gestuurd.
Vooralsnog gebeurd er vrij weinig als ik de RSS sync start.
De test knop in Sonarr is succesvol? Je kunt Rutorrent bereiken?Buzzie schreef op donderdag 25 mei 2017 @ 17:52:
[...]
Heb rutorrent net geinstalleerd als Docker.
nu even afwachten wat er gebeurt of een release naar rutorrent wordt gestuurd.
Vooralsnog gebeurd er vrij weinig als ik de RSS sync start.
PGID en PUID hetzelfde ingesteld in beide containers?
De /downloads locatie is hetzelfde voor beide containers?
Yup.chielmi schreef op vrijdag 26 mei 2017 @ 08:39:
[...]
De test knop in Sonarr is succesvol? Je kunt Rutorrent bereiken?
PGID en PUID hetzelfde ingesteld in beide containers?
De /downloads locatie is hetzelfde voor beide containers?
Voor alles kan ik ja beantwoorden
Let op:
Dit topic is onderdeel van de drie topics over Synology:In dit Packages topic mogen alle vragen en discussies over Synology addon packages.
Dit topic is onderdeel van de drie topics over Synology:In dit Packages topic mogen alle vragen en discussies over Synology addon packages.