[Synology] Vraag en antwoord - deel 3 Vorige deel Overzicht

Pagina: 1 ... 80 ... 186 Laatste
Acties:

Acties:
  • 0 Henk 'm!
Het OS staat op elke schijf in je Nas op een eigen partitie in een mirror met elkaar.
Elke disk in je Nas heeft drie partities, een system partitie, een swap partitie en een data partitie.
De systeem en swap partities staan op elke disk met elkaar in een mirror set.
Op de data partitie worden de volumes aangemaakt en kun je zelf kiezen of het basic, raid of shr is.

Dus wat betreft het OS kun je gewoon een disk vervangen en dan zal het OS gewoon doordraaien en op die nieuwe disk een systeem en swap partities aanmaken met een kopie van de achtergebleven disk.

Als je geen SHR draait en je hebt je packages op een volume geïnstalleerd dat op die ssd staat, dan zit er niets anders op.
Dus configuraties exporteren en data veilig stellen volumes van die ssd verwijderen, disk verwisselen, nieuw volume aanmaken en alles opnieuw installeren en data terugzetten.

Als je wilt experimenteren dan zou je nog kunnen proberen die ssd eruit te halen en deze samen met de nieuwe disk aan je PC hangen en een image clone van de ssd op die nieuwe disk zetten en die dan in je Nas erbij stoppen.

Theoretisch moet dat werken, maar je weet nooit of DSM niet stiekem bijhoud dat het een andere disk is.
Ook kun je problemen krijgen met de layout, het zou kunnen zijn dat DSM de systeem partitie aan het begin van de disk zet en de swap partitie op het einde en ertussen de data partitie, als je dan een clone maakt krijg je exact hetzelfde maar ik neem aan dat je nieuwe disk groter is en die extra ruimte is dan niet meer bruikbaar.

Als tweede alternatief kun je proberen of je de packages tevoren naar een volume op je huidige harddisk kunt verplaatsen.
Stel je packages staan op je ssd op volume1 en je hebt een volume2 op je huidige harddisk.
Verplaats alle data in de folder /volume1/@appstore naar volume2/@appstore
Maak een simlink op volume1 aan naar volume2/@appstore
Kijk of alles blijft werken.
Vervang je ssd door de nieuwe harddisk en maak daar een volume1 op aan en op dat volume1 een simlink naar /volume1/@appstore.

Al de alternatieve scenarios kunnen potentieel problemen opleveren dus zorg ervoor dat je altijd nog het standaard scenario kunt uitvoeren.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


Acties:
  • 0 Henk 'm!

  • Phusebox
  • Registratie: Mei 2002
  • Laatst online: 17-09 21:26
Ben(V) schreef op donderdag 12 november 2020 @ 09:55:
@Phusebox Helemaal correct met een kleine aanvulling. O-)

6. Restore de voorheen gemaakte backup


PS.
Wel de python 3 van de SynoCommunity nemen.
Kan ik die aangepaste versie wel gewoon updaten wanneer je die melding in Medusa ziet dat er updates zijn? Of krijg ik dan weer een versie met de oude python?

xbox live / psn / steam / nintendo id: phusebox | iRacing


Acties:
  • +1 Henk 'm!
Nee er is maar een versie van Medusa en die draait enkel nog op Python3.
Dus updaten is geen enkel probleem.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


Acties:
  • 0 Henk 'm!

  • ymoona
  • Registratie: Januari 2004
  • Laatst online: 14:06
Ik heb toch een DS220+ besteld met een setje ironwolf 4t schijven. Nadat ik de backup terug gezet had en alles weer een beetje configureerd had een snelheids testje gedaan.
Dit valt me toch een beetje tegen. Ik kom op ongeveer 600mbit via SMB. CPU lijkt niet echt heel druk.
Is dit een normale snelheid of heb ik ergens een bottleneck?

Desktop is via 1 switch (pricewatch: Ubiquiti UniFi Switch Flex Mini (5-poorts)) aangesloten op de nas verder default instellingen. Desktop heeft ook SSD dus daar verwacht ik niet direct.

https://f1nerd.nl


Acties:
  • 0 Henk 'm!

  • Chrisje1983
  • Registratie: Februari 2012
  • Laatst online: 17-09 18:27
Dat is niet een normale snelheid, mijn oude ds214 en ds216 en ook de nieuwere ds918+ halen allen +110 MByte, als ik grote files van de nas vandaan haal of naar de nas toe schrijf.

De ds216 haalt die snelheid over 2 routers waarvan 1 geconfigureerd als switch/accespoint ( laptop > archer c7 > wr1043 v2 > ds216)

Ik gebruik dus goedkope tp-link routers met gargoyle fimware. Lijkt erop dat je inderdaad ergens een bottleneck hebt, kan een rotte utp kabel/connector zijn, je switch die niet mee werkt etc...

[ Voor 4% gewijzigd door Chrisje1983 op 01-12-2020 17:58 ]


Acties:
  • +1 Henk 'm!

  • ymoona
  • Registratie: Januari 2004
  • Laatst online: 14:06
@Chrisje1983 Thanks voor je antwoord. Dan kloppen mijn snelheden dus niet. Ik heb even een rondje kabels vervangen gedaan (had hier en daar nog wat oude liggen) maar dat maakte geen verschil.

Pas toen ik driver van mijn onboard netwerk adapter installeerde haalde ik snelheid die ik verwachte. Zit nu op ongeveer 950 mbit.

Toch nog eens naar teaming gaan kijken. Niet omdat het moet, maar omdat het kan.

https://f1nerd.nl


Acties:
  • 0 Henk 'm!

  • Chrisje1983
  • Registratie: Februari 2012
  • Laatst online: 17-09 18:27
[b]ymoona in "[Synology] Vraag en antwoord - deel 3"
Pas toen ik driver van mijn onboard netwerk adapter installeerde haalde ik snelheid die ik verwachte. Zit nu op ongeveer 950 mbit.
Oke die had ik echt niet verwacht!

Acties:
  • 0 Henk 'm!

  • WRT54G
  • Registratie: Februari 2002
  • Laatst online: 16-09 22:13
Van het weekend gaat mijn DS415+ ruimte maken voor een upgrade. Hij wordt gewisseld voor een DS920+.
Nu heeft de 920+ ook 2 NVMe sloten erin zitten. Wat/waar ga ik voor winst behalen als ik één (heb er eventueel eentje liggen) NVMe schijf erin zou doen als cache? Waarmee merk je dit?

Zijn er real life voorbeelden?

[ Voor 11% gewijzigd door WRT54G op 01-12-2020 22:37 ]


Acties:
  • 0 Henk 'm!
ymoona schreef op dinsdag 1 december 2020 @ 20:27:
@Chrisje1983 Thanks voor je antwoord. Dan kloppen mijn snelheden dus niet. Ik heb even een rondje kabels vervangen gedaan (had hier en daar nog wat oude liggen) maar dat maakte geen verschil.

Pas toen ik driver van mijn onboard netwerk adapter installeerde haalde ik snelheid die ik verwachte. Zit nu op ongeveer 950 mbit.

Toch nog eens naar teaming gaan kijken. Niet omdat het moet, maar omdat het kan.
Teaming ofwel in Synology termen een bond maken met twee of meer netwerk poorten verhoogd enkel de bandbreedte en niet de maximale snelheid.
Je kunt dus wel met bijvoorbeeld twee Pc's met elke Pc gelijktijdig 1Gbps halen, maar met een enkele Pc nooit meer dan 1GBps.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


Acties:
  • 0 Henk 'm!

  • ymoona
  • Registratie: Januari 2004
  • Laatst online: 14:06
Ben(V) schreef op dinsdag 1 december 2020 @ 23:48:
[...]


Teaming ofwel in Synology termen een bond maken met twee of meer netwerk poorten verhoogd enkel de bandbreedte en niet de maximale snelheid.
Je kunt dus wel met bijvoorbeeld twee Pc's met elke Pc gelijktijdig 1Gbps halen, maar met een enkele Pc nooit meer dan 1GBps.
Tenzij ik op de pc ook twee Nics bond. Dan kan ik wel 2gbps halen toch?

https://f1nerd.nl


Acties:
  • +1 Henk 'm!

  • jvanhambelgium
  • Registratie: April 2007
  • Laatst online: 16-09 18:48
WRT54G schreef op dinsdag 1 december 2020 @ 22:13:
Van het weekend gaat mijn DS415+ ruimte maken voor een upgrade. Hij wordt gewisseld voor een DS920+.
Nu heeft de 920+ ook 2 NVMe sloten erin zitten. Wat/waar ga ik voor winst behalen als ik één (heb er eventueel eentje liggen) NVMe schijf erin zou doen als cache? Waarmee merk je dit?

Zijn er real life voorbeelden?
Als je maar 1 NVMe hebt liggen kan je enkel de "read-cache" activeren. Voor een "read-write" cache setup moet je beide NVMe-sloten voorzien van modules.
Of het iets gaat uitmaken ? Hangt van je gebruikt af. Ik denk zéér weinig voor gewoon thuisgebruik.
Op kantoor waar 5-10 mensen tegelijk gebruik maken van de Synology en constant bestanden benaderen vb via SMB zal dit meer merkbaar zijn.

Beter voor de performantie zal zijn als je in je 920+ vb 1 of 2 disk-sloten voorziet in een eigen volume van SSD's en daarop vb je VM's zou draaien of database zou draaien oid.

Je huidige LAN zal gigabit zijn en zelfs met "gewone schijven" is de 920+ perfect capabel om de LAN te verzadigen.

Acties:
  • 0 Henk 'm!

  • grimson
  • Registratie: Augustus 2000
  • Laatst online: 17-09 22:34

grimson

domeingrommer

WRT54G schreef op dinsdag 1 december 2020 @ 22:13:
Van het weekend gaat mijn DS415+ ruimte maken voor een upgrade.
Ik heb al 2 van deze modellen zien sterven door die Intel cpu bug. Die van jou heeft blijkbaar geen issues gehad in zijn levensduur?

Zon opbrengst http://plugwise.grimson.nl/ | Fotomeuk


Acties:
  • 0 Henk 'm!

  • WRT54G
  • Registratie: Februari 2002
  • Laatst online: 16-09 22:13
@jvanhambelgium
Duidelijk verhaal! Thanks!
Na wat zoeken lees ik ook overal gebruik GEEN consumenten SSD met TLC geheugen. Wat ik heb liggen... Juist een TLC consumenten schijf. Dus ik skip het hele ssd cache verhaal voorlopig.

Acties:
  • +1 Henk 'm!

  • RobbyTown
  • Registratie: April 2007
  • Niet online

RobbyTown

Godlike

grimson schreef op woensdag 2 december 2020 @ 08:10:
[...]

Ik heb al 2 van deze modellen zien sterven door die Intel cpu bug. Die van jou heeft blijkbaar geen issues gehad in zijn levensduur?
Had er over gelezen. Hier leeft die ook nog zonder problemen O+ .

Blog - Glasnet status (privé log) - Nette LAN - RIPE Atlas Probe


Acties:
  • 0 Henk 'm!

  • basvn
  • Registratie: April 2013
  • Laatst online: 17-09 16:05

basvn

Breezand - NHN

Wij zijn over aan het gaan van een QNAP naar een Synology NAS,
en nu loop ik tegen het volgende aan:

Op de QNAP, werd er een mirror gemaakt van de data, naar een HDD in 1 van onze pc's.
deze HDD word elke ochtend weer door de KPN backup meegenomen.

Maar ik krijg het bij de Synology niet aan de praat, om een mirror te maken naar een HDD.
Ik heb gekeken naar Hyper Backup ect, maar dat is of naar een usb/hdd die in de NAS geplugd zijn. en niet wat er in de pc zit.

Wat doe ik verkeerd?

3000Wp oost-west pvoutput.org | 550Wp zuid | SSW: Atlantic Explorer 3 200L pvoutput.org| Mitsubishi SRK 35ZS-S pvoutput.org


Acties:
  • +1 Henk 'm!

  • jvanhambelgium
  • Registratie: April 2007
  • Laatst online: 16-09 18:48
basvn schreef op woensdag 2 december 2020 @ 09:42:
Wij zijn over aan het gaan van een QNAP naar een Synology NAS,
en nu loop ik tegen het volgende aan:

Op de QNAP, werd er een mirror gemaakt van de data, naar een HDD in 1 van onze pc's.
deze HDD word elke ochtend weer door de KPN backup meegenomen.

Maar ik krijg het bij de Synology niet aan de praat, om een mirror te maken naar een HDD.
Ik heb gekeken naar Hyper Backup ect, maar dat is of naar een usb/hdd die in de NAS geplugd zijn. en niet wat er in de pc zit.

Wat doe ik verkeerd?
Mischien moet je vanuit FileStation eerst een "mount remote location" (Tools -> Mount Remote Folder) maken (dus een SMB-share op die PC) en vervolgens een backup-job starten naar een "lokale" folder waaronder dan eigenlijk de remote mount zit ? Ik denk wel dat dit lukt.

Acties:
  • 0 Henk 'm!
ymoona schreef op woensdag 2 december 2020 @ 08:06:
[...]


Tenzij ik op de pc ook twee Nics bond. Dan kan ik wel 2gbps halen toch?
Nee ook niet want je Nas kan dat niet formeel niet.
Windows heeft in de nieuwste versie van smb iets ingebouwd dat multichannel heet wat zoiets zou kunnen maar dat wordt door Samba (wat Synology gebruikt) nog niet ondersteund.

Samba heeft inmiddels een experimentele versie daarvan in zijn software ingebouwd dus als je van experimenteren houd zou je dat kunnen proberen.
zie deze tekst uit de releasenotes van Samba.
Samba 4.4.0 adds *experimental* support for SMB3 Multi-Channel.
Multi-Channel is an SMB3 protocol feature that allows the client
to bind multiple transport connections into one authenticated
SMB session. This allows for increased fault tolerance and
throughput. The client chooses transport connections as reported
by the server and also chooses over which of the bound transport
connections to send traffic. I/O operations for a given file
handle can span multiple network connections this way.
An SMB multi-channel session will be valid as long as at least
one of its channels are up.

In Samba, multi-channel can be enabled by setting the new
smb.conf option "server multi channel support" to "yes".
It is disabled by default.

Samba has to report interface speeds and some capabilities to
the client. On Linux, Samba can auto-detect the speed of an
interface. But to support other platforms, and in order to be
able to manually override the detected values, the "interfaces"
smb.conf option has been given an extended syntax, by which an
interface specification can additionally carry speed and
capability information. The extended syntax looks like this
for setting the speed to 1 gigabit per second:

interfaces = 192.168.1.42;speed=1000000000

This extension should be used with care and are mainly intended
for testing. See the smb.conf manual page for details.

CAVEAT: While this should be working without problems mostly,
there are still corner cases in the treatment of channel failures
that may result in DATA CORRUPTION when these race conditions hit.
It is hence

NOT RECOMMENDED TO USE MULTI-CHANNEL IN PRODUCTION

at this stage. This situation can be expected to improve during
the life-time of the 4.4 release. Feed-back from test-setups is
highly welcome.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


Acties:
  • 0 Henk 'm!

  • sypie
  • Registratie: Oktober 2000
  • Niet online
Als ik me goed heb ingelezen zijn verschillen tussen de 420+ en de 920+ beperkt tot het volgende (relevante):
* Snelheid CPU
* Hoeveelheid RAM
* Uitbreidbaarheid met DX517

Op basis hiervan ga ik voor de volgende set:
#CategoryProductPrijsSubtotaal
4Interne harde schijvenWD Red Plus, 4TB€ 98,99€ 395,96
1Geheugen internCrucial CT16G4SFD8266€ 58,30€ 58,30
2Solid state drivesCrucial MX500 m.2 250GB€ 36,50€ 73,-
1NetwerkopslagSynology DS420+€ 496,60€ 496,60
Bekijk collectie
Importeer producten
Totaal€ 1.023,86

Waarom SSD cache en extra RAM? Omdat het kan én omdat ik wil gaan prutsen met VM's. Dit doe ik tot nu toe steeds op mijn MacBook Air, die daardoor echt tegen z'n beperkingen aanloopt. Daarbij kosten die Crucial dingetjes ook bijna niks in vergelijking met de rest van de NAS.

Deze set komt als vervanger van mijn DS211j. In de webinterface is die traag tot en met. De schijven daarvan zijn ook al aardig vol en aangezien ik nu in een andere levensfase zit voel ik veel meer verantwoordelijkheid voor een goede backup. Over een aantal jaren wil ik niet tegen mijn kind moeten zeggen "Sorry, papa had geen goede backup gemaakt omdat hij op z'n centjes zat."

De bedoeling van de 4 schijven is dat het een RAID 1 opstelling wordt zodat een defecte schijf niet direct een probleem vormt. Daarnaast zorg ik er voor dat er een backup naar extern gaat. Dat kan die DS211J nog wel op zich nemen op afstand.

Doe ik hiermee een aankoop die mijn huidige NAS zal gaan vervangen of zijn er suggesties?

EDIT: De genoemde SSD's hierboven zijn NIET de juiste! Hieronder staat de juiste vermeld.
#CategoryProductPrijsSubtotaal
2Solid state drivesCrucial P2 250GB€ 47,30€ 94,60
Bekijk collectie
Importeer producten
Totaal€ 94,60

[ Voor 15% gewijzigd door sypie op 02-12-2020 18:01 . Reden: Verkeerde SSD's gekozen bij deze NAS, ze moeten NVME zijn. ]


Acties:
  • 0 Henk 'm!

  • basvn
  • Registratie: April 2013
  • Laatst online: 17-09 16:05

basvn

Breezand - NHN

jvanhambelgium schreef op woensdag 2 december 2020 @ 09:54:
[...]


Mischien moet je vanuit FileStation eerst een "mount remote location" (Tools -> Mount Remote Folder) maken (dus een SMB-share op die PC) en vervolgens een backup-job starten naar een "lokale" folder waaronder dan eigenlijk de remote mount zit ? Ik denk wel dat dit lukt.
Afbeeldingslocatie: https://tweakers.net/i/UulxLvvRgyw_I9YRIiZBTvJAi6A=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/nyHNiy4rOZBOZn1oQCLzvyS3.png?f=user_large

ik krijg deze melding.

3000Wp oost-west pvoutput.org | 550Wp zuid | SSW: Atlantic Explorer 3 200L pvoutput.org| Mitsubishi SRK 35ZS-S pvoutput.org


Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
Je moet CIFS kiezen, niet NFS.

Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
sypie schreef op woensdag 2 december 2020 @ 10:07:
De bedoeling van de 4 schijven is dat het een RAID 1 opstelling wordt zodat een defecte schijf niet direct een probleem vormt.
4 schrijven in RAID1? Ik zou het gewoon in SHR laten, zodat het een hybride RAID 5 word.

Acties:
  • 0 Henk 'm!

  • basvn
  • Registratie: April 2013
  • Laatst online: 17-09 16:05

basvn

Breezand - NHN

Shadow771 schreef op woensdag 2 december 2020 @ 10:26:
[...]


Je moet CIFS kiezen, niet NFS.
Afbeeldingslocatie: https://tweakers.net/i/l_elbBk18OswSh9gic9W9s7AxZ4=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/ypw30hlfDtpBVacLUoYEwsdd.png?f=user_large

Krijg ik ''dezelfde'' foutmelding mee.

Heb de HDD gedeeld, en hij verwijst nu naar het netwerkpad

Afbeeldingslocatie: https://tweakers.net/i/_MdahoIRT1I0N3u_Vzxt24t9t90=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/WHWFA8AWNUib8oFsHcXiUI3W.png?f=user_large

zit geen wachtwoord op de pc, en gebruikersnaam is ingevuld


https://computertotaal.nl...in%2D%20of%20uitschakelen.
dit is ook aangezet

[ Voor 12% gewijzigd door basvn op 02-12-2020 10:57 ]

3000Wp oost-west pvoutput.org | 550Wp zuid | SSW: Atlantic Explorer 3 200L pvoutput.org| Mitsubishi SRK 35ZS-S pvoutput.org


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

sypie schreef op woensdag 2 december 2020 @ 10:07:
Als ik me goed heb ingelezen zijn verschillen tussen de 420+ en de 920+ beperkt tot het volgende (relevante):
* Snelheid CPU
* Hoeveelheid RAM
* Uitbreidbaarheid met DX517

Op basis hiervan ga ik voor de volgende set:
#CategoryProductPrijsSubtotaal
4Interne harde schijvenWD Red Plus, 4TB€ 98,99€ 395,96
1Geheugen internCrucial CT16G4SFD8266€ 58,30€ 58,30
2Solid state drivesCrucial MX500 m.2 250GB€ 36,50€ 73,-
1NetwerkopslagSynology DS420+€ 496,60€ 496,60
Bekijk collectie
Importeer producten
Totaal€ 1.023,86

Waarom SSD cache en extra RAM? Omdat het kan én omdat ik wil gaan prutsen met VM's. Dit doe ik tot nu toe steeds op mijn MacBook Air, die daardoor echt tegen z'n beperkingen aanloopt. Daarbij kosten die Crucial dingetjes ook bijna niks in vergelijking met de rest van de NAS.

Deze set komt als vervanger van mijn DS211j. In de webinterface is die traag tot en met. De schijven daarvan zijn ook al aardig vol en aangezien ik nu in een andere levensfase zit voel ik veel meer verantwoordelijkheid voor een goede backup. Over een aantal jaren wil ik niet tegen mijn kind moeten zeggen "Sorry, papa had geen goede backup gemaakt omdat hij op z'n centjes zat."

De bedoeling van de 4 schijven is dat het een RAID 1 opstelling wordt zodat een defecte schijf niet direct een probleem vormt. Daarnaast zorg ik er voor dat er een backup naar extern gaat. Dat kan die DS211J nog wel op zich nemen op afstand.

Doe ik hiermee een aankoop die mijn huidige NAS zal gaan vervangen of zijn er suggesties?
Ik was eigenwijs en heb (ondanks de vele berichten dat SSD's niets doen in een thuis situatie) dat toch gedaan bij aanschaf van mijn 918+. Niet alleen heb ik er nooit iets positiefs van gemerkt, de NAS werd er ook met vlagen instabiel van, tot een punt waarop mijn hele volume crashte en ik heel veel data kwijt ben geraakt. Sinds ik de SSD's (WD Black) eruit heb gehaald (samen met de Crucial 16GB, en vervangen door origineel Synology geheugen) heb ik hier geen last meer van gehad en draait het ding megastabiel. Doe met deze info wat je wil, maar ik dacht ik geef even mijn ervaring met een vergelijkbare setup.

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +1 Henk 'm!

  • Hubert
  • Registratie: November 1999
  • Laatst online: 10:55

Hubert

Decepticons 4ever!!!!

Sp33dFr34k schreef op woensdag 2 december 2020 @ 10:43:
[...]


Ik was eigenwijs en heb (ondanks de vele berichten dat SSD's niets doen in een thuis situatie) dat toch gedaan bij aanschaf van mijn 918+. Niet alleen heb ik er nooit iets positiefs van gemerkt, de NAS werd er ook met vlagen instabiel van, tot een punt waarop mijn hele volume crashte en ik heel veel data kwijt ben geraakt. Sinds ik de SSD's (WD Black) eruit heb gehaald (samen met de Crucial 16GB, en vervangen door origineel Synology geheugen) heb ik hier geen last meer van gehad en draait het ding megastabiel. Doe met deze info wat je wil, maar ik dacht ik geef even mijn ervaring met een vergelijkbare setup.
dan zou ik dat eerder bij je ram zoeken. ergo ik draai zelf een 918+ met 2x WD Black NVMe SSD SN750 250GB en Crucial CT51264BF186DJ 4GB SO-DIMM rock solid. dacht overigens dat maximale geheugen officieel maar 8gb was? Overigens merk ik wel degelijk een performance boost. interface voelt veel snapier aan bv.

[ Voor 4% gewijzigd door Hubert op 02-12-2020 10:59 ]

Together let us beat this ample field, Try what the open, what the covert yield.


Acties:
  • 0 Henk 'm!

  • jvanhambelgium
  • Registratie: April 2007
  • Laatst online: 16-09 18:48
Probeer een keer op het IP van deze PC ?? Mischien een resolving probleem ?

Acties:
  • 0 Henk 'm!

  • WRT54G
  • Registratie: Februari 2002
  • Laatst online: 16-09 22:13
Ik heb al een tijdje Docker draaien op mijn Syno, naar volle tevredenheid.
Nu wil ik Pihole en/of AdGuard Home ook middels docker gaan draaien.
Overal wordt aangeraden hiervoor MacVLAN te gebruiken zodat de container een eigen IP krijgt en er geen port conflicten zijn.

Nu heb ik netjes middels CLI een MacVLAN gemaakt:
code:
1
docker network create -d macvlan --subnet=192.168.20.0/24 --gateway=192.168.20.1 --ip-range=192.168.20.50/32 -o parent=ovs_eth0 pihole_network


Ik zie in Docker bij netwerken ook netjes het nieuwe netwerk erbij komen en als ik een nieuwe container aanmaak kan ik het pihole_network ook kiezen.

Echter bij het daadwerkelijke aanmaken, laatste stap dus, krijg ik toch de melding dat er port conflicten zijn. 8)7

Ik dacht juist met MacVLAN dit te "omzeilen".
Iemand een idee wat er mis is?

Acties:
  • +1 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
WRT54G schreef op woensdag 2 december 2020 @ 11:35:

Overal wordt aangeraden hiervoor MacVLAN te gebruiken zodat de container een eigen IP krijgt en er geen port conflicten zijn.

Nu heb ik netjes middels CLI een MacVLAN gemaakt:
code:
1
docker network create -d macvlan --subnet=192.168.20.0/24 --gateway=192.168.20.1 --ip-range=192.168.20.50/32 -o parent=ovs_eth0 pihole_network


Ik zie in Docker bij netwerken ook netjes het nieuwe netwerk erbij komen en als ik een nieuwe container aanmaak kan ik het pihole_network ook kiezen.

Echter bij het daadwerkelijke aanmaken, laatste stap dus, krijg ik toch de melding dat er port conflicten zijn. 8)7

Ik dacht juist met MacVLAN dit te "omzeilen".
Iemand een idee wat er mis is?
Ik kan je helpen. Ik heb zelf AdGuard Home draaien op een MACVLAN Docker network. Maar dit gaat verder dan alleen maar ff een netwerkje aanmaken in Docker.
Maar eerst wil ik dit van je weten:

Ja het word aangeraden heb ik gezien, maar er moet ook wel een GOED reden voor zijn. Mijn reden is dat ik ook al de DNS package van Synology op mijn NAS heb draaien. Hierdoor is dus port 53 al in gebruik op mijn host.

Is dit bij jou ook het geval, waardoor je je Docker container een aparte IP adres wilt geven op je LAN netwerk?
En AdGuard Home kan alles al wat PiHole kan, dus je hoeft niet beide te hebben.

EDIT: En laat ik ook maar gelijk vragen hoe je de Docker container aanmaakt. Gebruik je SSH, wat voor je dan in. Ik vermoed dat je container in 2 netwerken tegelijk gedropt word.

EDIT2: Wil je dat je NAS ook gebruik kan maken van AdGuard Home DNS? Met MACVLAN gaat dat niet zomaar en zijn er ook wat aanpassingen nodig. Ook aan je docker network want ik zie dat daar maar 1 IP address in past.

[ Voor 12% gewijzigd door Shadow771 op 02-12-2020 12:03 ]


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Hubert schreef op woensdag 2 december 2020 @ 10:58:
[...]


dan zou ik dat eerder bij je ram zoeken. ergo ik draai zelf een 918+ met 2x WD Black NVMe SSD SN750 250GB en Crucial CT51264BF186DJ 4GB SO-DIMM rock solid. dacht overigens dat maximale geheugen officieel maar 8gb was? Overigens merk ik wel degelijk een performance boost. interface voelt veel snapier aan bv.
RAM of SSD's moet het probleem zijn geweest, ik heb het niet meer gedetailleerder uitgezocht omdat ik er helemaal klaar mee was. Die RAM limit zijn veel discussies over geweest, 8 of 16. Ik heb er nu Synology branded 8GB in zitten, ook daar zeggen mensen weer van dat het onzin is. Waar ik het mee eens ben, maar ik wilde vanaf dat moment voor zekerheid gaan.

Interface heb ik nooit iets van gemerkt qua snelheid, vind hem nu zonder SSD's ook al behoorlijk snel.

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • WRT54G
  • Registratie: Februari 2002
  • Laatst online: 16-09 22:13
Shadow771 schreef op woensdag 2 december 2020 @ 11:44:
[...]


Ik kan je helpen. Ik heb zelf AdGuard Home draaien op een MACVLAN Docker network. Maar dit gaat verder dan alleen maar ff een netwerkje aanmaken in Docker.
Maar eerst wil ik dit van je weten:

Ja het word aangeraden heb ik gezien, maar er moet ook wel een GOED reden voor zijn. Mijn reden is dat ik ook al de DNS package van Synology op mijn NAS heb draaien. Hierdoor is dus port 53 al in gebruik op mijn host.

Is dit bij jou ook het geval, waardoor je je Docker container een aparte IP adres wilt geven op je LAN netwerk?
En AdGuard Home kan alles al wat PiHole kan, dus je hoeft niet beide te hebben.

EDIT: En laat ik ook maar gelijk vragen hoe je de Docker container aanmaakt. Gebruik je SSH, wat voor je dan in. Ik vermoed dat je container in 2 netwerken tegelijk gedropt word.
Ik heb port 80 en 443 al draaien op mijn Syno dus dat is de reden dat ik MacVLAN wil gebruiken.
Wellicht dat port 54 daar nog bij komt maar dat is nu niet het geval.

Docker container maak ik "gewoon" vanuit de Docker GUI op mijn Syno.

Acties:
  • 0 Henk 'm!

  • aex351
  • Registratie: Juni 2005
  • Laatst online: 11:31

aex351

I am the one

Volgens mij uit diverse testen kwam naar voren dat SSD als cache in een NAS voor een thuissituatie met weinig gebruikers weinig toevoegde. Ik snap het idee van het maximale eruit willen persen. Alleen dan kan je beter heel de NAS vullen met SSDs. Geheugen daarentegen lijkt mij wel belangrijk. Zelf heb ik een 916+ met 8GB en deze verbruikt al snel 2-4GB (30%) geheugen met een paar Docker containers. Ook dus nog ruime marge.

Maar ik kan me voorstellen dat wanneer je veel gebruikers hebt dat 8GB dan toch wel net even wat fijner werkt. Hetzelfde met de CPU.

< dit stukje webruimte is te huur >


Acties:
  • +1 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 15-09 14:44
@WRT54G
Voorbeeld.
kraades in "[Docker] [alle OS] Het grote Docker ervaringen en tips topic"
Ik heb het ook zo draaien.
Is wel via de commando line...

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • WRT54G
  • Registratie: Februari 2002
  • Laatst online: 16-09 22:13
Thanks @kraades
Ik ga het eens checken!

Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
WRT54G schreef op woensdag 2 december 2020 @ 12:03:
[...]

Ik heb port 80 en 443 al draaien op mijn Syno dus dat is de reden dat ik MacVLAN wil gebruiken.
Wellicht dat port 54 daar nog bij komt maar dat is nu niet het geval.
Voor mij persoonlijk is dit geen goede reden. Port 80 en 443 is voor de webpanel toegang en eventueel DoH als je dat instelt voor je interne clients (vind ik beetje overbodig voor je interne netwerk). Dit is makkelijk te exposen via de Synology Reverse Proxy opties.

In 'Port settings' van de container (onder EDIT) kan je port mappings maken: bijv

80080 -> 80
80443 -> 443

Port 53 is voor standaard DNS requests.

En dan zou je geen port conflict moeten krijgen, en zou je je Adguard webpanel moeten kunenn bereiken via http://nas_ip:80080 .

Maar het is aan jou de keus.
WRT54G schreef op woensdag 2 december 2020 @ 12:03:
Docker container maak ik "gewoon" vanuit de Docker GUI op mijn Syno.
Kan je daar je MACVLAN aangemaakte netwerk in zien? Check dan of je AdGuard container niet ook toevallig in een andere netwerk zit.

[ Voor 4% gewijzigd door Shadow771 op 02-12-2020 12:20 ]


Acties:
  • 0 Henk 'm!

  • Rossi
  • Registratie: Januari 2005
  • Laatst online: 25-03 22:21
Ik heb een aantal vragen, maar ik zal eerst even kort de situatie schetsen:

Synology RS3618xs
12x6TB in RAID5
10Gbit ethernet
Doet dienst als storage voor onsite backups.
LUNs worden aangeboden via iSCSI aan onze backupservers

1e vraag:
Storage is aan het volraken, dus we zijn aan het kijken naar een uitbreiding. Nu kan je gaan voor een RX1217 om simpelweg een shelf toe te voegen met extra disken, of je kan een extra RS3618xs toevoegen.
Ik lees op het internet verschillende meningen over het mogelijk verlies aan snelheid over de "Expension ports" van Synology. Iemand daar ervaring mee?

2e vraag:
Ik lees dat je voor grotere volumes meer RAM nodig hebt, maar nergens een precieze guideline. Heeft iemand hier meer ervaring mee of adviezen voor?

3e vraag:
Hot spare. Is het mogelijk om 1 hot spare aan meerdere storage pools/raidsets toe te wijzen? Ik wil eigenlijk mijn raidsets niet groter maken dan 5/6 disken omdat de uitbreiding met disken van 14+TB gaat werken, en wil de rebuildtime wat beperken. Dat zou betekenen dat ik 1x storagepool/raidset van 6 disken en 1x storagepool/raidset van 5 disken kan maken, met 1 hot spare welke ik toewijs aan beide raidsets. Scheelt weer in het verlies van storagecapaciteit.

Ik ben benieuwd naar jullie meningen hierover!

Acties:
  • 0 Henk 'm!

  • WRT54G
  • Registratie: Februari 2002
  • Laatst online: 16-09 22:13
Shadow771 schreef op woensdag 2 december 2020 @ 12:19:
[...]


Voor mij persoonlijk is dit geen goede reden. Port 80 en 443 is voor de webpanel toegang en eventueel DoH als je dat instelt voor je interne clients (vind ik beetje overbodig voor je interne netwerk). Dit is makkelijk te exposen via de Synology Reverse Proxy opties.

In 'Port settings' van de container (onder EDIT) kan je port mappings maken: bijv

80080 -> 80
80443 -> 443

Port 53 is voor standaard DNS requests.

En dan zou je geen port conflict moeten krijgen, en zou je je Adguard webpanel moeten kunenn bereiken via http://nas_ip:80080 .

Maar het is aan jou de keus.


[...]


Kan je daar je MACVLAN aangemaakte netwerk in zien? Check dan of je AdGuard container niet ook toevallig in een andere netwerk zit.
Ja die zie ik erbij staan.
Standaard bij netwerk settings zet ie hem op Bridge en die verwijder ik netjes nadat ik MacVLAN heb toegevoegd.

Acties:
  • 0 Henk 'm!
@Rossi
1. De Expension port van Synology is gewoon een eSata dus daar zit geen snelheid verschil in met de onboard Sata aansluitingen.
Maar uiteraard zet je dan alle disken op een port dus als je meerdere volumes daar aanmaakt en die ook gelijktijdig benadert dan kan daar theoretisch een bottleneck ontstaan maar ik denk niet dat je dat effectief gaat merken.

2. Nooit van gehoord. Wat zou daar de reden voor kunnen zijn?

3. Hot spare zal nooit je rebuild tijd verkorten, het enige wat er gebeurd is dat bij een defecte disk die automatisch wordt vervangen door de hot spare en daarna gaat hij de Raidset rebuilden.
Ik heb hier ook een hot spare en die ligt in de winkel en die kan binnen een half uur aan het rebuilden beginnen. O-)

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


Acties:
  • 0 Henk 'm!

  • Indoubt
  • Registratie: Maart 2003
  • Laatst online: 11-09 22:26

Indoubt

Always be indoubt until sure

Ik heb in mijn nieuwe DS220+ eindelijk de tweede schijf ontvangen (1 was DOA en is retour gestuurd)

De tweede schijf is er nu bij gezet en de schijf is geverifieerd en gezond. Ik heb de schijven in SHR (Synology hybrid raid) mode. Nu staat er achter beide schijven "zonder gegevensbescherming" .

Het was de bedoeling dat de gegevens veilig zijn indien van een schijfcrash. Qua capaciteit heb ik nog niet het volume van 1 schijf nodig (beide schijven zijn identiek WD red 4TB.

Van de tweede schijf is er ook niets in gebruik op de eerste staat mijn muziek en foto collectie van een paar honderd GB.

Ik heb al gezocht maar ik kom er niet uit. Ik dacht dat met SHR de gegevens beschermt waren zoals met bv RAID 1. Heb ik iets verkeerd geïnstalleerd of is mijn perceptie van SHR incorrect?

Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
@Indoubt
Heb je de 2e schrijf in de zelfde Storage Pool gezet als waar de 1e schrijf in zit?

Acties:
  • 0 Henk 'm!

  • Rossi
  • Registratie: Januari 2005
  • Laatst online: 25-03 22:21
@Ben(V)
Dank voor je reactie.

1. Dat idee had ik ook al, maar ik had nog niet kunnen vinden wat voor aansluiting het nu precies was, eSata dus. Zeker omdat het alleen voor backups/restore gebruikt wordt ben ik er ook niet heel bang voor.

2. Op de site van Syno staat dat je meer RAM nodig hebt: https://www.synology.com/nl-nl/products/RS3618xs#specs
Onder het kopje "Opslag" zie je dat er 32GB RAM vereist bij volumes groter dan 200TB. Nu ga ik geen volume aanmaken van die grootte, maar zitten daar ook tussenstappen in. Op dit moment zit er de standaard 8GB in, maar moet je vanaf een bepaalde waarde bijvoorbeeld upgraden naar 16GB. Dat kan ik nergens vinden.

3. Uiteraard, dat begrijp ik, maar het zal altijd sneller zijn dan mijn tripje naar ons DC. Wij hebben nu inderdaad een cold spare op voorraad liggen, maar de hot spare zorgt ervoor dat je net wat minder hard moet gaan rennen dan bij een cold spare.

Acties:
  • 0 Henk 'm!

  • RudyL
  • Registratie: Mei 2006
  • Laatst online: 14:15
Wellicht moet ik het hier (dit topic) wel helemaal niet vragen, maar ik heb nu al enige tijd een Synology DS118 in mijn thuisnetwerk opgenomen. Op de diverse pc's een netwerkschijf naar deze NAS gemaakt en zo werkt het al een tijdje voor mij na behoren.

Echter gaat de laptop nu ook mee naar andere locaties waar bestanden openen en bewerken wel wenselijk is. Nu al een tijdje dingen gelezen, quickconnect, drive, webdav en vpn. Ondanks dat ik niet veel kennis heb van netwerken en instellingen lijkt de OpenVPN verbinding ingesteld via onderstaande links ingesteld:

https://www.synology.com/.../help/VPNCenter/vpn_setup
https://www.synology.com/...NCenter/vpn_setup#dynamic

Ik heb de standaard UDP poort aangehouden en niet gekozen voor de IPv6 optie.
Op mijn ExperiaBox V10A heb ik via port mapping de port forwarding ingesteld en verder eigenlijk niets aangepast. Hier wel het WAN IP vandaan getrokken (voor wat betreft mijn netwerk kennis, ik zou vooraf denken dat dit mijn .254 netwerkadres zou zijn).

Als ik nu een hotspot opzet via mijn telefoon via de mobiele verbinding, dan lijkt het prima te werken. Ik vraag mij echter af of dit daadwerkelijk alles is. Qua veiligheid, etc. kan ik op de info pagina van synology niet veel meer vinden.

LOETKE


Acties:
  • +1 Henk 'm!

  • Indoubt
  • Registratie: Maart 2003
  • Laatst online: 11-09 22:26

Indoubt

Always be indoubt until sure

Shadow771 schreef op woensdag 2 december 2020 @ 13:38:
@Indoubt
Heb je de 2e schrijf in de zelfde Storage Pool gezet als waar de 1e schrijf in zit?
Ah, nee, ik heb inderdaad 2 opslagpools blijkbaar.

Ik ben nu aan het uitzoeken hoe ik dat wijzig maar voor zover ik kan zien moet ik eerst de 2e opslagpool verwijderen en daarna de tweede disk aan de 1e opslagpool toevoegen. Ik ga even kijken of dat lukt.

thanks zover

Edit: het heeft gewerkt. de 2e pool moet verwijderd worden, pas daarna kun je aan de eerste pool je 2e harde schijf toevoegen. Bedenk dat de data op de 2e schijf wordt gewist in dit proces dus indien je daar wat op hebt staan dan gaat dit verloren (mijn 2e HD was leeg). DSM geeft nu aan dat er gegevensbescherming is.

[ Voor 24% gewijzigd door Indoubt op 02-12-2020 14:29 ]


Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
RudyL schreef op woensdag 2 december 2020 @ 13:53:
Als ik nu een hotspot opzet via mijn telefoon via de mobiele verbinding, dan lijkt het prima te werken. Ik vraag mij echter af of dit daadwerkelijk alles is. Qua veiligheid, etc. kan ik op de info pagina van synology niet veel meer vinden.
Als het werkt zonder warnings ben je al best een eind. Gebruik je de OpenVPN.config file die je zelf uit de NAS genereert heb?

Staan daar zaken in als 'cipher AES-256-CBC' en 'auth SHA1' etc?
Heb je een domain (Synology DDNS is ook goed) waarmee je verbinding mee kan maken?
Heb je daar een SSL cert voor (kan ook gratis via Synology verkregen worden (Let's Encrypt))?
Maak je daar gebruik van in je VPN setup?
Zoja heb je ook dit staan in je OpenVPN.config. "remote-cert-tls"

Security neem ik nooit licht.. O-)

Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
Indoubt schreef op woensdag 2 december 2020 @ 14:16:
[...]
Ik ben nu aan het uitzoeken hoe ik dat wijzig maar voor zover ik kan zien moet ik eerst de 2e opslagpool verwijderen en daarna de tweede disk aan de 1e opslagpool toevoegen. Ik ga even kijken of dat lukt.
d:)b
Je moet erop kunnen klikken gewoon op de 'Remove' / 'Verwijder' knop drukken en volg de rest van de stappen. Is een nieuwe disk, dus er zou geen data op moeten staan.

[ Voor 20% gewijzigd door Shadow771 op 02-12-2020 14:31 ]


Acties:
  • 0 Henk 'm!
Rossi schreef op woensdag 2 december 2020 @ 13:40:
@Ben(V)
Dank voor je reactie.

1. Dat idee had ik ook al, maar ik had nog niet kunnen vinden wat voor aansluiting het nu precies was, eSata dus. Zeker omdat het alleen voor backups/restore gebruikt wordt ben ik er ook niet heel bang voor.

2. Op de site van Syno staat dat je meer RAM nodig hebt: https://www.synology.com/nl-nl/products/RS3618xs#specs
Onder het kopje "Opslag" zie je dat er 32GB RAM vereist bij volumes groter dan 200TB. Nu ga ik geen volume aanmaken van die grootte, maar zitten daar ook tussenstappen in. Op dit moment zit er de standaard 8GB in, maar moet je vanaf een bepaalde waarde bijvoorbeeld upgraden naar 16GB. Dat kan ik nergens vinden.

3. Uiteraard, dat begrijp ik, maar het zal altijd sneller zijn dan mijn tripje naar ons DC. Wij hebben nu inderdaad een cold spare op voorraad liggen, maar de hot spare zorgt ervoor dat je net wat minder hard moet gaan rennen dan bij een cold spare.
Ad2 Ik vermoed dat het met caching te maken heeft. Linux doet aan dynamisch caching waarbij de cache size wordt bepaald door o.a. afmetingen van de volumes en beschikbaar geheugen.

Ad3 Je kunt een hot spare maar aan een enkele storagepool toekennen.

Over het algemeen heeft de professionele wereld het concept van hot spare achter zich gelaten.
Een rebuild van een raidset is een zware belasting voor alle disken en dus een relatief hoog risico op nog een disk failure.
Je zult echt niet de eerste zijn die dat overkomt.

Wat de meeste bedrijven doen is de status van de raidset monitoren en bij de eerste problemen een full backup te maken en dan pas de disk te vervangen en dat nooit automatisch te laten doen.

Dus in Synology termen, regelmatig je raidset scrubben en S.M.A.R.T. testen en bij het eerste teken van problemen een backup maken en dan pas de disk vervangen.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


Acties:
  • 0 Henk 'm!

  • WRT54G
  • Registratie: Februari 2002
  • Laatst online: 16-09 22:13
@Shadow771
@kraades

Ik ben er inmiddels uit!

Mijn commando:
code:
1
docker network create -d macvlan --subnet=192.168.20.0/24 --gateway=192.168.20.1 --ip-range=192.168.20.50/32 -o parent=ovs_eth0 pihole_network


Die werkt gewoon!
Daarna kan je via de GUI je container configureren.
Waar ik de fout inging, is wanneer ik de poorten moest instellen. Deze moet je gewoon op automatisch laten staan. Dan werkt het gewoon zoals het bedoeld is. Poort 80 wordt dan ook poort 80. etc etc
Ik dacht dat ik hem van automatisch moest halen en dan de juiste poort moest invullen. Maar met een MacVLAN kan (moet) je deze dus op automatisch laten staan.

Afbeeldingslocatie: https://i.imgur.com/hz6Rqav.png

Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
WRT54G schreef op woensdag 2 december 2020 @ 14:50:
Waar ik de fout inging, is wanneer ik de poorten moest instellen. Deze moet je gewoon op automatisch laten staan. Dan werkt het gewoon zoals het bedoeld is. Poort 80 wordt dan ook poort 80. etc etc
Ik dacht dat ik hem van automatisch moest halen en dan de juiste poort moest invullen. Maar met een MacVLAN kan (moet) je deze dus op automatisch laten staan.
Ah ik wist niet dat je dit had gedaan. Sterker nog, op MacVLAN kan je geen port mappings veranderingen doorvoeren. Misschien dat hierdoor de Syno GUI de mist inging.

Dus eigenlijk was het niet eens nodig om dit in te stellen.

Misschien leuk om te delen: dit is hoe ik mijn AdGuard container aanmaak en start op 1 van mijn NAS'en:
code:
1
docker run --name adguard2 --hostname adguard2 -v /volume1/docker/AdGuard2/data:/opt/adguardhome/work -v /volume1/docker/AdGuard2/config:/opt/adguardhome/conf --network physical_network_noproxy --ip 192.168.1.194 -d adguard/adguardhome

[ Voor 25% gewijzigd door Shadow771 op 02-12-2020 14:57 ]


Acties:
  • 0 Henk 'm!

  • WRT54G
  • Registratie: Februari 2002
  • Laatst online: 16-09 22:13
Opgelost iig!

Enige wat bij mij (nog) niet werkt, maar wellicht ligt het aan de AdGuard Home image.
Port 3000 krijg ik niet naar voren en daardoor kan ik ook de instellingen (username/password) niet instellen.

Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
WRT54G schreef op woensdag 2 december 2020 @ 14:56:
Opgelost iig!

Enige wat bij mij (nog) niet werkt, maar wellicht ligt het aan de AdGuard Home image.
Port 3000 krijg ik niet naar voren en daardoor kan ik ook de instellingen (username/password) niet instellen.
Kijk eens in de logs van de Docker container. Daar zou moeten staan op welke IP:port het bereikbaar zou moeten zijn.

En kan je vanaf je werkstation de IP adres van de container pingen?

Acties:
  • 0 Henk 'm!

  • WRT54G
  • Registratie: Februari 2002
  • Laatst online: 16-09 22:13
Shadow771 schreef op woensdag 2 december 2020 @ 15:02:
[...]


Kijk eens in de logs van de Docker container. Daar zou moeten staan op welke IP:port het bereikbaar zou moeten zijn.

En kan je vanaf je werkstation de IP adres van de container pingen?
Ik gebruik het IP wat er in de logs staat.
Pingen gaat zonder problemen. Ook op port 80 kan ik hem op dat IP adres bereiken.
Het is alleen port 3000 die het niet doet. Dus kan ik hem ook niet instellen. >:)

Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
WRT54G schreef op woensdag 2 december 2020 @ 15:03:
Het is alleen port 3000 die het niet doet. Dus kan ik hem ook niet instellen. >:)
Proberen port 3000 verwijderen uit je port instellingen, container restarten, en try again?

[ Voor 3% gewijzigd door Shadow771 op 02-12-2020 15:23 ]


Acties:
  • 0 Henk 'm!

  • WRT54G
  • Registratie: Februari 2002
  • Laatst online: 16-09 22:13
Helaas...
Container gestopt, port 3000 verwijderd. Container gestart en daarna weer gestopt.
Port 3000 toegevoegd en weer de container gestart. Geen port 3000 die ik kan benaderen.

Zal anders nog eens wat dingen mbt AdGuard opzoeken. Denk dat het eerder daar ligt.


[UPDATE]
Ahhhhhhh
Ik had nog een (oude) DHCP reservering in mijn pfSense box staan.
Nadat ik deze verwijderd had ging het een stuk beter en kan ik port 3000 gewoon bereiken.
Ook weer opgelost!

[ Voor 27% gewijzigd door WRT54G op 02-12-2020 15:46 ]


Acties:
  • +1 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 15-09 14:44
@WRT54G & FYI
Hier nog mijn Pi-hole docker-compose yaml file @ https://pastebin.com/dcgypqzK.

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • RudyL
  • Registratie: Mei 2006
  • Laatst online: 14:15
Shadow771 schreef op woensdag 2 december 2020 @ 14:29:
[...]


Als het werkt zonder warnings ben je al best een eind. Gebruik je de OpenVPN.config file die je zelf uit de NAS genereert heb?

Staan daar zaken in als 'cipher AES-256-CBC' en 'auth SHA1' etc?
Heb je een domain (Synology DDNS is ook goed) waarmee je verbinding mee kan maken?
Heb je daar een SSL cert voor (kan ook gratis via Synology verkregen worden (Let's Encrypt))?
Maak je daar gebruik van in je VPN setup?
Zoja heb je ook dit staan in je OpenVPN.config. "remote-cert-tls"

Security neem ik nooit licht.. O-)
Ja ik gebruik inderdaad die config file die ik uit de NAS heb gegenereerd heb.
Ik heb er cipher AES-256-CBC en auth SHA512 instaan

Ik heb geen domain toegevoegd of een DDNS aangemaakt en dus ook geen SSL certificaat. Is dat aan te raden om wel te doen dus?

LOETKE


Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
Ohja dat is waar ook. Als je MACVLAN gaat gebruiken dan moet idd die IP range buiten je DHCP scope laten vallen om conflicten te voorkomen. Of reververingen maken (eventueel op de MAC address van de Docker container).

[ Voor 21% gewijzigd door Shadow771 op 02-12-2020 16:22 ]


Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
RudyL schreef op woensdag 2 december 2020 @ 16:18:
[...]
Ik heb geen domain toegevoegd of een DDNS aangemaakt en dus ook geen SSL certificaat. Is dat aan te raden om wel te doen dus?
Ik raad dat wel aan ja. Helpt bescherming tegen MITM attacks.

Acties:
  • 0 Henk 'm!

  • RudyL
  • Registratie: Mei 2006
  • Laatst online: 14:15
Shadow771 schreef op woensdag 2 december 2020 @ 16:21:
[...]


Ik raad dat wel aan ja. Helpt bescherming tegen MITM attacks.
Ik denk dat ik nu de DDNS heb aangemaakt en er een certificaat voor heb, maar hoe ik hem moet toevoegen aan VPN server binnen de NAS om een nieuwe configuratie file aan te maken zie ik niet als optie.

Edit: als ik nieuwe config file download staat er wel een extra certificaat in de file. Moet ik de YOUR_SERVER_IP wijzigen in de aangemaakte DDNS url?

[ Voor 14% gewijzigd door RudyL op 02-12-2020 16:45 ]

LOETKE


Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
RudyL schreef op woensdag 2 december 2020 @ 16:38:
Ik denk dat ik nu de DDNS heb aangemaakt en er een certificaat voor heb, maar hoe ik hem moet toevoegen aan VPN server binnen de NAS om een nieuwe configuratie file aan te maken zie ik niet als optie.
Dat kun je hier controleren:
Control Panel -> Security -> Certificate -> Configure -> Services: VPN server

Als je maar 1 certificaat op je NAS heb staan, dan word die automatisch geselecteerd.
RudyL schreef op woensdag 2 december 2020 @ 16:38:
Edit: als ik nieuwe config file download staat er wel een extra certificaat in de file. Moet ik de YOUR_SERVER_IP wijzigen in de aangemaakte DDNS url?
Dat zou het moeten zijn ja.

Acties:
  • 0 Henk 'm!

  • RudyL
  • Registratie: Mei 2006
  • Laatst online: 14:15
Shadow771 schreef op woensdag 2 december 2020 @ 16:53:
[...]


Dat kun je hier controleren:
Control Panel -> Security -> Certificate -> Configure -> Services: VPN server

Als je maar 1 certificaat op je NAS heb staan, dan word die automatisch geselecteerd.


[...]


Dat zou het moeten zijn ja.
Ok ik heb de nieuwe file geplaatst in de program files directory en een nieuwe VPN sessie gestart via mobiel hotspot. Krijg na een wat langere duur wel een groene verbinding met OpenVPN waardoor ik de NAS via IP adres wel kan benaderen en ook via de Networkshare, maar niet via het aangemaakte DDNS domein.

Tevens een aantal warnings, errors en een depracated option:

1 Warning: Compression for receiving enabled
2 Deprecated option: cipher set to AES-256-CBC but missing in -data- ciphers
3 Warning: no server certificate verfication method has been enabled
4 TLS error: TLS key negotiation failed
5 TLS error: TLS handshake failed
6 Warning: no server certificate verfication method has been enabled
7 Warning: configuration may cashe passwords in memory

Error 4,5 & 6 zijn erbij gekomen ten opzichte van de oude non ddns configuratie.

[ Voor 4% gewijzigd door RudyL op 02-12-2020 17:24 ]

LOETKE


Acties:
  • 0 Henk 'm!

  • Rossi
  • Registratie: Januari 2005
  • Laatst online: 25-03 22:21
@Ben(V)
Wederom bedankt. Ik heb jouw advies over RAID en rebuilds daarvan al langer in mijn achterhoofd zitten, alleen nog niet echt iets mee gedaan voor wat betreft deze backup-storage. Onze productie-storage draait in RAID10.
Nadeel is dat ik geen backup van onze backups kan gaan trekken, dat gaat me echt teveel storage kosten. We hebben altijd nog offsite de backups staan als de raidset onsite onherstelbaar is, maar gelukkig nog niet nodig gehad (knock on wood).

Ik ben weer wat wijzer, tijd om na te denken welke kant ik op ga, thx!

Acties:
  • 0 Henk 'm!

  • Zenyatta
  • Registratie: Oktober 2006
  • Laatst online: 06:57

Zenyatta

Tsjakka!

Hoop dat ik hier een antwoord kan vinden op mijn vraag. Ehh... queeste.

Probeer Plex te draaien op mijn DS218j. Ik kom instructies tegen op internet en youtube hoe dit werk en uit de filmpjes blijkt dat het moet kunnen. Als ik de package installeer, dan werkt het niet. Installeren van de package gaat goed, starten gaat goed. Maar als ik vervolgens op het Plex-icoontje klik om de PMS te starten, wordt een nieuwe tab geopend. Daar zou vervolgens de omgeving van Plex moeten komen zodat je je sources kan koppelen.

Dat is waar het bij mij verkeerd gaat: de tab die wordt geopend heeft als url http://[mijnnas].synology.me:32400/web. Die blijft even draaien en meldt dan
Deze site is niet bereikbaarHet duurt te lang voordat [mijnnas].synology.me reageert.
Probeer dit eens:

Controleer de verbinding
Controleer de proxy en firewall
Windows Netwerkcontrole uitvoeren
ERR_CONNECTION_TIMED_OUT
Waar ga ik verkeerd? Wat zie ik over het hoofd?

The answer is 42.


Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 15-09 14:44
@Zenyatta
Misschien even het interne ip-adres proberen?

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • Zenyatta
  • Registratie: Oktober 2006
  • Laatst online: 06:57

Zenyatta

Tsjakka!

kraades schreef op woensdag 2 december 2020 @ 20:45:
@Zenyatta
Misschien even het interne ip-adres proberen?
Dan lijk ik een stap verder te komen! Thanx!

The answer is 42.


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Zenyatta schreef op woensdag 2 december 2020 @ 20:47:
[...]

Dan lijk ik een stap verder te komen! Thanx!
Poort geforward?

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • Zenyatta
  • Registratie: Oktober 2006
  • Laatst online: 06:57

Zenyatta

Tsjakka!

Bij mijn weten wel. Net heb ik de bronnen kunnen koppelen. Er verschijnen nu mediabestanden in de database in Plex op mijn Firestick.

The answer is 42.


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Zenyatta schreef op woensdag 2 december 2020 @ 20:57:
[...]

Bij mijn weten wel. Net heb ik de bronnen kunnen koppelen. Er verschijnen nu mediabestanden in de database in Plex op mijn Firestick.
Maar via je interne IP dan neem ik aan? Anyways, mooi dat het werkt iig :)

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!

  • Zenyatta
  • Registratie: Oktober 2006
  • Laatst online: 06:57

Zenyatta

Tsjakka!

Sp33dFr34k schreef op woensdag 2 december 2020 @ 20:59:
[...]


Maar via je interne IP dan neem ik aan? Anyways, mooi dat het werkt iig :)
Klopt inderdaad.

Hoe kan ik dubbelchecken of de poort geforward is?

En zo niet, hoe kan ik dat alsnog instellen?
Heb deze nu gevonden: [YouTube: Configure Port Forwarding to Remotely Access Your Synology NAS | Synology]

[ Voor 18% gewijzigd door Zenyatta op 02-12-2020 21:02 ]

The answer is 42.


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Zenyatta schreef op woensdag 2 december 2020 @ 21:00:
[...]

Klopt inderdaad.

Hoe kan ik dubbelchecken of de poort geforward is? En zo niet, hoe kan ik dat alsnog instellen?
Dat doe je in je router, bij een menu wat zoiets zal heten als portforwarding. Maar het is de vraag of je het nodig hebt. Wil je puur thuis op je TV kijken, lekker dicht laten. Wil je van buiten je netwerk je media kunnen bekijken, dan openzetten.

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • +1 Henk 'm!

  • Zenyatta
  • Registratie: Oktober 2006
  • Laatst online: 06:57

Zenyatta

Tsjakka!

Sp33dFr34k schreef op woensdag 2 december 2020 @ 21:03:
[...]


Dat doe je in je router, bij een menu wat zoiets zal heten als portforwarding. Maar het is de vraag of je het nodig hebt. Wil je puur thuis op je TV kijken, lekker dicht laten. Wil je van buiten je netwerk je media kunnen bekijken, dan openzetten.
Heb 'm open gezet. Dat bleek ie dus inderdaad niet te zijn. Instructie hier gevonden!

Dank voor het meedenken!

The answer is 42.


Acties:
  • 0 Henk 'm!

  • RudyL
  • Registratie: Mei 2006
  • Laatst online: 14:15
RudyL schreef op woensdag 2 december 2020 @ 17:10:
[...]


Ok ik heb de nieuwe file geplaatst in de program files directory en een nieuwe VPN sessie gestart via mobiel hotspot. Krijg na een wat langere duur wel een groene verbinding met OpenVPN waardoor ik de NAS via IP adres wel kan benaderen en ook via de Networkshare, maar niet via het aangemaakte DDNS domein.

Tevens een aantal warnings, errors en een depracated option:

1 Warning: Compression for receiving enabled
2 Deprecated option: cipher set to AES-256-CBC but missing in -data- ciphers
3 Warning: no server certificate verfication method has been enabled
4 TLS error: TLS key negotiation failed
5 TLS error: TLS handshake failed
6 Warning: no server certificate verfication method has been enabled
7 Warning: configuration may cashe passwords in memory

Error 4,5 & 6 zijn erbij gekomen ten opzichte van de oude non ddns configuratie.
Ik heb een tweetal aanpassingen gedaan:

remote-cert-tls server is toegevoegd vlak voordat de certificaten starten in de config file. Dit geeft mij geen errors meer zoals beschreven bij 3 & 6.
Tevens de compressie uitgeschakeld met de optie binnen VPN Server op de NAS.

Als ik via mijn normale wifi verbind, hou ik melding 1 & 7 over. Verbind ik via de mobiele telefoon hotspot (wifi uit) dan krijg ik melding 4 & 5 ook eenmalig waarna die het bij een tweede keer (gaat automatisch) wel succesvol doet.

Bij een daarna verbreken en nogmaals verbinden krijg ik ook meldingen als:

TCP/UDP: Incoming packet rejected from [AF_INET6]

Dit duurt enige tijd totdat die wederom opnieuw gaat verbinden* en wel verbinding krijgt. Moet ik hier nog wat mee?

*Wed Dec 02 21:15:23 2020 SIGUSR1[soft,tls-error] received, process restarting


Tevens, wat nu te doen met QuickConnect, Firewall bescherming en DoS bescherming inschakelen?

LOETKE


Acties:
  • 0 Henk 'm!

  • Wachten...
  • Registratie: Januari 2008
  • Laatst online: 15:09
@Shadow771 @Ben(V)

Sorry voor de late reactie, ik ben even een paar dagen offline geweest i.v.m. werk.

Jullie delen dan niet geheel dezelfde mening, maar ik wil toch dan beide vragen wat jullie advies dan zou zijn voor mijn Home Assistant die nu op VM draait op Synology. Er zijn namelijk een viertal opties maar ik kom er gewoon niet meer uit! Iets met bomen en bos verhaal......

1: Docker Ik draai Docker voor mijn unifi controller, en ga later misschien nog de Pihole over zetten. Echter aangezien ik niet heel veel kaas heb gegeten van docker en niet de volledige Home Assistant OS kan installeren, ben ik een beetje bang dat ik dit niet goed werkend over kan zetten van mijn VM naar Docker, i.v.m. alle verschillende containers voor addons e.d. Ik ben blij dat mijn unifi draait, maar daar is ook alles mee gezegd.

2: VM Dit werkt dan wel makkelijk, er is een officiele VM package van Home Assistant met de volledig OS en snapshots is natuurlijk een makkie, het grote nadeel is alleen dat mijn schijven altijd aan het werk zijn, en mijn nas weinig rust krijgt.

3: Native package Er is een native package zoals @Ben(V) eerder al aangaf. Echter ben ik met dit soort dingen altijd bang dat er ineens mee gestopt wordt (met het bijhouden en ontwikkelen) en dan ineens dingen niet meer werken. Klopt mijn theorie dat dit kan gebeuren, en zo ja is die kans groot dat dit gebeurt?

4: Raspberry pi Of ga ik dan toch over naar een Raspberry pi4 met een SSD? Dit wordt goed ondersteund met volledige OS, en kan ik de database eventueel alsnog op mijn server zetten. Het nadeel alleen van een Raspberry, is dat het een stuk langzamer is (theoretisch moet zijn) dan mijn Synology en ben dus bang dat ik samen met eventueel Pihole dan over een tijdje tegen limieten aanloop en alsnog naar iets anders moet.

Kortom, er zijn genoeg opties, maar ik heb werkelijk waar geen idee meer waar ik nou goed aan doe.
Een feit blijft, dat ik linksom of rechtsom mijn server en schijven wat wil ontlasten.

Als je dit kunt lezen, dan werkt mij Signature!


Acties:
  • 0 Henk 'm!

  • Wachten...
  • Registratie: Januari 2008
  • Laatst online: 15:09
Bio schreef op dinsdag 1 december 2020 @ 07:29:
@Shadow771 Zeker, waar. Iedereen bedankt voor de input, het maakt de afweging erg duidelijk.

Het zal ook een rol spelen dat ik nog nooit met een overleden harde schijf te maken heb gehad, en zodoende de kansen dat dit voorkomt misschien onevenredig laag inschat ;).
Toch wil ik mijn ervaring nog wel even delen.
Ik heb 2x een schijf gehad, waarvan Synology een melding gaf dat de schijf vervangen moest worden (WD reds), dit kan overigens ook een false positive zijn. Ik ben ik ieder geval op zo`n moment blij dat ik een schijf eruit trek, een nieuwe erin en klaar. Ik moet er 'persoonlijk' niet aan denken dat ik dingen vanuit de cloud terug moet gaan zetten!

Het gaat 9 van de 10 keer goed, maar aangezien schijven bijna niks meer kosten ben ik toch wel heel blij met iets van een Raid 5

Dit is slechts mijn mening en ervaring! tijd is geld, en voor weinig geld heb je een grote HDD ;)

Als je dit kunt lezen, dan werkt mij Signature!


Acties:
  • 0 Henk 'm!

  • ymoona
  • Registratie: Januari 2004
  • Laatst online: 14:06
Ik gebruik nu de moments mobile app om mijn fotos te backuppen. De nas is opgesteld vanaf het internet en backup is geconfigureerd. Het werkt prima zolang ik de app maar af en toe open, dan start een backup weer automatisch. Wat ik begreep is dat de app dit ook zelf zou moeten kunnen, maar op mijn telefoon lukt dat nu niet.

Nu heb ik deze al geonden: https://community.synology.com/enu/forum/1/post/128766
Ik heb een Samsung Galaxy S9, de instructies heb ik al gevolgd, maar helpen bij mij niet. Iemand anders die moments gebruikt om telefoon fotos automatisch te backuppen?

https://f1nerd.nl


Acties:
  • 0 Henk 'm!

  • Wachten...
  • Registratie: Januari 2008
  • Laatst online: 15:09
ymoona schreef op donderdag 3 december 2020 @ 00:00:
Ik gebruik nu de moments mobile app om mijn fotos te backuppen. De nas is opgesteld vanaf het internet en backup is geconfigureerd. Het werkt prima zolang ik de app maar af en toe open, dan start een backup weer automatisch. Wat ik begreep is dat de app dit ook zelf zou moeten kunnen, maar op mijn telefoon lukt dat nu niet.

Nu heb ik deze al geonden: https://community.synology.com/enu/forum/1/post/128766
Ik heb een Samsung Galaxy S9, de instructies heb ik al gevolgd, maar helpen bij mij niet. Iemand anders die moments gebruikt om telefoon fotos automatisch te backuppen?
Ik gebruik het wel, en bij mij doet hij de backup ook gewoon. Het lijkt erop dat er iets met de rechten niet goed staat (dat hij dus niet iets met de bestanden op je telefoon mag doen) kun je hier eens naar kijken?
Bij mij heeft hij enkel rechten voor opslagruimte zie ik.

Verder is het niet perse noodzakelijk om een poort open te zetten, tenzij je sowieso van buitenaf op je nas wilt. Hij doet bij mij de backup zodra ik het huis in loopt op het lokale ip adres.

Als je dit kunt lezen, dan werkt mij Signature!


Acties:
  • 0 Henk 'm!

  • Yucko
  • Registratie: Mei 2000
  • Laatst online: 15:19

Yucko

One clown to rule them all !

zelf was ik het gezeur met niet automatisch backuppen maar enkel bij het openen van de DS Photo app helemaal zat een heb die functie daar uitgezet en gebruik voor het automatisch backuppen de app PhotoSync.

zo ingesteld dat hij via sftp de nieuwe foto's automatisch begint te uploaden zodra hij op de wifi thuis zit. Van buitenaf is de sftp server van de NAS onbereikbaar.

[ Voor 29% gewijzigd door Yucko op 03-12-2020 07:17 ]

iPhone 15 Pro Max Titanium Black 256GB -  iPad Pro 2018 12.9" Space Gray 64GB -  AirPods Pro -  Watch 5 Space Gray LTE -  TV 4K 128GB -  TV 4 64GB -  Wireless CarPlay


Acties:
  • 0 Henk 'm!

  • Sp33dFr34k
  • Registratie: Juni 2006
  • Niet online

Sp33dFr34k

Retro-Geek

Ik gebruik daar Nextcloud voor, perfecte app en werkt altijd. Geen gezeur met niet syncen zoals bij DS Photo/Moments wel altijd het geval was.

i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60


Acties:
  • 0 Henk 'm!
Wachten... schreef op woensdag 2 december 2020 @ 22:43:
@Shadow771 @Ben(V)

Sorry voor de late reactie, ik ben even een paar dagen offline geweest i.v.m. werk.

Jullie delen dan niet geheel dezelfde mening, maar ik wil toch dan beide vragen wat jullie advies dan zou zijn voor mijn Home Assistant die nu op VM draait op Synology. Er zijn namelijk een viertal opties maar ik kom er gewoon niet meer uit! Iets met bomen en bos verhaal......

1: Docker Ik draai Docker voor mijn unifi controller, en ga later misschien nog de Pihole over zetten. Echter aangezien ik niet heel veel kaas heb gegeten van docker en niet de volledige Home Assistant OS kan installeren, ben ik een beetje bang dat ik dit niet goed werkend over kan zetten van mijn VM naar Docker, i.v.m. alle verschillende containers voor addons e.d. Ik ben blij dat mijn unifi draait, maar daar is ook alles mee gezegd.

2: VM Dit werkt dan wel makkelijk, er is een officiele VM package van Home Assistant met de volledig OS en snapshots is natuurlijk een makkie, het grote nadeel is alleen dat mijn schijven altijd aan het werk zijn, en mijn nas weinig rust krijgt.

3: Native package Er is een native package zoals @Ben(V) eerder al aangaf. Echter ben ik met dit soort dingen altijd bang dat er ineens mee gestopt wordt (met het bijhouden en ontwikkelen) en dan ineens dingen niet meer werken. Klopt mijn theorie dat dit kan gebeuren, en zo ja is die kans groot dat dit gebeurt?

4: Raspberry pi Of ga ik dan toch over naar een Raspberry pi4 met een SSD? Dit wordt goed ondersteund met volledige OS, en kan ik de database eventueel alsnog op mijn server zetten. Het nadeel alleen van een Raspberry, is dat het een stuk langzamer is (theoretisch moet zijn) dan mijn Synology en ben dus bang dat ik samen met eventueel Pihole dan over een tijdje tegen limieten aanloop en alsnog naar iets anders moet.

Kortom, er zijn genoeg opties, maar ik heb werkelijk waar geen idee meer waar ik nou goed aan doe.
Een feit blijft, dat ik linksom of rechtsom mijn server en schijven wat wil ontlasten.
Een package zoals home assitant is public domain en wordt door een aantal mensen als hobby gebouwd en onderhouden.
Met de source van zulke software wordt via cross compiling binaries gemaakt voor verschillende platformen.
Dat doen weer andere hobbyisten die maken er bijvoorbeeld Docker images, Synology packages of Windows executables mee.
Het onderhoud ligt dus altijd op dezelfde plek en bij dezelfde bron welke oplossing je ook gaat gebruiken.
En het risico dat een groep ermee ophoud om die binaries te maken is er voor alle vormen.

Docker en VM zijn gewoon extra software lagen tussen Synology DSM en een applicatie en die software laag emuleert een andere OS.
Dat kost hoe je het ook draait of keert resources.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
RudyL schreef op woensdag 2 december 2020 @ 21:17:
[...]


Ik heb een tweetal aanpassingen gedaan:

remote-cert-tls server is toegevoegd vlak voordat de certificaten starten in de config file. Dit geeft mij geen errors meer zoals beschreven bij 3 & 6.
Tevens de compressie uitgeschakeld met de optie binnen VPN Server op de NAS.

Als ik via mijn normale wifi verbind, hou ik melding 1 & 7 over. Verbind ik via de mobiele telefoon hotspot (wifi uit) dan krijg ik melding 4 & 5 ook eenmalig waarna die het bij een tweede keer (gaat automatisch) wel succesvol doet.

Bij een daarna verbreken en nogmaals verbinden krijg ik ook meldingen als:

TCP/UDP: Incoming packet rejected from [AF_INET6]

Dit duurt enige tijd totdat die wederom opnieuw gaat verbinden* en wel verbinding krijgt. Moet ik hier nog wat mee?

*Wed Dec 02 21:15:23 2020 SIGUSR1[soft,tls-error] received, process restarting


Tevens, wat nu te doen met QuickConnect, Firewall bescherming en DoS bescherming inschakelen?
Toen ik vroeger OpenVPN gebruikte (met de officiele OpenVPN apps), was dit mijn OpenVPN.config en dit gaf mij geen errors:

code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
dev tun
tls-client

remote vpn.vanleeuwennet.nl 1194

# The "float" tells OpenVPN to accept authenticated packets from any address,
# not only the address which was specified in the --remote option.
# This is useful when you are connecting to a peer which holds a dynamic address
# such as a dial-in user or DHCP client.
# (Please refer to the manual of OpenVPN for more information.)

#float

# If redirect-gateway is enabled, the client will redirect it's
# default network gateway through the VPN.
# It means the VPN connection will firstly connect to the VPN Server
# and then to the internet.
# (Please refer to the manual of OpenVPN for more information.)

redirect-gateway def1

# dhcp-option DNS: To set primary domain name server address.
# Repeat this option to set secondary DNS server addresses.

dhcp-option DNS 192.168.0.2
dhcp-option DNS 192.168.1.2

pull

# If you want to connect by Server's IPv6 address, you should use
# "proto udp6" in UDP mode or "proto tcp6-client" in TCP mode
[b]proto udp[/b]

script-security 2

ca vanleeuwennet.crt

comp-lzo

reneg-sec 0

cipher AES-256-CBC

auth SHA1

remote-cert-tls server

auth-nocache

# auth-user-pass
auth-user-pass auth.txt


mn certificate file moest ik dus natuurlijk ook naast mn openvpn file zetten.

Acties:
  • 0 Henk 'm!

  • cautje
  • Registratie: Februari 2003
  • Laatst online: 15-09 14:06
Goedemiddag,
Ik zou graag een backup van mijn foto's maken naar een tweede sysnology en wel direct naar de default photo map. Zodat deze foto's ook direct zichtbaar zijn in het photo station van deze 2e synology.
Ik krijg het niet voor elkaar om dat de bestanden niet als normale bestanden gecopieerd worden.
Ik heb resync, webdav, extern nas apparaat al geprobeerd vanuit hyperbackup van synology 1.
Wat is hier het handigst voor?
Bedankt!

Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
Wachten... schreef op woensdag 2 december 2020 @ 22:43:
@Shadow771 @Ben(V)

Sorry voor de late reactie, ik ben even een paar dagen offline geweest i.v.m. werk.

Jullie delen dan niet geheel dezelfde mening, maar ik wil toch dan beide vragen wat jullie advies dan zou zijn voor mijn Home Assistant die nu op VM draait op Synology. Er zijn namelijk een viertal opties maar ik kom er gewoon niet meer uit! Iets met bomen en bos verhaal......

1: Docker Ik draai Docker voor mijn unifi controller, en ga later misschien nog de Pihole over zetten. Echter aangezien ik niet heel veel kaas heb gegeten van docker en niet de volledige Home Assistant OS kan installeren, ben ik een beetje bang dat ik dit niet goed werkend over kan zetten van mijn VM naar Docker, i.v.m. alle verschillende containers voor addons e.d. Ik ben blij dat mijn unifi draait, maar daar is ook alles mee gezegd.
Ik kan in dit geval alleen mijn gedachtegang met je delen.
Ik heb Home Assistant nog niet, maar ik ben het wel van plan en uiteraard ga ik dat in Docker draaien. Ze supporten het officieel zelf en het image komt ook van hem gedaan. Ze hebben zelfs een instructie pagina: https://www.home-assistant.io/docs/installation/docker/ .

Omdat ik inhoudelijk nog geen kennis heb over Home Assistant weet ik niet zo goed hoe je bijv makkelijk je data uit je VM instance kan migreren naar je Docker. Ik zou dit wel willen doen, maar jij moet zelf overwegen hoeveel je erin wilt verdiepen. 1 ding is zo: het is niet makkelijk voor niet-techy savvy people.
Wachten... schreef op woensdag 2 december 2020 @ 22:43:
2: VM Dit werkt dan wel makkelijk, er is een officiele VM package van Home Assistant met de volledig OS en snapshots is natuurlijk een makkie, het grote nadeel is alleen dat mijn schijven altijd aan het werk zijn, en mijn nas weinig rust krijgt.
Maar dit ga je ook krijgen met Docker, alhoewel een Docker container natuurlijk wel een stuk lichter is. Als dit de enige reden is dat je het van VM naar Docker wilt halen, dan kan je het net zo goed laten. Maar ook hier is weer de zelf-overweging hoe ver je erin wilt verdiepen.

Je kunt naast je VM instance natuurlijk wel met een gerust hart spelen met de Docker container installatie. Als het fout gaat, gooi je gewoon de container weg en begin je weer opnieuw (of zet je een backup van de container weer terug).

PS: Mijn Seagate Ironwolf HDD's staan 24/7 te draaien in mn NAS'en voor al een paar jaar and still going strong! :D
Wachten... schreef op woensdag 2 december 2020 @ 22:43:
3: Native package Er is een native package zoals @Ben(V) eerder al aangaf. Echter ben ik met dit soort dingen altijd bang dat er ineens mee gestopt wordt (met het bijhouden en ontwikkelen) en dan ineens dingen niet meer werken. Klopt mijn theorie dat dit kan gebeuren, en zo ja is die kans groot dat dit gebeurt?
In theorie kan een software-maker er altijd voor kiezen om bepaalde platformen te laten vallen. Dit kan door Synology komen, of door HA zelf. Maarja, je zegt dat je het nu in een VM hebt draaien. Hoe groot de kans hierop is durf ik niet te zeggen. Op dit moment is het afwachten wat allemaal nog wel of niet werkt in DSM7 dat (ooit?) aan gaat komen.
Wachten... schreef op woensdag 2 december 2020 @ 22:43:
Een feit blijft, dat ik linksom of rechtsom mijn server en schijven wat wil ontlasten.
Een VM is nooit 'licht' gezien het een hele OS is. Dus naar Docker of native app zal iets van ontlasting kunnen geven.

[ Voor 7% gewijzigd door Shadow771 op 03-12-2020 12:29 ]


Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
cautje schreef op donderdag 3 december 2020 @ 12:07:
Goedemiddag,
Ik zou graag een backup van mijn foto's maken naar een tweede sysnology en wel direct naar de default photo map. Zodat deze foto's ook direct zichtbaar zijn in het photo station van deze 2e synology.
Ik krijg het niet voor elkaar om dat de bestanden niet als normale bestanden gecopieerd worden.
Ik heb resync, webdav, extern nas apparaat al geprobeerd vanuit hyperbackup van synology 1.
Wat is hier het handigst voor?
Bedankt!
Dus je wilt eigenlijk data van NAS1 in sync hebben met NAS2 ? Dit kun je one-way syncen met rsync .
Je kunt ook gebruik maken van Synology Drive ShareSync . Daarin kun je je sync opties configureren tussen je NAS'en (2-way, 1-way, target folders, sync filters etc etc).

Ikzelf gebruik Synology Drive ShareSync om 3 van mijn NAS'en in sync te houden.

[ Voor 4% gewijzigd door Shadow771 op 03-12-2020 12:28 ]


Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 15-09 14:44
@Wachten...
Ik heb destijds HA een tijdje op Docker geprobeerd. Als ik het mij goed herinner wordt er per add-on een aparte container gestart. De naamgeving van de containers is niet uniform. Ook had ik niet het gevoel controle te hebben welke containers precies werden aangemaakt. Ondanks dat ik fan ben van Docker, vond ik HA op Docker geen prettige ervaring. Maar dat is mijn ervaring.

Bij een VM heb je dit niet maar volgens mij lever je dan nog extra in qua performance.

Persoonlijk vind ik dat je home automation wel een apart systeem verdiend. Ook ben ik van mening dat de koppeling met rfxcom, z-wave etc. dan het meest stabiel is.

Ik heb verder geen ervaring met HA dus misschien zit ik er wel naast. Ik gebruik zelf Domoticz op een RPi.

Je kunt ook altijd nog eens vragen in het HA topic op Tweakers.

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • Eärendil
  • Registratie: Februari 2002
  • Laatst online: 15:42
Ben(V) schreef op donderdag 3 december 2020 @ 10:21:
[...]
Een package zoals home assitant is public domain en wordt door een aantal mensen als hobby gebouwd en onderhouden.
Het is open source, dat is wat anders dan public domain.
Met de source van zulke software wordt via cross compiling binaries gemaakt voor verschillende platformen.
Dat doen weer andere hobbyisten die maken er bijvoorbeeld Docker images, Synology packages of Windows executables mee.
Het onderhoud ligt dus altijd op dezelfde plek en bij dezelfde bron welke oplossing je ook gaat gebruiken.
En het risico dat een groep ermee ophoud om die binaries te maken is er voor alle vormen.
Dat risico is er voor alle vormen, maar sommige platformen zijn wel een stuk groter en algemener dan Synology-packages.

Acties:
  • 0 Henk 'm!
Een probleem met HA en ook Domoticz die niet native draaien is dat er altijd veel connecties naar de buitenwereld zijn (rfxcom, wifi, usb stciks, smartmeter interface etc).
Dat geeft vaak extra problemen omdat zoiets in DSM (Linux) geïmplementeerd moet worden maar ook doorgegeven naar de virtualisatie laag.

Docker is daar wat beter in dan VMM maar het blijft gedoe en onnodig want er is gewoon een native package beschikbaar.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


Acties:
  • +1 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
Ben(V) schreef op donderdag 3 december 2020 @ 13:12:
Docker is daar wat beter in dan VMM maar het blijft gedoe en onnodig want er is gewoon een native package beschikbaar.
Even toevoegen voor de wereld dat dit een mening is, en geen feit. :)

Acties:
  • 0 Henk 'm!

  • cautje
  • Registratie: Februari 2003
  • Laatst online: 15-09 14:06
@Shadow771 Bedankt!

Ik ga ermee aan de slag.

cautje schreef op donderdag 3 december 2020 @ 12:07:
Goedemiddag,
Ik zou graag een backup van mijn foto's maken naar een tweede sysnology en wel direct naar de default photo map. Zodat deze foto's ook direct zichtbaar zijn in het photo station van deze 2e synology.
Ik krijg het niet voor elkaar om dat de bestanden niet als normale bestanden gecopieerd worden.
Ik heb resync, webdav, extern nas apparaat al geprobeerd vanuit hyperbackup van synology 1.
Wat is hier het handigst voor?
Bedankt!
Dus je wilt eigenlijk data van NAS1 in sync hebben met NAS2 ? Dit kun je one-way syncen met rsync .
Je kunt ook gebruik maken van Synology Drive ShareSync . Daarin kun je je sync opties configureren tussen je NAS'en (2-way, 1-way, target folders, sync filters etc etc).

Ikzelf gebruik Synology Drive ShareSync om 3 van mijn NAS'en in sync te houden.

Acties:
  • 0 Henk 'm!

  • ymoona
  • Registratie: Januari 2004
  • Laatst online: 14:06
Wachten... schreef op donderdag 3 december 2020 @ 00:42:
[...]


Ik gebruik het wel, en bij mij doet hij de backup ook gewoon. Het lijkt erop dat er iets met de rechten niet goed staat (dat hij dus niet iets met de bestanden op je telefoon mag doen) kun je hier eens naar kijken?
Bij mij heeft hij enkel rechten voor opslagruimte zie ik.

Verder is het niet perse noodzakelijk om een poort open te zetten, tenzij je sowieso van buitenaf op je nas wilt. Hij doet bij mij de backup zodra ik het huis in loopt op het lokale ip adres.
Ik kwam deze setting nog tegen:
code:
1
2
3
Setttings > Apps > 3 dot menu > Special Access > Optimise Battery Usage

-- Turn this off for the app in question.


Zojuist aangezet, eens kijken of het nu beter gaat. Komt wellicht ook doordat standaard de S9 in battery saver mode staat

https://f1nerd.nl


Acties:
  • 0 Henk 'm!

  • Wachten...
  • Registratie: Januari 2008
  • Laatst online: 15:09
@Ben(V) @Shadow771 @kraades.
Dank voor jullie uitgebreide reacties!
Mijn absolute hoofddoel, is een stabiele Home Assistant. Dat is het belangrijkste voor mij, want als het niet werkt hier, dan breekt de ****** uit! ;)

Mijn tweede belangrijke punt, is dat ik onnodige stroomkosten en CPU gebruik tegen wil gaan. Dit wordt vaak vergeten, maar het zit mij niet lekker dat ik met VM zoveel CPU verbruik heb en mijn NAS nooit rust heef t. Ook al een NAS er redelijk voor gemaakt, het voelt voor mij wat onnodig, Zeker als je bedenkt dat een Rapsberry pi met Home assistant maar een paar Watt verbruikt.

Het punt is alleen dat het wel stabiel draait op VM, ik kan snapshots kan maken van de schijf, dus ben echt in notime weer online zodra iets fout zou lopen. Dat geeft voor mij wel een heel fijn gevoel, zeker omdat ik dus niet enorm tech savvy ben, en dus bij trouble shooting meestal hier op het forum aan moet kloppen. In de tussentijd zit ik hier dan met lampen e.d. die niet meer werken, en zoals eerder aangegeven is dat echt een No-Go. Ik ben me er van bewust dat dit ook een stuk risioco is van deze hobby, maar wil het risico zo laag mogelijk houden.

Nu kun je beide redelijk met docker realiseren, echter kun je dan geen volledig HASS.IO draaien, maar moet je overal losse packages van draaien, Dit is al waar ik dan de kriebels van krijg, want zie dan allerlei beren op de weg, Het valt niet onder 1 OS, dus moet je allerlei packages gaan onderhouden. Althans zo zie ik het voor me, en weet te weinig van Docker.
  • Hoe moet ik alles restoren, zodra iets niet werkt na een update o.i.d.?
  • Hoe maak ik uberhaupt een backup van een package?
  • Hoe gaat het met updaten van addons?
Met de Native app is het dus wel een beetje hetzelfde verhaal, Stel we gaan naar DSM 7.0, werkt dan alles nog? Met een VM gaat die (naar mijn idee) altijd werken, ook op DMS 7.0 Maar met zo`n app heb ik daar mijn twijfels over. Wellicht kunnen jullie twijels wegnemen en onderbouwen?

Kortom, het draait op zich redelijk stabiel, en met VM kan ik aardig overweg. Maar het idee dat mijn NAS zoveel bezig is 24/7 lang, dat zit mij gewoon niet lekker. Het is ook niet echt goed voor de levensduur van een auto als je hem dacht en nacht laat rijden toch?

@Ben(V)
Met de source van zulke software wordt via cross compiling binaries gemaakt voor verschillende platformen.
Ik moet wel zeggen, met dit soort zinnen ben je mij al helemaal kwijt, voor jouw spreekt dit voor zich, maar ik snap werkelijkwaar niet wat je zegt soms. Het is veel te ingewikkeld voor mij. Wellicht kun je iets meer in Jip en Janneke taal praten?
Het hoeft niet natuurlijk, maar ik ben je helemaal kwijt met dit soort termen ;)

[ Voor 5% gewijzigd door Wachten... op 03-12-2020 14:20 ]

Als je dit kunt lezen, dan werkt mij Signature!


Acties:
  • +1 Henk 'm!
Wachten... schreef op donderdag 3 december 2020 @ 14:17:
en?

@Ben(V)

[...]


Ik moet wel zeggen, met dit soort zinnen ben je mij al helemaal kwijt, voor jouw spreekt dit voor zich, maar ik snap werkelijkwaar niet wat je zegt soms. Het is veel te ingewikkeld voor mij. Wellicht kun je iets meer in Jip en Janneke taal praten?
Het hoeft niet natuurlijk, maar ik ben je helemaal kwijt met dit soort termen ;)
Ok ik zal het even iets vereenvoudigt uitleggen.
Een applicatie wordt geschreven in een of meerdere programmeertalen, dat is leesbare tekst.
Deze programmeer code moet omgezet worden in een binary code die door een machine kan wordt uitgevoerd.
Dat omzetten heet compileren, daarnaast worden er vaak standaard libraries gebruikt voor een specifieke omgevingen en die moet met de gecompileerde binary gelinkt worden dat heet linken.

Dus om van programmeer code naar iets te komen dat een machine kan uitvoeren moet er gecompileerd en gelinkt worden, dat tezamen heet builden.
Normaal doe je dat op een zelfde soort machine als waar je uiteindelijk het programma wilt gebruiken, want daar staat de juiste compiler en de juiste libraries op voor het linken er al op.

Echter als je iets voor veel verschillende machine wilt maken dan maakt je een omgeving waar al die libraries op aanwezig zijn en ook de verschillende compilers (of een compiler die voor verschillende cpu's kan compileren).
Als je daar dan binaries maakt heet dat cross compileren.

Een groep als de SynoCommunity gebruikt dus zo'n omgeving om met de code die applicatie ontwikkelaars zoals Home Assistant maken te builden om voor alle Synology Cpu architecturen binaries te maken die verpakt worden in Synology package ( is gewoon een tar file).
En een andere groep die docker images maakt gebruikt dat builden om docker images te maken.

Als er eenmaal zo'n omgeving is opgezet voor het maken van een bepaalt package dan zal als de ontwikkelaar van die applicatie een nieuwe versie(of een patch) uitbrengt enkel dat build process opgestart hoeven te worden om een nieuwe versie van het package beschikbaar te krijgen.

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


Acties:
  • 0 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 15-09 14:44
@Wachten...
Meerdere wegen leiden naar Rome en Ik kan niet in je portemonnee kijken, maar alles in ogenschouw nemende, zou ik in jouw situatie (met jjouw kennis, de zorgen die je hebt etc.) beginnen/overstappen met een apart systeem voor HA. Bijvoorbeeld een RPi 4.

Je kunt altijd nog kijken hoe e.e.a. werkt met HA op een Synology. Docker of Synology package etc. En misschien dit gebruiken als backup/failover van de RPi of andersom. Dan krijg je daar vanzelf een gevoel bij.

Zelf heb ik overigens een backup RPi standby staan voor als de primaire RPi het begeeft. Dus een identieke hardware/software backup. Maar dit is niet perse noodzakelijk natuurlijk.

Ondertussen kun je dan zonder "bijzaken" en een beproefde setup een solide start maken met HA.

Zelf heb ik overigens altijd de stelregel dat de essentiële zaken altijd ook zonder het home automation systeem te bedienen moeten zijn. Bijvoorbeeld een lamp moet ook nog handmatig kunnen worden bediend. Redelijk essentieel voor een goede verstandhouding met de partner is mijn ervaring. ;)

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • Wachten...
  • Registratie: Januari 2008
  • Laatst online: 15:09
Ben(V) schreef op donderdag 3 december 2020 @ 14:42:
[...]


Ok ik zal het even iets vereenvoudigt uitleggen.
Een applicatie wordt geschreven in een of meerdere programmeertalen, dat is leesbare tekst.
Deze programmeer code moet omgezet worden in een binary code die door een machine kan wordt uitgevoerd.
Dat omzetten heet compileren, daarnaast worden er vaak standaard libraries gebruikt voor een specifieke omgevingen en die moet met de gecompileerde binary gelinkt worden dat heet linken.

Dus om van programmeer code naar iets te komen dat een machine kan uitvoeren moet er gecompileerd en gelinkt worden, dat tezamen heet builden.
Normaal doe je dat op een zelfde soort machine als waar je uiteindelijk het programma wilt gebruiken, want daar staat de juiste compiler en de juiste libraries op voor het linken er al op.

Echter als je iets voor veel verschillende machine wilt maken dan maakt je een omgeving waar al die libraries op aanwezig zijn en ook de verschillende compilers (of een compiler die voor verschillende cpu's kan compileren).
Als je daar dan binaries maakt heet dat cross compileren.

Een groep als de SynoCommunity gebruikt dus zo'n omgeving om met de code die applicatie ontwikkelaars zoals Home Assistant maken te builden om voor alle Synology Cpu architecturen binaries te maken die verpakt worden in Synology package ( is gewoon een tar file).
En een andere groep die docker images maakt gebruikt dat builden om docker images te maken.

Als er eenmaal zo'n omgeving is opgezet voor het maken van een bepaalt package dan zal als de ontwikkelaar van die applicatie een nieuwe versie(of een patch) uitbrengt enkel dat build process opgestart hoeven te worden om een nieuwe versie van het package beschikbaar te krijgen.
Dank je voor je uitleg!
Dus als ik het uit je laatste stuk begrijp, dan is het compilen etc wel wat werk, maar als zoiets eenmaal gemaakt is, dan stelt het niet meer zoveel voor, waardoor eventueel overname of verder ontwikkeling een "fluitje van een cent" is?

Misschien vertaal ik het te simpel, maar zo is hoe het verhaal op mij over komt :D

@kraades
Het enige waar ik bang voor ben, is dat de Raspberry pi dus snel tegen beperkingen aan loopt, hij is tenslotte al trager dan mijn Synology NAS en ben dus bang dat ik me dan ga irriteren en een trage responsetijden, lange reboots e.d. Ik ben helaas nog niemand tegen gekomen die beide heeft geprobeerd en er iets nuttigs over kan zeggen.

Over dat lampen ook moeten werken zonder al die spullen, daar ben ik het mee eens. Het grote nadeel vind ik alleen, dat ik naar iedere schakelaar dan een nuldraad moet gaan trekken, en de schakelaars die dan met hue overweg kunnen echt belachelijk duur zijn. Tot die tijd heb ik de schakelaars dus ontkoppeld en de draden permanent verbonden met elkaar.

Mocht je een makkelijke handigere manier weten, dan hoor ik het uiteraard heel graag!

Als je dit kunt lezen, dan werkt mij Signature!


Acties:
  • 0 Henk 'm!
Een pi gebruiken is een prima mogelijkheid, maar waarom weer een extra device als je Synology dat prima aankan?
En er is bij de SynoCommunity zowel een Home Assitant package als een Hass,io package beschikbaar.

Buiten dat, de storage op een pi wordt op sd kaart gedaan en dat is niet het meest betrouwbare opslagmedium om continue data naar toe te schrijven.
Ik heb er hier nog wel een paar liggen die overleden zijn.

[ Voor 13% gewijzigd door Ben(V) op 03-12-2020 16:01 ]

All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.


Acties:
  • +1 Henk 'm!

  • cautje
  • Registratie: Februari 2003
  • Laatst online: 15-09 14:06
cautje schreef op donderdag 3 december 2020 @ 13:27:
@Shadow771 Bedankt!

Ik ga ermee aan de slag.

cautje schreef op donderdag 3 december 2020 @ 12:07:
Goedemiddag,
Ik zou graag een backup van mijn foto's maken naar een tweede sysnology en wel direct naar de default photo map. Zodat deze foto's ook direct zichtbaar zijn in het photo station van deze 2e synology.
Ik krijg het niet voor elkaar om dat de bestanden niet als normale bestanden gecopieerd worden.
Ik heb resync, webdav, extern nas apparaat al geprobeerd vanuit hyperbackup van synology 1.
Wat is hier het handigst voor?
Bedankt!
Dus je wilt eigenlijk data van NAS1 in sync hebben met NAS2 ? Dit kun je one-way syncen met rsync .
Je kunt ook gebruik maken van Synology Drive ShareSync . Daarin kun je je sync opties configureren tussen je NAS'en (2-way, 1-way, target folders, sync filters etc etc).

Ikzelf gebruik Synology Drive ShareSync om 3 van mijn NAS'en in sync te houden.
Yes, e one-way syncen met rsync works great!

THX!!!

Acties:
  • +1 Henk 'm!

  • technorabilia
  • Registratie: November 2006
  • Laatst online: 15-09 14:44
@Wachten...
Elke oplossing heeft wel voor- en nadelen. Je zult zelf de afweging moeten maken op basis van je eigen situatie. En de zaken waar je belang aan hecht. Je gaf aan het belangrijk te vinden dat je NAS idle is en je kijkt ook naar slijtage en energie gebruik en je bent je bewust van je eigen kennis van de materie (Docker, oplossen van problemen etc.). Op basis daarvan moet je een keuze maken wat voor jou werkt en comfortabel is.

En zoals @Ben(V) aangeeft in het geval van een RPI beter niet van een SD kaart draaien. Maar volgens mij sprak je al over een SSD als ik het mij goed herinner.

👉🏻 Blog 👈🏻


Acties:
  • 0 Henk 'm!

  • Wachten...
  • Registratie: Januari 2008
  • Laatst online: 15:09
Weet een van jullie trouwens hoe het komt dat ik maar niet kan connecten met hyperbackup vault i.c.m. reverse proxy?

Voorheen deed ik het via de DDNS van Synology mijnserver.synology.me en ben nu over naar een domeinnaam met een CNAME hyper.mijnserver.nl. Ik kan overigens wel gewoon connecten met ds.mijnserver.nl om in DSM te komen.

Mijn instellingen zijn als volgt.

Afbeeldingslocatie: https://tweakers.net/i/geO1_SGuek2mMhgTY4ZrC08D11Y=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/9WJN97ebWJP4VpRYqsF8EHCZ.png?f=user_large

Ik probeer dan dus op de andere nas de DOEL aan te passen naar backup.mijnserver.nl en als poort 443, maar hij wilt maar niet verbinden!

Als je dit kunt lezen, dan werkt mij Signature!


Acties:
  • +1 Henk 'm!

  • DukeBox
  • Registratie: April 2000
  • Laatst online: 14:36
Wachten... schreef op donderdag 3 december 2020 @ 21:59:
Weet een van jullie trouwens hoe het komt dat ik maar niet kan connecten met hyperbackup vault i.c.m. reverse proxy?
Omdat het geen HTTP protocol is.

[ Voor 3% gewijzigd door DukeBox op 03-12-2020 23:11 ]

Duct tape can't fix stupid, but it can muffle the sound.


Acties:
  • 0 Henk 'm!

  • Wachten...
  • Registratie: Januari 2008
  • Laatst online: 15:09
DukeBox schreef op donderdag 3 december 2020 @ 23:10:
[...]

Omdat het geen HTTP protocol is.
Maar ik heb ook geprobeerd het te veranderen naar https, maar zonder positief resultaat
Ik snap er echt niks van, de rest van al mijn reverse proxys werken gewoon!

Afbeeldingslocatie: https://tweakers.net/i/-b9n8uEQpvTqXAGan6IOCf1WeTw=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/e3dzLxN2uWY5BEJV22UQM4VO.png?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/UpVqfX1qXj64RhcQxW9W9SuCgoM=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/DSl2v2IrANDzBmDW23sNxYT8.png?f=user_large

[ Voor 48% gewijzigd door Wachten... op 03-12-2020 23:44 ]

Als je dit kunt lezen, dan werkt mij Signature!


Acties:
  • +1 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
Het is ook geen HTTPS protocol....

Acties:
  • 0 Henk 'm!

  • Virtua
  • Registratie: November 2013
  • Laatst online: 17-09 21:19
Vraagje, ik gebruik altijd vpn op de nas,echter door een verandering werkt dat niet meer met private internet acces en moet je open vpn gebruiken,krijg gewoon conectie met de nas erop maar van buiten me netwerk kan ik niet meer inloggen.
heeft 1 van jullie dit ook?

Acties:
  • 0 Henk 'm!

  • kuwerti
  • Registratie: Februari 2002
  • Laatst online: 09-09 00:12
Goedemorgen. ik heb een synology DS 2415+ met de laatste dsm-versie.
Als ik naar de map shared folders ga en ik right-click op een shared folder dan is de optie 'encryption' grijs (niet beschikbaar) weet iemand hoe dat kan en hoe ik een bestaande shared-folder kan encrypten?

Acties:
  • 0 Henk 'm!

  • Shadow771
  • Registratie: December 2011
  • Laatst online: 17-09 00:31
Virtua schreef op vrijdag 4 december 2020 @ 01:30:
Vraagje, ik gebruik altijd vpn op de nas,echter door een verandering werkt dat niet meer met private internet acces en moet je open vpn gebruiken,krijg gewoon conectie met de nas erop maar van buiten me netwerk kan ik niet meer inloggen.
heeft 1 van jullie dit ook?
Dus op je NAS zet je een OpenVPN verbinding naar een andere bron op? Dan zou dit kunnen kloppen ja. Anders moet je op de 1 of andere manier via die VPN lijn weer op je NAS komen als je buiten je netwerk kan... Als dit iets van NordVPN ofzo is dan kan je dit vergeten..
Pagina: 1 ... 80 ... 186 Laatste

Let op:
Dit topic is onderdeel van de drie topics over Synology:In dit Vraag en Antwoord topic mogen alle vragen over Synology-producten tenzij:
  • ... het een vraag betreft over een addon package voor Synology; daar is een apart topic voor.
  • ... het een aankondiging of discussie-item betreft wat in het Nieuws en discussie topic hoort.
  • ... jouw vraag al beantwoord is in de Veelgestelde vragen (FAQ).