Eigenlijk kan zo'n beetje alle plus modellen overweg met Docker.
Ik zou graag mijn ds918+ , welke al vol met hdd's zit, de camera's hun stream laten wegschrijven op een ssd. Maar ik lees her en der dat het niet mogelijk is om dit via een externe ssd te doen
..
Dit om de diskactiviteit te minderen gezien die gegevens belangrijk zijn en de camerabeelden niet echt redundant hoeven te zijn.. heeft er iemand tegen hetzelfde aangelopen of hier een oplossing voor?
Of kan ik de 2 cache ssd's misschien hiervoor inzetten?

Dit om de diskactiviteit te minderen gezien die gegevens belangrijk zijn en de camerabeelden niet echt redundant hoeven te zijn.. heeft er iemand tegen hetzelfde aangelopen of hier een oplossing voor?
Of kan ik de 2 cache ssd's misschien hiervoor inzetten?
Here's to you Nicola and Bart
Als ik voor zo'n vraagstuk zou staan zou ik zelf een tweede goedkope Syno kopen voor puur de camerabeeldenUnrealiac schreef op vrijdag 16 oktober 2020 @ 19:48:
Ik zou graag mijn ds918+ , welke al vol met hdd's zit, de camera's hun stream laten wegschrijven op een ssd. Maar ik lees her en der dat het niet mogelijk is om dit via een externe ssd te doen..
Dit om de diskactiviteit te minderen gezien die gegevens belangrijk zijn en de camerabeelden niet echt redundant hoeven te zijn.. heeft er iemand tegen hetzelfde aangelopen of hier een oplossing voor?
Of kan ik de 2 cache ssd's misschien hiervoor inzetten?
Still warm the blood that courses through my veins. | PvOutput | ARSENAL FC
Ik zou je aanraden geen SSD's te gebruiken voor de opslag van videobeelden, tenzij je kijkt naar drives welke 1DWPD hebben.Unrealiac schreef op vrijdag 16 oktober 2020 @ 19:48:
Ik zou graag mijn ds918+ , welke al vol met hdd's zit, de camera's hun stream laten wegschrijven op een ssd. Maar ik lees her en der dat het niet mogelijk is om dit via een externe ssd te doen..
Dit om de diskactiviteit te minderen gezien die gegevens belangrijk zijn en de camerabeelden niet echt redundant hoeven te zijn.. heeft er iemand tegen hetzelfde aangelopen of hier een oplossing voor?
Of kan ik de 2 cache ssd's misschien hiervoor inzetten?
Je zou de WD Purple kunnen inzetten hiervoor, deze zijn gemaakt voor camerabeelden.
https://shop.westerndigit...drives/wd-purple-sata-hdd
[ Voor 19% gewijzigd door Vorkie op 18-10-2020 13:36 ]
Hmmm, je geeft me wel een idee.Gunner schreef op vrijdag 16 oktober 2020 @ 19:50:
[...]
Als ik voor zo'n vraagstuk zou staan zou ik zelf een tweede goedkope Syno kopen voor puur de camerabeelden
Ik denk dat ik dan beter een NAS haal met meer bays en wat hdd's migreer en een apart ssd volume maak. Heb liefst wel alles in 1 apparaat.
Here's to you Nicola and Bart
Hoe testen jullie eigenlijk je backups? Ik gebruik Synology icm enerzijds Dropbox voor de sync en anderzijds Synology C2 en Stack voor de offsite. Maar die laatste twee test ik eigenlijk nooit en na het nieuws rond Stack zou ik eigenlijk wel eens willen testen. Wellicht wat hypothetisch gezien mijn meer dan 1-2-3 maar zonder tests geen backup.
Ik gebruik al jaren ds cloud op mijn synology NAS voor het syncen van bepaalde mappen. Dit heeft altijd prima gewerkt tot ik vandaag vanwege geheugen gebrek een sd kaart moest plaatsen. Nu kan ik echter geen map selecteren op de sd kaart in ds cloud.
Ik heb er wel een topic over gevonden maar vroeg me af of er meer mensen tegen dit probleem aangelopen zijn, en dit eventueel anders hebben kunnen oplossen.
Ik vond het namelijk fijn dat als ik een foto maakte deze meteen zond w r tussenkomst van drive of onedrive op mijn nas kwam.
Nu is er blijkbaar maar 1 folder in de android map wat gesync mag worden
https://community.synolog...7/post/95289?reply=323489
Een optie zou kunnen zijn om de fotos en videos intern in de DCIM folder te laten opslaan. Deze met ds cloud alleen te laten uploaden naar de NAS en dan met "foldersync" snachts te moven. Is wel erg omslachtig.
Ik heb er wel een topic over gevonden maar vroeg me af of er meer mensen tegen dit probleem aangelopen zijn, en dit eventueel anders hebben kunnen oplossen.
Ik vond het namelijk fijn dat als ik een foto maakte deze meteen zond w r tussenkomst van drive of onedrive op mijn nas kwam.
Nu is er blijkbaar maar 1 folder in de android map wat gesync mag worden
https://community.synolog...7/post/95289?reply=323489
Een optie zou kunnen zijn om de fotos en videos intern in de DCIM folder te laten opslaan. Deze met ds cloud alleen te laten uploaden naar de NAS en dan met "foldersync" snachts te moven. Is wel erg omslachtig.
[ Voor 13% gewijzigd door kromme op 16-10-2020 22:33 ]
Keep it calm...en lek mig de zuk
Weet iemand of je in de https://www.synology.com/nl-nl/products/DS1621+#specs ook dit geheugen kan gebruiken? https://tweakers.net/gehe...8JkkZV9K2CyP59aoiomk-klN4
Dus non ecc? Of iemand ervaring met een andere Syno nas waarin standaard ecc memory zit?
Dus non ecc? Of iemand ervaring met een andere Syno nas waarin standaard ecc memory zit?
Nee, soorten kan je niet mengen. ECC = ECC, gewoon dus uitbreiden met ECC geheugen.sanderdw schreef op zondag 18 oktober 2020 @ 13:33:
Weet iemand of je in de https://www.synology.com/nl-nl/products/DS1621+#specs ook dit geheugen kan gebruiken? https://tweakers.net/gehe...8JkkZV9K2CyP59aoiomk-klN4
Dus non ecc? Of iemand ervaring met een andere Syno nas waarin standaard ecc memory zit?
Je weet ook dat ECC juist belangrijk is met je data?
Ter info:
https://www.pugetsystems....ntages-of-ECC-Memory-520/
En zoal @Vorkie al zei, als je systeem ECC memory nodig heeft zal hij niet functioneren met NON ECC memory.
https://www.pugetsystems....ntages-of-ECC-Memory-520/
En zoal @Vorkie al zei, als je systeem ECC memory nodig heeft zal hij niet functioneren met NON ECC memory.
[ Voor 5% gewijzigd door Ben(V) op 18-10-2020 13:46 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Mengen snap ik, maar doelde voornamelijk op vervangen aangezien er nu maar 1 module van 4gb inzit.Vorkie schreef op zondag 18 oktober 2020 @ 13:35:
[...]
Nee, soorten kan je niet mengen. ECC = ECC, gewoon dus uitbreiden met ECC geheugen.
Je weet ook dat ECC juist belangrijk is met je data?
Dus ik begrijp dat het technisch sowieso niet mogelijk is, ongeacht de 'nadelen' ? Wat zou een goed alternatief zijn voor de officiële modules van Synology die heel erg duur zijn?
[ Voor 20% gewijzigd door sanderdw op 18-10-2020 13:49 ]
Ik was opzoek naar reacties van mensen die hun Synology voornamelijk gebruiken voor Docker. En of een NVMe SSD cache dan nut heeft. Daar heb ik weinig info over kunnen vinden, dus ik plaats mijn ervaring even hier zodat andere daarvan kunnen profiteren.
Bij de aanschaf van mijn nieuwe Synology twijfelde ik enorm tussen Western Digital en Seagate. Ik heb gekozen voor Seagate, maar achteraf heb ik daar spijt van. De 6TB schijven maken echt veel herrie. Dus een volgende keer zou ik toch weer voor Western Digital gaan.
Mede omdat de schijven veel kabaal maken heb ik de gok genomen om NVMe opslag/cache aan te schaffen. Ik kan zeggen dat het verschil zeker te merken is, je hoort de schijven af en toe nog wel, maar veel minder. Het is net alsof de lees/schrijfkop minder op en neer hoeft te gaan. Het is allemaal veel subtieler.
De applicaties die in Docker draaien zijn niet merkbaar sneller, maar dat komt omdat die al zeer snel waren.
Setup:
Synology DS720+
2 x Seagate IronWolf HDD 6TB ST6000VN001
2 x Seagate IronWolf 510 M.2 240 GB PCI Express 3.0 3D TLC NVMe
1 x Crucial SODIMM DDR4 2666 CL19 - 4GB
Docker containers:
- Mosquitto
- Deconz
- Home Assistant
- Node Red
- Unifi
- Pi Hole
Cache hit rate 98% (used capacity 27GB)
RAM gebruik: gemiddeld 21%
Bij de aanschaf van mijn nieuwe Synology twijfelde ik enorm tussen Western Digital en Seagate. Ik heb gekozen voor Seagate, maar achteraf heb ik daar spijt van. De 6TB schijven maken echt veel herrie. Dus een volgende keer zou ik toch weer voor Western Digital gaan.
Mede omdat de schijven veel kabaal maken heb ik de gok genomen om NVMe opslag/cache aan te schaffen. Ik kan zeggen dat het verschil zeker te merken is, je hoort de schijven af en toe nog wel, maar veel minder. Het is net alsof de lees/schrijfkop minder op en neer hoeft te gaan. Het is allemaal veel subtieler.
De applicaties die in Docker draaien zijn niet merkbaar sneller, maar dat komt omdat die al zeer snel waren.
Setup:
Synology DS720+
2 x Seagate IronWolf HDD 6TB ST6000VN001
2 x Seagate IronWolf 510 M.2 240 GB PCI Express 3.0 3D TLC NVMe
1 x Crucial SODIMM DDR4 2666 CL19 - 4GB
Docker containers:
- Mosquitto
- Deconz
- Home Assistant
- Node Red
- Unifi
- Pi Hole
Cache hit rate 98% (used capacity 27GB)
RAM gebruik: gemiddeld 21%
Mogelijk dat iemand mij hier kan helpen, sinds gisteren doet mijn 918+ het niet meer. Hij is in de nacht spontaan vanzelf uitgegaan en weigert nu met de harde schijven erin te starten.
Ik heb een aantal dingen getest:
1. Starten met alle schijven erin, na 20 seconden schakelt hij zichzelf uit, blauw ledje blijft knipperen
2. Starten zonder schijven, hoor een beep, dan start hij door en kan ik 'installation' starten, maar ja geen schijven erin.
3. Opgestart met een net nieuwe gekochte schijf (1 schijf, zonder anderen), zelfde gedrag als 1, schakelt uit na 20 seconden met knipperend blauw ledje
4. Starten zonder schijven en schijf erin steken zodra hij ready is for install, zodra ik de schijf erin steek schakelt hij zich uit
Ik heb ook de power supply even doorgemeten met een multi-meter en kom op 12.1 volt uit, lijkt mij redelijk normaal. Tevens de memory modules gewisseld, ook geen effect.
Iemand anders nog tips wat dit kan zijn, of is dit gevalletje garantie claimen?
Ik heb een aantal dingen getest:
1. Starten met alle schijven erin, na 20 seconden schakelt hij zichzelf uit, blauw ledje blijft knipperen
2. Starten zonder schijven, hoor een beep, dan start hij door en kan ik 'installation' starten, maar ja geen schijven erin.
3. Opgestart met een net nieuwe gekochte schijf (1 schijf, zonder anderen), zelfde gedrag als 1, schakelt uit na 20 seconden met knipperend blauw ledje
4. Starten zonder schijven en schijf erin steken zodra hij ready is for install, zodra ik de schijf erin steek schakelt hij zich uit
Ik heb ook de power supply even doorgemeten met een multi-meter en kom op 12.1 volt uit, lijkt mij redelijk normaal. Tevens de memory modules gewisseld, ook geen effect.
Iemand anders nog tips wat dit kan zijn, of is dit gevalletje garantie claimen?
Stay hungry, Stay foolish
@vriesren Behalve de memory modules te wisselen - probeer ook eens met slechts één module er in? Evt daarna nog eens met enkel de andere?
Lekker!
@Napsju Dat heb ik net geprobeerd, helaas exact hetzelfde gedrag.
Ik heb een garantie claim ingediend, zie ook niet direct een andere optie.
Ik heb een garantie claim ingediend, zie ook niet direct een andere optie.
Stay hungry, Stay foolish
Ik heb een Synology DS213 die ik als Hyper Backup Vault gebruik.
Echter zit er 2FP op, maar doen de codes vanuit Authenticiteit het telkens niet. noodcode naar email komt ook niet aan.
Resetten lijkt me de enige optie, maar blijven de instellingen dan behouden? Data blijven wel staan neem ik aan? Wat verdwijnt er precies als ik reset?
Echter zit er 2FP op, maar doen de codes vanuit Authenticiteit het telkens niet. noodcode naar email komt ook niet aan.
Resetten lijkt me de enige optie, maar blijven de instellingen dan behouden? Data blijven wel staan neem ik aan? Wat verdwijnt er precies als ik reset?
Heb je nog cache SSD's erin zitten?vriesren schreef op zondag 18 oktober 2020 @ 17:27:
@Napsju Dat heb ik net geprobeerd, helaas exact hetzelfde gedrag.
Ik heb een garantie claim ingediend, zie ook niet direct een andere optie.
i7 9700k + Be-Quiet Dark Rock 4 Pro | Gigabyte Z390 Aorus Ultra | Gigabyte RTX5070Ti | Samsung 970 Pro 512GB + 860 EVO 1TB + 860 QVO 4TB | 2x8GB DDR4 3000Mhz | Seasonic Platinum 660W | Fractal Design R6 | Samsung Oddyssey G7 Neo | Edifier M60
Ik ben al een tijdje aan het klooien om op mijn DS214+ onder Python 3.7 de packages numpy en webrtcvad-wheels te installeren.
Helaas lukt dat niet. Ik heb verschillende dingen geprobeerd, maar de foutmeldingen lijken op elkaar.
Iemand een idee hoe ik dit voor elkaar kan krijgen?
Helaas lukt dat niet. Ik heb verschillende dingen geprobeerd, maar de foutmeldingen lijken op elkaar.
code:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
| root@diskstation2:/volume1/@appstore/python3/bin# ./pip3.7 download numpy Collecting numpy Using cached numpy-1.19.2.zip (7.3 MB) Installing build dependencies ... done Getting requirements to build wheel ... done Preparing wheel metadata ... error ERROR: Command errored out with exit status 1: command: /var/packages/python3/target/bin/python3.7 /var/packages/python3/target/lib/python3.7/site-packages/pip/_vendor/pep517/_in_process.py prepare_metadata_for_build_wheel /tmp/tmp0v2uq_lg cwd: /tmp/pip-download-zwi0_ak0/numpy Complete output (250 lines): Processing numpy/random/_bounded_integers.pxd.in Processing numpy/random/mtrand.pyx Processing numpy/random/_pcg64.pyx Processing numpy/random/bit_generator.pyx Processing numpy/random/_sfc64.pyx Processing numpy/random/_common.pyx Processing numpy/random/_bounded_integers.pyx.in Processing numpy/random/_philox.pyx Processing numpy/random/_generator.pyx Processing numpy/random/_mt19937.pyx Cythonizing sources blas_opt_info: blas_mkl_info: customize UnixCCompiler libraries mkl_rt not found in ['/var/packages/python3/target/lib', '/usr/local/lib', '/opt/lib', '/usr/lib', '/opt/local/lib'] NOT AVAILABLE blis_info: libraries blis not found in ['/var/packages/python3/target/lib', '/usr/local/lib', '/opt/lib', '/usr/lib', '/opt/local/lib'] NOT AVAILABLE openblas_info: libraries openblas not found in ['/var/packages/python3/target/lib', '/usr/local/lib', '/opt/lib', '/usr/lib', '/opt/local/lib'] NOT AVAILABLE atlas_3_10_blas_threads_info: Setting PTATLAS=ATLAS libraries tatlas not found in ['/var/packages/python3/target/lib', '/usr/local/lib', '/opt/lib', '/usr/lib', '/opt/local/lib'] NOT AVAILABLE atlas_3_10_blas_info: libraries satlas not found in ['/var/packages/python3/target/lib', '/usr/local/lib', '/opt/lib', '/usr/lib', '/opt/local/lib'] NOT AVAILABLE atlas_blas_threads_info: Setting PTATLAS=ATLAS libraries ptf77blas,ptcblas,atlas not found in ['/var/packages/python3/target/lib', '/usr/local/lib', '/opt/lib', '/usr/lib', '/opt/local/lib'] NOT AVAILABLE atlas_blas_info: libraries f77blas,cblas,atlas not found in ['/var/packages/python3/target/lib', '/usr/local/lib', '/opt/lib', '/usr/lib', '/opt/local/lib'] NOT AVAILABLE accelerate_info: NOT AVAILABLE blas_info: libraries blas not found in ['/var/packages/python3/target/lib', '/usr/local/lib', '/opt/lib', '/usr/lib', '/opt/local/lib'] NOT AVAILABLE blas_src_info: NOT AVAILABLE NOT AVAILABLE non-existing path in 'numpy/distutils': 'site.cfg' lapack_opt_info: lapack_mkl_info: libraries mkl_rt not found in ['/var/packages/python3/target/lib', '/usr/local/lib', '/opt/lib', '/usr/lib', '/opt/local/lib'] NOT AVAILABLE openblas_lapack_info: libraries openblas not found in ['/var/packages/python3/target/lib', '/usr/local/lib', '/opt/lib', '/usr/lib', '/opt/local/lib'] NOT AVAILABLE openblas_clapack_info: libraries openblas,lapack not found in ['/var/packages/python3/target/lib', '/usr/local/lib', '/opt/lib', '/usr/lib', '/opt/local/lib'] NOT AVAILABLE flame_info: libraries flame not found in ['/var/packages/python3/target/lib', '/usr/local/lib', '/opt/lib', '/usr/lib', '/opt/local/lib'] NOT AVAILABLE atlas_3_10_threads_info: Setting PTATLAS=ATLAS libraries lapack_atlas not found in /var/packages/python3/target/lib libraries tatlas,tatlas not found in /var/packages/python3/target/lib libraries lapack_atlas not found in /usr/local/lib libraries tatlas,tatlas not found in /usr/local/lib libraries lapack_atlas not found in /opt/lib libraries tatlas,tatlas not found in /opt/lib libraries lapack_atlas not found in /usr/lib libraries tatlas,tatlas not found in /usr/lib libraries lapack_atlas not found in /opt/local/lib libraries tatlas,tatlas not found in /opt/local/lib <class 'numpy.distutils.system_info.atlas_3_10_threads_info'> NOT AVAILABLE atlas_3_10_info: libraries lapack_atlas not found in /var/packages/python3/target/lib libraries satlas,satlas not found in /var/packages/python3/target/lib libraries lapack_atlas not found in /usr/local/lib libraries satlas,satlas not found in /usr/local/lib libraries lapack_atlas not found in /opt/lib libraries satlas,satlas not found in /opt/lib libraries lapack_atlas not found in /usr/lib libraries satlas,satlas not found in /usr/lib libraries lapack_atlas not found in /opt/local/lib libraries satlas,satlas not found in /opt/local/lib <class 'numpy.distutils.system_info.atlas_3_10_info'> NOT AVAILABLE atlas_threads_info: Setting PTATLAS=ATLAS libraries lapack_atlas not found in /var/packages/python3/target/lib libraries ptf77blas,ptcblas,atlas not found in /var/packages/python3/target/lib libraries lapack_atlas not found in /usr/local/lib libraries ptf77blas,ptcblas,atlas not found in /usr/local/lib libraries lapack_atlas not found in /opt/lib libraries ptf77blas,ptcblas,atlas not found in /opt/lib libraries lapack_atlas not found in /usr/lib libraries ptf77blas,ptcblas,atlas not found in /usr/lib libraries lapack_atlas not found in /opt/local/lib libraries ptf77blas,ptcblas,atlas not found in /opt/local/lib <class 'numpy.distutils.system_info.atlas_threads_info'> NOT AVAILABLE atlas_info: libraries lapack_atlas not found in /var/packages/python3/target/lib libraries f77blas,cblas,atlas not found in /var/packages/python3/target/lib libraries lapack_atlas not found in /usr/local/lib libraries f77blas,cblas,atlas not found in /usr/local/lib libraries lapack_atlas not found in /opt/lib libraries f77blas,cblas,atlas not found in /opt/lib libraries lapack_atlas not found in /usr/lib libraries f77blas,cblas,atlas not found in /usr/lib libraries lapack_atlas not found in /opt/local/lib libraries f77blas,cblas,atlas not found in /opt/local/lib <class 'numpy.distutils.system_info.atlas_info'> NOT AVAILABLE lapack_info: libraries lapack not found in ['/var/packages/python3/target/lib', '/usr/local/lib', '/opt/lib', '/usr/lib', '/opt/local/lib'] NOT AVAILABLE lapack_src_info: NOT AVAILABLE NOT AVAILABLE numpy_linalg_lapack_lite: FOUND: language = c running dist_info running build_src build_src building py_modules sources creating build creating build/src.linux-armv7l-3.7 creating build/src.linux-armv7l-3.7/numpy creating build/src.linux-armv7l-3.7/numpy/distutils building library "npymath" sources Could not locate executable gfortran Could not locate executable f95 Could not locate executable ifort Could not locate executable ifc Could not locate executable lf95 Could not locate executable pgfortran Could not locate executable f90 Could not locate executable f77 Could not locate executable fort Could not locate executable efort Could not locate executable efc Could not locate executable g77 Could not locate executable g95 Could not locate executable pathf95 Could not locate executable nagfor don't know how to compile Fortran code on platform 'posix' Running from numpy source directory. setup.py:470: UserWarning: Unrecognized setuptools command, proceeding with generating Cython sources and expanding templates run_build = parse_setuppy_commands() /tmp/pip-download-zwi0_ak0/numpy/numpy/distutils/system_info.py:1914: UserWarning: Optimized (vendor) Blas libraries are not found. Falls back to netlib Blas library which has worse performance. A better performance should be easily gained by switching Blas library. if self._calc_info(blas): /tmp/pip-download-zwi0_ak0/numpy/numpy/distutils/system_info.py:1914: UserWarning: Blas (http://www.netlib.org/blas/) libraries not found. Directories to search for the libraries can be specified in the numpy/distutils/site.cfg file (section [blas]) or by setting the BLAS environment variable. if self._calc_info(blas): /tmp/pip-download-zwi0_ak0/numpy/numpy/distutils/system_info.py:1914: UserWarning: Blas (http://www.netlib.org/blas/) sources not found. Directories to search for the sources can be specified in the numpy/distutils/site.cfg file (section [blas_src]) or by setting the BLAS_SRC environment variable. if self._calc_info(blas): /tmp/pip-download-zwi0_ak0/numpy/numpy/distutils/system_info.py:1748: UserWarning: Lapack (http://www.netlib.org/lapack/) libraries not found. Directories to search for the libraries can be specified in the numpy/distutils/site.cfg file (section [lapack]) or by setting the LAPACK environment variable. return getattr(self, '_calc_info_{}'.format(name))() /tmp/pip-download-zwi0_ak0/numpy/numpy/distutils/system_info.py:1748: UserWarning: Lapack (http://www.netlib.org/lapack/) sources not found. Directories to search for the sources can be specified in the numpy/distutils/site.cfg file (section [lapack_src]) or by setting the LAPACK_SRC environment variable. return getattr(self, '_calc_info_{}'.format(name))() /var/packages/python3/target/lib/python3.7/distutils/dist.py:274: UserWarning: Unknown distribution option: 'define_macros' warnings.warn(msg) Traceback (most recent call last): File "/var/packages/python3/target/lib/python3.7/site-packages/pip/_vendor/pep517/_in_process.py", line 257, in <module> main() File "/var/packages/python3/target/lib/python3.7/site-packages/pip/_vendor/pep517/_in_process.py", line 240, in main json_out['return_val'] = hook(**hook_input['kwargs']) File "/var/packages/python3/target/lib/python3.7/site-packages/pip/_vendor/pep517/_in_process.py", line 110, in prepare_metadata_for_build_wheel return hook(metadata_directory, config_settings) File "/tmp/pip-build-env-txdiemcc/overlay/lib/python3.7/site-packages/setuptools/build_meta.py", line 157, in prepare_metadata_for_build_wheel self.run_setup() File "/tmp/pip-build-env-txdiemcc/overlay/lib/python3.7/site-packages/setuptools/build_meta.py", line 249, in run_setup self).run_setup(setup_script=setup_script) File "/tmp/pip-build-env-txdiemcc/overlay/lib/python3.7/site-packages/setuptools/build_meta.py", line 142, in run_setup exec(compile(code, __file__, 'exec'), locals()) File "setup.py", line 499, in <module> setup_package() File "setup.py", line 491, in setup_package setup(**metadata) File "/tmp/pip-download-zwi0_ak0/numpy/numpy/distutils/core.py", line 169, in setup return old_setup(**new_attr) File "/tmp/pip-build-env-txdiemcc/overlay/lib/python3.7/site-packages/setuptools/__init__.py", line 165, in setup return distutils.core.setup(**attrs) File "/var/packages/python3/target/lib/python3.7/distutils/core.py", line 148, in setup dist.run_commands() File "/var/packages/python3/target/lib/python3.7/distutils/dist.py", line 966, in run_commands self.run_command(cmd) File "/var/packages/python3/target/lib/python3.7/distutils/dist.py", line 985, in run_command cmd_obj.run() File "/tmp/pip-build-env-txdiemcc/overlay/lib/python3.7/site-packages/setuptools/command/dist_info.py", line 31, in run egg_info.run() File "/tmp/pip-download-zwi0_ak0/numpy/numpy/distutils/command/egg_info.py", line 24, in run self.run_command("build_src") File "/var/packages/python3/target/lib/python3.7/distutils/cmd.py", line 313, in run_command self.distribution.run_command(command) File "/var/packages/python3/target/lib/python3.7/distutils/dist.py", line 985, in run_command cmd_obj.run() File "/tmp/pip-download-zwi0_ak0/numpy/numpy/distutils/command/build_src.py", line 144, in run self.build_sources() File "/tmp/pip-download-zwi0_ak0/numpy/numpy/distutils/command/build_src.py", line 155, in build_sources self.build_library_sources(*libname_info) File "/tmp/pip-download-zwi0_ak0/numpy/numpy/distutils/command/build_src.py", line 288, in build_library_sources sources = self.generate_sources(sources, (lib_name, build_info)) File "/tmp/pip-download-zwi0_ak0/numpy/numpy/distutils/command/build_src.py", line 378, in generate_sources source = func(extension, build_dir) File "numpy/core/setup.py", line 655, in get_mathlib_info raise RuntimeError("Broken toolchain: cannot link a simple C program") RuntimeError: Broken toolchain: cannot link a simple C program ---------------------------------------- ERROR: Command errored out with exit status 1: /var/packages/python3/target/bin/python3.7 /var/packages/python3/target/lib/python3.7/site-packages/pip/_vendor/pep517/_in_process.py prepare_metadata_for_build_wheel /tmp/tmp0v2uq_lg Check the logs for full command output. root@diskstation2:/volume1/@appstore/python3/bin# |
Iemand een idee hoe ik dit voor elkaar kan krijgen?
|| Marktplaats-meuk. Afdingen mag! ;-) || slotje.com for sale || Dank pven! ||
@pven
Volgens mij vergelijkbaar met deze vraag.
Onderaan staat een link om te xcompilen op een x86 machine. Een aantal packages staan klaar op https://gergely.imreh.net/wheels/.
Volgens mij vergelijkbaar met deze vraag.
Onderaan staat een link om te xcompilen op een x86 machine. Een aantal packages staan klaar op https://gergely.imreh.net/wheels/.
👉🏻 Blog 👈🏻
Je mist de mkl library.
Probeer die eerst een te installeren met
Probeer die eerst een te installeren met
pip install mkl
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Dit verklaart denk wel waarom het niet lukt:Ben(V) schreef op maandag 19 oktober 2020 @ 12:43:
Je mist de mkl library.
Probeer die eerst een te installeren met
[...]
code:
1
2
3
4
| # ./pip3.7 install mkl ERROR: Could not find a version that satisfies the requirement mkl (from versions: none) ERROR: No matching distribution found for mkl # |
Mijn DS214+ is blijkbaar wat te oud aan het worden ...
|| Marktplaats-meuk. Afdingen mag! ;-) || slotje.com for sale || Dank pven! ||
Had even over het hoofd gezien dat je een Arm processor hebt en mkl en dus numpy is er alleen voor X_86/64 intel processoren.
[ Voor 19% gewijzigd door Ben(V) op 19-10-2020 13:37 ]
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Ik had maar half gekeken. Excuses! Ik kijk vanavond verder, en kom er op terug. Dank!kraades schreef op maandag 19 oktober 2020 @ 14:36:
@pven
Via de link hierboven vind je de binaries voor jouw platform. Denk ik... in ieder geval voor numpy. Op de github pagina staat het pip commando.
|| Marktplaats-meuk. Afdingen mag! ;-) || slotje.com for sale || Dank pven! ||
Ik heb een Synology 412+, 3 schijven van 2TB.
Het aanmelden bij DS Photo duurt soms wel 1,5 min via de iPhone.
Dit heb ik op meerdere iPhone's, maar ook via de Macbook.
Ik maak gebruik van QuickConnect, zodat ik vanaf het 4G netwerk ook kan connecten met mijn DS Photo, ook staat de backup functie aan in DS Photo.
Ook als ik met de lokale IP wil connecten via DS Photo duurt het enorm lang.
Op het moment dat het zo lang duurt, is de CPU en Memory normaal kwa gebruik.
Ik heb wel de optie aanstaan om aan te melden via HTTPS, dat heb ik ook allemaal wel ingesteld op de NAS.
- NAS is voorzien van de laatste update.
- Pakketten zijn up-to-date.
- Heb dit met verschillende iOS versies.
Wellicht hebben jullie nog tips?
Het aanmelden bij DS Photo duurt soms wel 1,5 min via de iPhone.
Dit heb ik op meerdere iPhone's, maar ook via de Macbook.
Ik maak gebruik van QuickConnect, zodat ik vanaf het 4G netwerk ook kan connecten met mijn DS Photo, ook staat de backup functie aan in DS Photo.
Ook als ik met de lokale IP wil connecten via DS Photo duurt het enorm lang.
Op het moment dat het zo lang duurt, is de CPU en Memory normaal kwa gebruik.
Ik heb wel de optie aanstaan om aan te melden via HTTPS, dat heb ik ook allemaal wel ingesteld op de NAS.
- NAS is voorzien van de laatste update.
- Pakketten zijn up-to-date.
- Heb dit met verschillende iOS versies.
Wellicht hebben jullie nog tips?
Je zou met vDSM kunnen testen zodat je kan uitsluiten of het aan je NAS ligt.Jieve schreef op maandag 19 oktober 2020 @ 15:35:
Wellicht hebben jullie nog tips?
Duct tape can't fix stupid, but it can muffle the sound.
vDSM? zegt mij niet meteen iets, maar ik ga even Googlen! Thanks!DukeBox schreef op maandag 19 oktober 2020 @ 16:49:
[...]
Je zou met vDSM kunnen testen zodat je kan uitsluiten of het aan je NAS ligt.
Yes, DS file hetzelfde verhaal...
Ik dacht misschien heeft het te maken met dat er maar 1GB fysiek geheugen erin zit....
Heb hier nog een 4GB liggen, wou die erin steken, maar ik las dat er maar een bepaalde type in kan, heb namelijk een Samsung PC4-2133, dat is een DDR4 dacht ik.
[ Voor 21% gewijzigd door Jieve op 19-10-2020 17:34 ]
@Jieve
Je kunt nog via http i.p.v. https proberen te connecten, maar via vDSM proberen is een beter idee en snel te installeren en uit te proberen zonder je primaire systeem aan te hoeven passen.
Edit:
Je hebt inderdaad ander geheugen nodig.
https://www.ifixit.com/Gu...12++RAM+Replacement/34079
Je kunt nog via http i.p.v. https proberen te connecten, maar via vDSM proberen is een beter idee en snel te installeren en uit te proberen zonder je primaire systeem aan te hoeven passen.
Edit:
Je hebt inderdaad ander geheugen nodig.
https://www.ifixit.com/Gu...12++RAM+Replacement/34079
[ Voor 24% gewijzigd door technorabilia op 19-10-2020 17:50 ]
👉🏻 Blog 👈🏻
Top, ik ga het zo even installeren, kijken hoe dat precies werkt.kraades schreef op maandag 19 oktober 2020 @ 17:43:
@Jieve
Je kunt nog via http i.p.v. https proberen te connecten, maar via vDSM proberen is een beter idee en snel te installeren en uit te proberen zonder je primaire systeem aan te hoeven passen.
Edit:
Je hebt inderdaad ander geheugen nodig.
https://www.ifixit.com/Gu...12++RAM+Replacement/34079
Past niets aan op mijn huidige configuratie/installatie?
Thanks!
[ Voor 21% gewijzigd door Jieve op 19-10-2020 19:37 ]
@Verwijderd
Klopt, de installatie past niets aan op je primaire systeem.
Klopt, de installatie past niets aan op je primaire systeem.
👉🏻 Blog 👈🏻
Helaas:kraades schreef op maandag 19 oktober 2020 @ 14:36:
@pven
Via de link hierboven vind je de binaries voor jouw platform. Denk ik... in ieder geval voor numpy. Op de github pagina staat het pip commando.
code:
1
| is not a supported wheel on this platform |
Helaas wordt de Marvell Armada XP MV78230 dus niet gezien. Jammer, maar so be it.
|| Marktplaats-meuk. Afdingen mag! ;-) || slotje.com for sale || Dank pven! ||
Hmm, ik ben twee weken op vakantie geweest. Sinds dat ik terug ben kan ik mijn NAS niet meer op een windows 10 machine met Edge/Chrome benaderen via zijn DNS naam.
Foutmelding: ERR_CONNECTION_REFUSED
Ik draai op de Synology een DNS server. DNS naam is resolvable op de mijn werkplek (nslookup/ping). Op mijn iphone/ipad is de nas via safari gewoon benaderbaar maar het lijkt een browser issue te zijn op windows (2 werkstations met zelfde probleem). Synology drive werkt wel gewoon op deze werkstation.
Als ik een nieuw DNS record maak (bijv test.<domein>.nl) kom ik WEL op de nas. Dus alleen de specifieke DNS naam die ik altijd gebruiktte werkt niet meer.
Iemand hier ervaring mee? Ik zou een andere naam kunnen gebruiken voor de nas, maar dat zou ik heel jammer vinden (en ik moet vanalles omconfigureren).
Foutmelding: ERR_CONNECTION_REFUSED
Ik draai op de Synology een DNS server. DNS naam is resolvable op de mijn werkplek (nslookup/ping). Op mijn iphone/ipad is de nas via safari gewoon benaderbaar maar het lijkt een browser issue te zijn op windows (2 werkstations met zelfde probleem). Synology drive werkt wel gewoon op deze werkstation.
Als ik een nieuw DNS record maak (bijv test.<domein>.nl) kom ik WEL op de nas. Dus alleen de specifieke DNS naam die ik altijd gebruiktte werkt niet meer.
Iemand hier ervaring mee? Ik zou een andere naam kunnen gebruiken voor de nas, maar dat zou ik heel jammer vinden (en ik moet vanalles omconfigureren).
Klinkt also the DNS cache van Windows corrupt is geraakt.
Probeer eens die cache te flushen om te zien of dat het is.
Dit is het commando:
Probeer eens die cache te flushen om te zien of dat het is.
Dit is het commando:
ipconfig /flushdns
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Of je browser, bijv. Chrome heeft een eigen cache: chrome://net-internals/#dnsBen(V) schreef op dinsdag 20 oktober 2020 @ 11:30:
Klinkt also the DNS cache van Windows corrupt is geraakt.
Duct tape can't fix stupid, but it can muffle the sound.
flushdns had ik al geprobeerd, maar tevergeefs (had zelfs mijn DNS record aangepast naar ander IP, flush en terug gezet.
Edge DNS ook proberen te clearen... Maar tevergeefs.
Melding in browser is dan ook:
<domeinpagina> refused to connect.
ERR_CONNECTION_REFUSED
Alsof de synology geen requests via deze domeinnaam wilt accepteren (want ander domein naam toekennen werkt perfect).
Maar nog, Andere diensten werken wel goed, en via mobile devices werkt het wel. Mocht iemand een tip hebben, graag... anders ga ik een andere naam pakken.
Edge DNS ook proberen te clearen... Maar tevergeefs.
Melding in browser is dan ook:
<domeinpagina> refused to connect.
ERR_CONNECTION_REFUSED
Alsof de synology geen requests via deze domeinnaam wilt accepteren (want ander domein naam toekennen werkt perfect).
Maar nog, Andere diensten werken wel goed, en via mobile devices werkt het wel. Mocht iemand een tip hebben, graag... anders ga ik een andere naam pakken.
routeer je niet van binnen naar buiten naar binnen???Bexxerz schreef op dinsdag 20 oktober 2020 @ 14:31:
flushdns had ik al geprobeerd, maar tevergeefs (had zelfs mijn DNS record aangepast naar ander IP, flush en terug gezet.
Edge DNS ook proberen te clearen... Maar tevergeefs.
Melding in browser is dan ook:
<domeinpagina> refused to connect.
ERR_CONNECTION_REFUSED
Alsof de synology geen requests via deze domeinnaam wilt accepteren (want ander domein naam toekennen werkt perfect).
Maar nog, Andere diensten werken wel goed, en via mobile devices werkt het wel. Mocht iemand een tip hebben, graag... anders ga ik een andere naam pakken.
Assumption is the mother of all fuck-ups / You're MAdD. Well thank God for that, 'cause if I wasn't this would probably never work
Iemand enig idee of je vanuit Virtual Machine Manager een backup/snapshot kan maken naar een USB disk? Ik kan het nergens vinden ..
Owner of DBIT Consultancy | DJ BassBrewer
Je hebt gelijk. net via Wireshark een trace gedaan en zie dat hij naar mijn extern ip wilt gaan, ondanks dat CMD > nslookup/ping een resolve doen naar het intern ip adres.MAdD schreef op dinsdag 20 oktober 2020 @ 14:55:
[...]
routeer je niet van binnen naar buiten naar binnen???
In ieder geval een mooi start punt om te troubleshooten
(ik vermoed dat Synology de dns aanvraag wel krijgt maar hem direct doorstuurt i.p.v. zelf afhandelt)
Ik draai al geruime jaren probleemloos met een DS1813+ enkel krijg ik sinds kort 'vreemde' foutmelding in de email/log
Het begon afgelopen maandag met disk #2 en vandaag met disk #1 soortgelijke meldingen.
Deze meldingen heb ik vandaag via de mail gekregen (6 mails in totaal binnen 1 minuut)
SYSTEM: Read error at internal disk [1] sector 2408180864.
unc
ioerr
ioerr
ioerr
SYSTEM: Read error at internal disk [1] sector 2408183936.
Het vreemde vind ik echter dat wanneer ik in DSM inlog alles Healthy is en ook de quick en extended SMART test gaat probleemloos.
Ook geeft ie aan in de notifications dat er een bad sector gevonden is maar in de stats van de schijf zelf is het gewoon 0
Is dit een teken dat mijn schijf langzaam de geest aan het geven is?
Zowel disk 1 als disk 2 binnen een week?
Beide zijn WD Red schijven met ca. 41K uren erop.
Of kan ik ver nog iets testen met een andere tool op een PC wellicht?
Het begon afgelopen maandag met disk #2 en vandaag met disk #1 soortgelijke meldingen.
Deze meldingen heb ik vandaag via de mail gekregen (6 mails in totaal binnen 1 minuut)
SYSTEM: Read error at internal disk [1] sector 2408180864.
unc
ioerr
ioerr
ioerr
SYSTEM: Read error at internal disk [1] sector 2408183936.
Het vreemde vind ik echter dat wanneer ik in DSM inlog alles Healthy is en ook de quick en extended SMART test gaat probleemloos.
Ook geeft ie aan in de notifications dat er een bad sector gevonden is maar in de stats van de schijf zelf is het gewoon 0
Is dit een teken dat mijn schijf langzaam de geest aan het geven is?
Zowel disk 1 als disk 2 binnen een week?
Beide zijn WD Red schijven met ca. 41K uren erop.
Of kan ik ver nog iets testen met een andere tool op een PC wellicht?
![]() | ![]() | ![]() |
![]() | ![]() | ![]() |
Ik verwacht dat /var/log/messages hier nog meer detail over kan geven. Heb je daar al naar gekeken?Peule_P schreef op woensdag 21 oktober 2020 @ 19:57:
Ik draai al geruime jaren probleemloos met een DS1813+ enkel krijg ik sinds kort 'vreemde' foutmelding in de email/log
Het begon afgelopen maandag met disk #2 en vandaag met disk #1 soortgelijke meldingen.
Deze meldingen heb ik vandaag via de mail gekregen (6 mails in totaal binnen 1 minuut)
SYSTEM: Read error at internal disk [1] sector 2408180864.
unc
ioerr
ioerr
ioerr
SYSTEM: Read error at internal disk [1] sector 2408183936.
Het vreemde vind ik echter dat wanneer ik in DSM inlog alles Healthy is en ook de quick en extended SMART test gaat probleemloos.
Ook geeft ie aan in de notifications dat er een bad sector gevonden is maar in de stats van de schijf zelf is het gewoon 0
Is dit een teken dat mijn schijf langzaam de geest aan het geven is?
Zowel disk 1 als disk 2 binnen een week?
Beide zijn WD Red schijven met ca. 41K uren erop.
Of kan ik ver nog iets testen met een andere tool op een PC wellicht?
[Afbeelding] [Afbeelding] [Afbeelding] [Afbeelding] [Afbeelding] [Afbeelding]
Weet iemand wat "User Sync Profiles" zijn in Synology Drive? Het is een leuke app maar echt verschrikkelijk slecht gedocumenteerd.
Lekker op de bank
@ZaZ
https://www.synology.com/...Drive/drive_admin_console
Als ik het goed begrijp om per gebruiker je synchronisatie settings aan te geven zoals file size en file type.
---
Note to self?
Deze is wel handig om je Synology Docker container definitie te exporteren naar yaml definitie.
Is ook wat meer portable dan het json import/export formaat dat Synology hanteert en is hierna via docker-compose te gebruiken.
https://github.com/Red5d/docker-autocompose
Generates a docker-compose yaml definition from a running container.
https://www.synology.com/...Drive/drive_admin_console
Als ik het goed begrijp om per gebruiker je synchronisatie settings aan te geven zoals file size en file type.
---
Note to self?
Deze is wel handig om je Synology Docker container definitie te exporteren naar yaml definitie.
Is ook wat meer portable dan het json import/export formaat dat Synology hanteert en is hierna via docker-compose te gebruiken.
https://github.com/Red5d/docker-autocompose
Generates a docker-compose yaml definition from a running container.
[ Voor 115% gewijzigd door technorabilia op 26-10-2020 11:25 ]
👉🏻 Blog 👈🏻
Ik heb een DS118 met 4TB HDD... nu merk ik dat hij erg traag wordt door het indexeren, cloud sync en backuppen...
Is er een mogelijkheid om een soort van USB / Sata SSD bij te prikken zodat alles wordt versneld?
Is er een mogelijkheid om een soort van USB / Sata SSD bij te prikken zodat alles wordt versneld?
Gulfstream G650
Waar wil je die inprikken dan ?SalimRMAF schreef op maandag 26 oktober 2020 @ 13:14:
Ik heb een DS118 met 4TB HDD... nu merk ik dat hij erg traag wordt door het indexeren, cloud sync en backuppen...
Is er een mogelijkheid om een soort van USB / Sata SSD bij te prikken zodat alles wordt versneld?
Processor van dit beestje is nou eenmaal niet de vlotste. Als die veel processen moet verwerken kan hij dit gewoon weg niet aan.
Extra schijfruimte bijprikken gaat hier niet in helpen.
Ik dacht dat het misschien mogelijk zou zijn om een USB SATA SSD als cache oid te kunnen gebruiken. Dat lijkt me alsnog veel sneller dan de ene HDD te gebruiken waar het OS én de bestanden op staan.Akemi schreef op maandag 26 oktober 2020 @ 13:29:
[...]
Waar wil je die inprikken dan ?
Processor van dit beestje is nou eenmaal niet de vlotste. Als die veel processen moet verwerken kan hij dit gewoon weg niet aan.
Extra schijfruimte bijprikken gaat hier niet in helpen.
Gulfstream G650
Uiteindelijk 2x Kingston KTD-PN426E/16G gekocht en werkt goed in de DS1621+.sanderdw schreef op zondag 18 oktober 2020 @ 13:33:
Weet iemand of je in de https://www.synology.com/nl-nl/products/DS1621+#specs ook dit geheugen kan gebruiken? https://tweakers.net/gehe...8JkkZV9K2CyP59aoiomk-klN4
Dus non ecc? Of iemand ervaring met een andere Syno nas waarin standaard ecc memory zit?
Ik zou via resource manager eens goed kijken waar de hoogste load op zit. Maar kans dat een cache. Is usb een serieuze snelheidswinst oplevert acht ik verwaarloosbaar.SalimRMAF schreef op maandag 26 oktober 2020 @ 13:32:
[...]
Ik dacht dat het misschien mogelijk zou zijn om een USB SATA SSD als cache oid te kunnen gebruiken. Dat lijkt me alsnog veel sneller dan de ene HDD te gebruiken waar het OS én de bestanden op staan.
Wellicht ergens te hoog geheugen gebruik (grote index) en daardoor swap naar hdd?
De grootste Nederlandstalige database met informatie over computers met zoekfunctie!!
Ik zie dat de 4 4K IP Camera's in combinatie met CloudSync en Drive Backups best wel een drama zijn.pietje63 schreef op maandag 26 oktober 2020 @ 22:24:
[...]
Ik zou via resource manager eens goed kijken waar de hoogste load op zit. Maar kans dat een cache. Is usb een serieuze snelheidswinst oplevert acht ik verwaarloosbaar.
Wellicht ergens te hoog geheugen gebruik (grote index) en daardoor swap naar hdd?
Gulfstream G650
Iemand ook die email gekregen van Docker vanmorgen over het beperken van het aantal pulls e.d.? Wat betekent dit voor de gemiddelde gebruiker?
never mind, ik moet eerst een goed lezen voor ik domme vragen stel
Je mag als ongeregistreerde free gebruiker nog 100 pulls per 6 uur doen, en als geregisteerde free gebruiker 200 pulls per 6 uur. Daar zal de gemiddelde gebruiker waarschijnlijk niet aan komen. Ik iig niet met 1x per 24h via WatchTower kijken of er updates zijn voor mijn 7 images
never mind, ik moet eerst een goed lezen voor ik domme vragen stel

Je mag als ongeregistreerde free gebruiker nog 100 pulls per 6 uur doen, en als geregisteerde free gebruiker 200 pulls per 6 uur. Daar zal de gemiddelde gebruiker waarschijnlijk niet aan komen. Ik iig niet met 1x per 24h via WatchTower kijken of er updates zijn voor mijn 7 images
[ Voor 55% gewijzigd door Yucko op 29-10-2020 10:17 ]
iPhone 15 Pro Max Titanium Black 256GB - iPad Pro 2018 12.9" Space Gray 64GB - AirPods Pro - Watch 5 Space Gray LTE - TV 4K 128GB - TV 4 64GB - Wireless CarPlay
Ik heb een vraag over Hyper Backup. Ik ben al wat aan het zoeken geweest en ik vrees dat er niet veel mogelijk is, maar ik kan maar proberen 
Ik gebruik Hyper Backup om mijn (thuis)NAS wekelijks te (offsite) backuppen naar een 2e NAS over het internet. De doel-NAS is met VPN verbonden met de bron-NAS maar de connectie is niet heel erg stabiel (ligt aan de locatie waar de doel-NAS staat, internet is er niet heel stabiel en daar heb ik geen controle over).
Nu gaat dit meestal wel goed, tenzij er eens een grotere file of vele kleintjes gebackupped moeten worden. Dan faalt de backup iedere keer en begint hij telkens van vooraf aan. Voor die ene grote file zie ik zelf geen echte oplossing, maar is er voor die hele vele kleintjes niet de mogelijkheid om te zien wat hij al heeft afgewerkt en verder te gaan bij de laatste onafgewerkte file?
Of moet ik daarvoor een alternatieve methode gebruiken (en welke is dan beter)? Of wat zouden jullie suggereren?
Edit: misschien nog aanvullen: client-side encryptie staat op dit moment aan, maar is geen must. Zou dat een verschil maken?
Ik gebruik Hyper Backup om mijn (thuis)NAS wekelijks te (offsite) backuppen naar een 2e NAS over het internet. De doel-NAS is met VPN verbonden met de bron-NAS maar de connectie is niet heel erg stabiel (ligt aan de locatie waar de doel-NAS staat, internet is er niet heel stabiel en daar heb ik geen controle over).
Nu gaat dit meestal wel goed, tenzij er eens een grotere file of vele kleintjes gebackupped moeten worden. Dan faalt de backup iedere keer en begint hij telkens van vooraf aan. Voor die ene grote file zie ik zelf geen echte oplossing, maar is er voor die hele vele kleintjes niet de mogelijkheid om te zien wat hij al heeft afgewerkt en verder te gaan bij de laatste onafgewerkte file?
Of moet ik daarvoor een alternatieve methode gebruiken (en welke is dan beter)? Of wat zouden jullie suggereren?
Edit: misschien nog aanvullen: client-side encryptie staat op dit moment aan, maar is geen must. Zou dat een verschil maken?
[ Voor 6% gewijzigd door nokie op 30-10-2020 10:45 ]
bronNAS is een DS418j, doelNAS is een DS215j. Zijn niet de zwaarste types maar dienen ook alleen letterlijk alleen maar voor netwerk-opslag: structuur is (min of meer)
PC > BronNAS > (1) local USB backup [versioned] (2) offsite NAS backup (3) offline backup
Voor alle duidelijkheid: zoals ik het tot nu toe heb opgelost, is die offsite NAS meebrengen naar huis, in de LAN is de backup zo gedaan en is er geen enkel probleem.
@kraades moet ik eens bekijken, client side kan het volgens mij wel (zie het staan) maar weet niet wat er server-side kan en heb geen ervaring met rsync.
PC > BronNAS > (1) local USB backup [versioned] (2) offsite NAS backup (3) offline backup
Voor alle duidelijkheid: zoals ik het tot nu toe heb opgelost, is die offsite NAS meebrengen naar huis, in de LAN is de backup zo gedaan en is er geen enkel probleem.
@kraades moet ik eens bekijken, client side kan het volgens mij wel (zie het staan) maar weet niet wat er server-side kan en heb geen ervaring met rsync.
Ik zou zeggen stop die al die kleine bestanden in een .zip of .rar van de afmetingen die meestal wel goed gaat.
Grote bestanden kun je met rar verdelen over meerdere bestanden.
Zo deden we dat vroeger toen we nog floppies hadden.
Grote bestanden kun je met rar verdelen over meerdere bestanden.
Zo deden we dat vroeger toen we nog floppies hadden.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
De vele kleine bestanden komen oa. van Lightroom, niet zo heel erg praktisch om die steeds te zippen.
Ik ga rsync eens bekijken eerst, volgens deze uitleg zou dat moeten werken: https://www.synology.com/...ogy_NAS_with_Hyper_Backup
Ik ga rsync eens bekijken eerst, volgens deze uitleg zou dat moeten werken: https://www.synology.com/...ogy_NAS_with_Hyper_Backup
wishful thinking.
Als je verbinding het probleem is zal rsync het nog veel moeilijker hebben.
Als je verbinding het probleem is zal rsync het nog veel moeilijker hebben.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
😕 Dan ga ik misschien beter van strategie veranderen, replicatie doen en daar dan een lokale backup van maken (aangezien replicatie geen backup is). Kost me wel de dubbele schijfruimte maar totale hoeveelheid data valt nog mee. Zien dat ik een usb HDD scoor op Black Friday dan.
Bedankt om mee te denken!
Bedankt om mee te denken!
Ik zou graag moderne video's af willen spelen via Video station, en ik begrijp dat het daarvoor nodig is om extra codecs te installeren. Default geeft download station bij mij namelijk aan:
Edit:
Ik lees dat het met Video Station gewoon niet werkt, helaas... wat zijn alternatieven? Plex ipv Video Station?
Als ik trouwens direct vanaf mijn TV afspeel gaat het perfect. Maar dan mis ik een mooie interface en wordt er niet bijgehouden wat wel / niet bekeken is.
Ik heb daarvoor ffmpeg geinstalleerd (https://synocommunity.com/package/ffmpeg#), waarvan ik lees dat het de oplossing moet zijn. Maar het lijkt niets te doen, al meerdere keren geïnstalleerd, reboot. Maar afspelen via Video Station werkt helaas niet. Naast op "install" klikken, moet ik nog meer doen? Zie geen instel mogelijkheden.Transcoderen is mislukt. De indeling van het audiobestand wordt niet ondersteund.
Edit:
Ik lees dat het met Video Station gewoon niet werkt, helaas... wat zijn alternatieven? Plex ipv Video Station?
Als ik trouwens direct vanaf mijn TV afspeel gaat het perfect. Maar dan mis ik een mooie interface en wordt er niet bijgehouden wat wel / niet bekeken is.
[ Voor 18% gewijzigd door Timo002 op 02-11-2020 20:17 ]
Ik adviseer mensen altijd Kodi te gebruiken op Android tv of android tv box of Windows pc geen geneuzel en mooie interface. Gebruik zelf de video alleen af en toe op de mobiel als ik niet thuis ben.Timo002 schreef op maandag 2 november 2020 @ 20:05:
Ik zou graag moderne video's af willen spelen via Video station, en ik begrijp dat het daarvoor nodig is om extra codecs te installeren. Default geeft download station bij mij namelijk aan:
[...]
Ik heb daarvoor ffmpeg geinstalleerd (https://synocommunity.com/package/ffmpeg#), waarvan ik lees dat het de oplossing moet zijn. Maar het lijkt niets te doen, al meerdere keren geïnstalleerd, reboot. Maar afspelen via Video Station werkt helaas niet. Naast op "install" klikken, moet ik nog meer doen? Zie geen instel mogelijkheden.
Edit:
Ik lees dat het met Video Station gewoon niet werkt, helaas... wat zijn alternatieven? Plex ipv Video Station?
Als ik trouwens direct vanaf mijn TV afspeel gaat het perfect. Maar dan mis ik een mooie interface en wordt er niet bijgehouden wat wel / niet bekeken is.
AMD 5950x || Asus VIII Dark Hero || G.Skill Trident Z Neo 2x16GB C16-16-16-36 || EVGA FTW3 3080 Ultra || 2x WD SN850 1TB || Corsair HX850i
Wellicht dat ik iets wil wat niet kan
Ik heb een script draaien welke een backup maakt van mijn raspberry naar de NAS.
Taak staat in de taakplanner van de syno.
Deze maakt om 8 uur 's avonds verbinding met de raspberry en kopieert de gewijzigde bestanden zodat als de sd-kaart corrupt of defect gaat ik nog een backup heb om door te gaan.
Werkt allemaal prima, maar ik kan zover ik zie de taak niet per uur draaien.
Althans ik kan de taak op een bepaalde tijd starten en dan elk uur laten lopen.
Maar ik wil de taak tussen 8 uur 's morgens en 10 uur 's avonds laten lopen.
Weet iemand of dat ook mogelijk is ?
Ik heb een script draaien welke een backup maakt van mijn raspberry naar de NAS.
Taak staat in de taakplanner van de syno.
Deze maakt om 8 uur 's avonds verbinding met de raspberry en kopieert de gewijzigde bestanden zodat als de sd-kaart corrupt of defect gaat ik nog een backup heb om door te gaan.
Werkt allemaal prima, maar ik kan zover ik zie de taak niet per uur draaien.
Althans ik kan de taak op een bepaalde tijd starten en dan elk uur laten lopen.
Maar ik wil de taak tussen 8 uur 's morgens en 10 uur 's avonds laten lopen.
Weet iemand of dat ook mogelijk is ?
2250 WP Zuid PVoutput
@kraades Ik zie nu dat ik de laatste regel verkeerd laskraades schreef op dinsdag 3 november 2020 @ 08:11:
@MdO82
Bij Schedule de First run time op 8:00, Frequency op Every hour en Last run time op 22:00 zetten.
Dacht dat men daarmee doelde om wanneer de taak het laatst gedraaid heeft.
Tja lezen kan soms lastig zijn
Thanks!
2250 WP Zuid PVoutput
Goedemiddag,
Ik had een vraagje ik heb onlangs mijn DS220j vervangen door een DS920+, de migratie is goed verlopen. Gewoon plug en play + een paar reparaties van packages.
Ik heb een aantal volgende stappen ondernomen en heb een paar vragen bij:
Oude situatie:
DS220j 2x 3TB
Nieuwe situatie:
DS920+ 2x 3TB + 2x 14TB
1. Tijdens de migratie heb ik de 2 3TB (volume 1) schijven overgezet naar de nieuwe NAS, dit ging erg gemakkelijk.
Nu wilde ik ook de 2 14TB schijven toevoegen. Ik had gelezen dat DS220j op 32 bit en ext4 draaide, dus dat er een maximum capaciteit voor de volumes van 16TB is. Daardoor wilde ik met SHR en btrfs een volume maken van alle schijven wat volgens de calculator op 20 TB (+14 TB red.) uitkomt.
2. Dus ik heb een nieuwe volume aangemaakt (volume 2) met de 2 14TB schijven, alles gemigreerd ook de packages.
3. volume 1 verwijderd, secure erase.
Ik denk dat ik weet wat de volgende stappen zijn, maar ik wil voor de zekerheid even bevestiging. Want het kost erg veel tijd:
4. Nieuwe volume creeeren van de 3 TB schijven (Volume 3), met SHR + btrfs.
5. Alles migreren naar Volume 3
6. Volume 2 verwijderen en erasen.
7. Dan de 2 14TB schijven toevoegen aan mijn volume 3
Klopt dit?
Of hebben jullie andere tips?
Ik dacht eerst dat het makkelijker was, gewoon de oude 3 TB schijven toevoegen aan Volume 2. Maar was even vergeten dat je alleen gelijke of grotere schijven kan toevoegen..
Ik had een vraagje ik heb onlangs mijn DS220j vervangen door een DS920+, de migratie is goed verlopen. Gewoon plug en play + een paar reparaties van packages.
Ik heb een aantal volgende stappen ondernomen en heb een paar vragen bij:
Oude situatie:
DS220j 2x 3TB
Nieuwe situatie:
DS920+ 2x 3TB + 2x 14TB
1. Tijdens de migratie heb ik de 2 3TB (volume 1) schijven overgezet naar de nieuwe NAS, dit ging erg gemakkelijk.
Nu wilde ik ook de 2 14TB schijven toevoegen. Ik had gelezen dat DS220j op 32 bit en ext4 draaide, dus dat er een maximum capaciteit voor de volumes van 16TB is. Daardoor wilde ik met SHR en btrfs een volume maken van alle schijven wat volgens de calculator op 20 TB (+14 TB red.) uitkomt.
2. Dus ik heb een nieuwe volume aangemaakt (volume 2) met de 2 14TB schijven, alles gemigreerd ook de packages.
3. volume 1 verwijderd, secure erase.
Ik denk dat ik weet wat de volgende stappen zijn, maar ik wil voor de zekerheid even bevestiging. Want het kost erg veel tijd:
4. Nieuwe volume creeeren van de 3 TB schijven (Volume 3), met SHR + btrfs.
5. Alles migreren naar Volume 3
6. Volume 2 verwijderen en erasen.
7. Dan de 2 14TB schijven toevoegen aan mijn volume 3
Klopt dit?
Of hebben jullie andere tips?
Ik dacht eerst dat het makkelijker was, gewoon de oude 3 TB schijven toevoegen aan Volume 2. Maar was even vergeten dat je alleen gelijke of grotere schijven kan toevoegen..
hey heren,
Ik ben op zoek naar een goede NAS en zit nu te twijfelen tussen de DS220+ of de 720+.
De NAS wordt voornamelijk gebruikt voor data opslag en media streaming (plex). 2 x WD Red Plus 4 TB erin en een memory upgrade naar (2+8gb).
Nu begrijp ik dat de 720+ een betere cpu heeft en uitbreidingsmogelijkheden. Mijn huidige data is nauwlijks 2 TB. Wat zouden jullie adviseren? 220 of 720?
Ik ben op zoek naar een goede NAS en zit nu te twijfelen tussen de DS220+ of de 720+.
De NAS wordt voornamelijk gebruikt voor data opslag en media streaming (plex). 2 x WD Red Plus 4 TB erin en een memory upgrade naar (2+8gb).
Nu begrijp ik dat de 720+ een betere cpu heeft en uitbreidingsmogelijkheden. Mijn huidige data is nauwlijks 2 TB. Wat zouden jullie adviseren? 220 of 720?
@thisisjazz
Op basis van wat je nu schrijft is de DS220+ voldoende. Verder hangt het af wat je er in de toekomst mee wil gaan doen. De extra cores zou je bijvoorbeeld kunnen gebruiken als je iets met virtualisatie gaat doen. Maar de DS220+ is voldoende voor nu.
https://www.synology.com/...cts/compare/DS220+/DS720+
Op basis van wat je nu schrijft is de DS220+ voldoende. Verder hangt het af wat je er in de toekomst mee wil gaan doen. De extra cores zou je bijvoorbeeld kunnen gebruiken als je iets met virtualisatie gaat doen. Maar de DS220+ is voldoende voor nu.
https://www.synology.com/...cts/compare/DS220+/DS720+
👉🏻 Blog 👈🏻
Duidelijk verhaal! Dat was ook wel mijn gevoel. Bedankt.kraades schreef op woensdag 4 november 2020 @ 07:49:
@thisisjazz
Op basis van wat je nu schrijft is de DS220+ voldoende. Verder hangt het af wat je er in de toekomst mee wil gaan doen. De extra cores zou je bijvoorbeeld kunnen gebruiken als je iets met virtualisatie gaat doen. Maar de DS220+ is voldoende voor nu.
https://www.synology.com/...cts/compare/DS220+/DS720+
Precies wat ik zocht, maar hoe installeer ik zoiets dan?Ben(V) schreef op woensdag 16 september 2020 @ 17:59:
EDIT:
Ik heb ook een Synology package voor Medusa gemaakt.
Die is ook op dezelfde github te vinden.
Have fun.
Installeer normaal alleen via Synology web interface.
xbox live / psn / steam / nintendo id: phusebox | iRacing
Download het package naar je PC.
Kies in het package center voor "Manual Install", browse naar de locatie waar je het package gedownload hebt en selecteer het.
Easy as cake.
Kies in het package center voor "Manual Install", browse naar de locatie waar je het package gedownload hebt en selecteer het.
Easy as cake.
All truth passes through three stages: First it is ridiculed, second it is violently opposed and third it is accepted as being self-evident.
Verwijderd
ondertussen probeer ik dsm 7 te downgraden via het Reddit forum op deze manier:
1 Get putty ready
2 DSM7.0 opens Telnet and SSH
3 Use puTTY to connect to DSM7, enter the user password, and enter the following command code:
sudo vi /etc.defaults/VERSION
4.Overwrite VERSION content:
majorversion="6" minorversion="2" productversion="6.2.3" buildphase="GM" buildnumber="25426" smallfixnumber="0" builddate="2020/07/01" buildtime="06:24:39"
5.Reboot the machine
6.Use the Synology Assistant to find the machine
7.Install DSM 6.2.3(At this point, the upgrade will prompt an error, don't worry, because at this point, Telnet port will be opened, and only after this step, can port 23 be opened, repeat point 3, but the user name: root password is: 101-0101)
8.Just install 6.2.3 again. It is recommended not to keep the configuration (the file will not be lost), and DSM7 has been successfully degraded to DSM6.2.3
stap 3 lukt me dmv sudo, stap 4 lukt ook maar ik weet niet hoe ik daarna dat moet opslaan.
Ik druk op insert knop op de windows machine en pas alles exact aan wat er staat. daarna doe ik escape en start met de 2e laptop de Synology opnieuw op via de weginterface het account en dan herstarten te klikken.
Als ik stap 6 doe moet ik een nieuwe admin wachtwoord kiezen wat ik dan doe via Synology Assistant maar ik krijg NIET via de web interface 6.2.3 geïnstalleerd (configuratiescherm-->bijwerken en herstellen). hij geeft duidelijk aan dat dsm 7 niet gedowngrade kan worden.
Als ik dan stap 3 doe zonder sudo geeft hij ook weer aan dat ik versie 7 erop heb en het dus niet veranderd heb.
weet iemand hoe ik dit kan fixen want ik heb spijt van dsm7
Soms heb ik ook echt van die geniale acties maar ik moet echt leren om niet mijn vingertjes te gaan branden aan iets wat ik niet helemaal ken. domme ik.
1 Get putty ready
2 DSM7.0 opens Telnet and SSH
3 Use puTTY to connect to DSM7, enter the user password, and enter the following command code:
sudo vi /etc.defaults/VERSION
4.Overwrite VERSION content:
majorversion="6" minorversion="2" productversion="6.2.3" buildphase="GM" buildnumber="25426" smallfixnumber="0" builddate="2020/07/01" buildtime="06:24:39"
5.Reboot the machine
6.Use the Synology Assistant to find the machine
7.Install DSM 6.2.3(At this point, the upgrade will prompt an error, don't worry, because at this point, Telnet port will be opened, and only after this step, can port 23 be opened, repeat point 3, but the user name: root password is: 101-0101)
8.Just install 6.2.3 again. It is recommended not to keep the configuration (the file will not be lost), and DSM7 has been successfully degraded to DSM6.2.3
stap 3 lukt me dmv sudo, stap 4 lukt ook maar ik weet niet hoe ik daarna dat moet opslaan.
Ik druk op insert knop op de windows machine en pas alles exact aan wat er staat. daarna doe ik escape en start met de 2e laptop de Synology opnieuw op via de weginterface het account en dan herstarten te klikken.
Als ik stap 6 doe moet ik een nieuwe admin wachtwoord kiezen wat ik dan doe via Synology Assistant maar ik krijg NIET via de web interface 6.2.3 geïnstalleerd (configuratiescherm-->bijwerken en herstellen). hij geeft duidelijk aan dat dsm 7 niet gedowngrade kan worden.
Als ik dan stap 3 doe zonder sudo geeft hij ook weer aan dat ik versie 7 erop heb en het dus niet veranderd heb.
weet iemand hoe ik dit kan fixen want ik heb spijt van dsm7
Soms heb ik ook echt van die geniale acties maar ik moet echt leren om niet mijn vingertjes te gaan branden aan iets wat ik niet helemaal ken. domme ik.
Sinds kort I/O fouten op één HDD tijdens het draaien van 'gegevens controle' op een raid 5. Dit begon in oktober en vannacht was het weer raak, alleen dit keer met veel meer meldingen in de logboek.
De notificatie heeft het over 'Leesafwijking (UNC-fout) gedetecteerd op schijf 1 op DS916+'. Waarbij er wordt aangeraden tot een directe back-up en het uitvoeren van een uitgebreide SMART test. Nu heb ik dit in oktober al gedaan. Alleen het is zo dat de uitgebreide SMART test blijft hangen op 90%. Dit schijnt een Synology probleem te zijn. Vervolgens zie ik in de notificaties meerdere "Bad sector was found on disk[1]" meldingen.
Echter wanneer ik dan kijk in Opslagbeheer / Opslagpool of HDD/SDD. Dan staat de HDD gemarkeerd als gezond.Integriteitsinfo van de HDD geeft ook aan 0 beschadigde sectoren. Hetzelfde met de SMART gegevens van de HDD.
Raw_Read_Error_Rate staat momenteel wel op 200 (waarde) / 200 (slechts)/ 051 (drempel)/ 39 (ongebewerkte gegevens).
Iemand een idee of dit betekend dat de HDD echt aan het faalen is?
De notificatie heeft het over 'Leesafwijking (UNC-fout) gedetecteerd op schijf 1 op DS916+'. Waarbij er wordt aangeraden tot een directe back-up en het uitvoeren van een uitgebreide SMART test. Nu heb ik dit in oktober al gedaan. Alleen het is zo dat de uitgebreide SMART test blijft hangen op 90%. Dit schijnt een Synology probleem te zijn. Vervolgens zie ik in de notificaties meerdere "Bad sector was found on disk[1]" meldingen.
Echter wanneer ik dan kijk in Opslagbeheer / Opslagpool of HDD/SDD. Dan staat de HDD gemarkeerd als gezond.Integriteitsinfo van de HDD geeft ook aan 0 beschadigde sectoren. Hetzelfde met de SMART gegevens van de HDD.
Raw_Read_Error_Rate staat momenteel wel op 200 (waarde) / 200 (slechts)/ 051 (drempel)/ 39 (ongebewerkte gegevens).
Iemand een idee of dit betekend dat de HDD echt aan het faalen is?
< dit stukje webruimte is te huur >
Wat zijn de klachten met v7?
Verwijderd schreef op donderdag 5 november 2020 @ 16:03:
ondertussen probeer ik dsm 7 te downgraden via het Reddit forum op deze manier:
1 Get putty ready
2 DSM7.0 opens Telnet and SSH
3 Use puTTY to connect to DSM7, enter the user password, and enter the following command code:
sudo vi /etc.defaults/VERSION
4.Overwrite VERSION content:
majorversion="6" minorversion="2" productversion="6.2.3" buildphase="GM" buildnumber="25426" smallfixnumber="0" builddate="2020/07/01" buildtime="06:24:39"
5.Reboot the machine
6.Use the Synology Assistant to find the machine
7.Install DSM 6.2.3(At this point, the upgrade will prompt an error, don't worry, because at this point, Telnet port will be opened, and only after this step, can port 23 be opened, repeat point 3, but the user name: root password is: 101-0101)
8.Just install 6.2.3 again. It is recommended not to keep the configuration (the file will not be lost), and DSM7 has been successfully degraded to DSM6.2.3
stap 3 lukt me dmv sudo, stap 4 lukt ook maar ik weet niet hoe ik daarna dat moet opslaan.
Ik druk op insert knop op de windows machine en pas alles exact aan wat er staat. daarna doe ik escape en start met de 2e laptop de Synology opnieuw op via de weginterface het account en dan herstarten te klikken.
Als ik stap 6 doe moet ik een nieuwe admin wachtwoord kiezen wat ik dan doe via Synology Assistant maar ik krijg NIET via de web interface 6.2.3 geïnstalleerd (configuratiescherm-->bijwerken en herstellen). hij geeft duidelijk aan dat dsm 7 niet gedowngrade kan worden.
Als ik dan stap 3 doe zonder sudo geeft hij ook weer aan dat ik versie 7 erop heb en het dus niet veranderd heb.
weet iemand hoe ik dit kan fixen want ik heb spijt van dsm7
Soms heb ik ook echt van die geniale acties maar ik moet echt leren om niet mijn vingertjes te gaan branden aan iets wat ik niet helemaal ken. domme ik.
Verwijderd
Ik wil mijn foto backup van mijn iphone normaal kunnen blijven doen met moments of desnoods photostation maar dat wil niet.
Ik wil het geautomatiseerd hebben en niet alles afzonderlijk moeten doen.
@Verwijderd is het alleen het opslaan in vi wat niet lukt? Oftewel, is het VERSION bestand wel juist opgeslagen? Normaal sla je het op met het commando ':wq', zie ook https://www.guru99.com/the-vi-editor.html
Waar is Jos de Nooyer toch gebleven?
Verwijderd
Als ik dat doe krijg een melding met rode letters iets van read only press ! To continuekraats schreef op donderdag 5 november 2020 @ 19:36:
@Verwijderd is het alleen het opslaan in vi wat niet lukt? Oftewel, is het VERSION bestand wel juist opgeslagen? Normaal sla je het op met het commando ':wq', zie ook https://www.guru99.com/the-vi-editor.html
@Verwijderd Dan kun je volgens mij opslaan met :w!
Als je 'm daarna nog eens opent in vi kun je zien of de wijzigingen wel opgeslagen zijn, voordat je naar de volgende stap doorgaat
Als je 'm daarna nog eens opent in vi kun je zien of de wijzigingen wel opgeslagen zijn, voordat je naar de volgende stap doorgaat
Waar is Jos de Nooyer toch gebleven?
Je file is voor jouw user niet te schrijven; enkel read-only dus.
Even sudo'en en klaar ben je.
Verwijderd schreef op donderdag 5 november 2020 @ 19:48:
[...]
Als ik dat doe krijg een melding met rode letters iets van read only press ! To continue
Verwijderd
kennelijk was dat de truc!smeerbartje schreef op donderdag 5 november 2020 @ 20:02:
heeft niets met vi te maken.
Je file is voor jouw user niet te schrijven; enkel read-only dus.
Even sudo'en en klaar ben je.
[...]
ik heb print screens gemaakt als het niet lukt. als dit gelukt heeft laat ik het direct weten en zal ik beloven niet meer te pielen aan mijn nas.

UPDATE:
hij ziet hem nu als 6.2.3 maar mijn DS218+ zegt dat hij al de recentste draait.
nu moet ik dus kijken of ik hem kan laten denken dat hij bv.6.2.2 draait
nieuwe update:
hij is aan het downgraden. Ik wil iedereen bedanken voor zijn en of haar input. zonder jullie was dit niet gelukt.
Ik ga hier niet aan lopen pielen maar laat het nu voor wat het is. er zit al 32GB RAM in en dat is al overkill zat daarnaast is beta draaien niet echt een tof iets. moraal van het verhaal, ik blijf er van af en ga er niet verder mee lopen prutsen.
[ Voor 38% gewijzigd door Verwijderd op 05-11-2020 20:51 ]
Tipje voor de vi-editor:
Shift zz (oftewel ZZ) is gelijk aan :wq!.
Shift zz (oftewel ZZ) is gelijk aan :wq!.
👉🏻 Blog 👈🏻
Ik wil graag een NAS aanschaffen voor oa bestanden delen, hosting/database, docker en surveillance station. Ik ben nu aan het twijfelen tussen de DS420+ of een DS220+ samen met een DS118.
In de DS420+ zou ik twee volumes aanmaken, eentje van 1 schijf voor de surveillance station en eentje van 3 schijven (SHR) voor de rest van de zaken die ik wil doen. Ik vraag me af of de schijven van dit tweede volume in slaap modus gaan wanneer dit kan of net de hele tijd wakker blijven door de activiteit van surveillance station op het andere volume?
Bij de optie DS220+ en DS118 zou ik het gebruik dus splitsen en de DS118 gebruiken om de camera beelden op te slaan.
Heeft er iemand tips of opmerkingen? Bedankt!
In de DS420+ zou ik twee volumes aanmaken, eentje van 1 schijf voor de surveillance station en eentje van 3 schijven (SHR) voor de rest van de zaken die ik wil doen. Ik vraag me af of de schijven van dit tweede volume in slaap modus gaan wanneer dit kan of net de hele tijd wakker blijven door de activiteit van surveillance station op het andere volume?
Bij de optie DS220+ en DS118 zou ik het gebruik dus splitsen en de DS118 gebruiken om de camera beelden op te slaan.
Heeft er iemand tips of opmerkingen? Bedankt!
Idem problemen hier af en toe, zie een paar posts terug in dit topic.aex351 schreef op donderdag 5 november 2020 @ 16:11:
Sinds kort I/O fouten op één HDD tijdens het draaien van 'gegevens controle' op een raid 5. Dit begon in oktober en vannacht was het weer raak, alleen dit keer met veel meer meldingen in de logboek.
De notificatie heeft het over 'Leesafwijking (UNC-fout) gedetecteerd op schijf 1 op DS916+'. Waarbij er wordt aangeraden tot een directe back-up en het uitvoeren van een uitgebreide SMART test. Nu heb ik dit in oktober al gedaan. Alleen het is zo dat de uitgebreide SMART test blijft hangen op 90%. Dit schijnt een Synology probleem te zijn. Vervolgens zie ik in de notificaties meerdere "Bad sector was found on disk[1]" meldingen.
Echter wanneer ik dan kijk in Opslagbeheer / Opslagpool of HDD/SDD. Dan staat de HDD gemarkeerd als gezond.Integriteitsinfo van de HDD geeft ook aan 0 beschadigde sectoren. Hetzelfde met de SMART gegevens van de HDD.
Raw_Read_Error_Rate staat momenteel wel op 200 (waarde) / 200 (slechts)/ 051 (drempel)/ 39 (ongebewerkte gegevens).
Iemand een idee of dit betekend dat de HDD echt aan het faalen is?
Maar bij mij complete de extended SMART test wel gewoon.
Nu alweer een paar weken niet voorgekomen. En draait alles probleemloos.
Was een suggestie van een member hier om meer details via /var/log of iets dergelijks te kijken maar heb eigenlijk geen idee hoe ik dit doe...
Als je een database wilt hosten dan zou ik zeker kijken naar een model met NVME cache. Dat maakt echt verschil dat je merkt._WouterB schreef op vrijdag 6 november 2020 @ 00:40:
Ik wil graag een NAS aanschaffen voor oa bestanden delen, hosting/database, docker en surveillance station. Ik ben nu aan het twijfelen tussen de DS420+ of een DS220+ samen met een DS118.
In de DS420+ zou ik twee volumes aanmaken, eentje van 1 schijf voor de surveillance station en eentje van 3 schijven (SHR) voor de rest van de zaken die ik wil doen. Ik vraag me af of de schijven van dit tweede volume in slaap modus gaan wanneer dit kan of net de hele tijd wakker blijven door de activiteit van surveillance station op het andere volume?
Bij de optie DS220+ en DS118 zou ik het gebruik dus splitsen en de DS118 gebruiken om de camera beelden op te slaan.
Heeft er iemand tips of opmerkingen? Bedankt!
Vmu
Hangt wel erg af van het type en gebruik database. Heb op mijn ds118 een eenvoudige mysql database voor eigen gebruik en dat is geen enkel probleem. Een grotere website die zwaar leunt op een database en meerdere gelijktijdige gebruikers zal een ander verhaal zijnVmu schreef op vrijdag 6 november 2020 @ 07:14:
[...]
Als je een database wilt hosten dan zou ik zeker kijken naar een model met NVME cache. Dat maakt echt verschil dat je merkt.
De grootste Nederlandstalige database met informatie over computers met zoekfunctie!!
Ja de verdere waardes zijn ook gewoon prima. Denk dat de HDD even op een bepaald punt tegen een probleem aanliep en alsnog zichzelf kon corrigeren, zonder verdere acties. Maar waarom de scan dan bad sectors meldt zonder de noodzaak dit te corrigeren snap ik dan niet.Peule_P schreef op vrijdag 6 november 2020 @ 06:24:
[...]
Idem problemen hier af en toe, zie een paar posts terug in dit topic.
Maar bij mij complete de extended SMART test wel gewoon.
Nu alweer een paar weken niet voorgekomen. En draait alles probleemloos.
Was een suggestie van een member hier om meer details via /var/log of iets dergelijks te kijken maar heb eigenlijk geen idee hoe ik dit doe...
In elk geval ga ik die HDD maar vervangen. Ondanks het waarschijnlijk nog een prima HDD is. Al draait deze wel al bijna 6 jaar.
< dit stukje webruimte is te huur >
Inderdaad.pietje63 schreef op vrijdag 6 november 2020 @ 11:13:
[...]
Hangt wel erg af van het type en gebruik database. Heb op mijn ds118 een eenvoudige mysql database voor eigen gebruik en dat is geen enkel probleem. Een grotere website die zwaar leunt op een database en meerdere gelijktijdige gebruikers zal een ander verhaal zijn
Je kunt zonder problemen een simpele wordpress site hosten, grafana/influxdb in docker naast je andere dingen en het gaat prima.
Als je meer random read/writes naar je sql database van plan bent wordt het wel een idee om wat betere specs te kiezen anders zit de hele tijd het volume op 100% write.
Vmu
Loop toevallig vandaag tegen hetzelfde aan. UNC-fouten, waarschuwingen voor bad sectors en SMART wil niet afronden.aex351 schreef op vrijdag 6 november 2020 @ 12:12:
Ja de verdere waardes zijn ook gewoon prima. Denk dat de HDD even op een bepaald punt tegen een probleem aanliep en alsnog zichzelf kon corrigeren, zonder verdere acties. Maar waarom de scan dan bad sectors meldt zonder de noodzaak dit te corrigeren snap ik dan niet.
In elk geval ga ik die HDD maar vervangen. Ondanks het waarschijnlijk nog een prima HDD is. Al draait deze wel al bijna 6 jaar.
Op dit moment zie ik geen andere dingen an read error rate die niet nul is, maar dat is op zich logisch als hij een test niet af wil ronden.
Ik ga toch even op onderzoek uit want wil wel zeker weten hoe het staat met de relocated, pending en offline uncorrectable waarden.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
In jouw screenshot mis ik nog drie SMART waarden die ik graag zou willen zien als ik jou was, die staan bijna onderaan in het lijstje. Dat de relocated op 0 staat is meestal vrij normaal, ook bij problemen.Peule_P schreef op vrijdag 6 november 2020 @ 06:24:
Idem problemen hier af en toe, zie een paar posts terug in dit topic.
Maar bij mij complete de extended SMART test wel gewoon.
Nu alweer een paar weken niet voorgekomen. En draait alles probleemloos.
Was een suggestie van een member hier om meer details via /var/log of iets dergelijks te kijken maar heb eigenlijk geen idee hoe ik dit doe...
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Volgens mij staan die waardes los van een SMART test. Alleen wat een SMART doet is helemaal door de HDD gaan, waardoor de waardes potentieel omhoog kunnen gaan. Maar in een normale gebruikssituatie kunnen de waardes ook oplopen wanneer de HDD tegen problemen aanloopt. Alleen dat is nu in beide gevallen niet gebeurd. Waardoor je zou kunnen concluderen dat het probleem wellicht aan Synology/DSM ligt of dat ze van een mug een olifant maken.Gonadan schreef op zaterdag 7 november 2020 @ 13:53:
[...]
Loop toevallig vandaag tegen hetzelfde aan. UNC-fouten, waarschuwingen voor bad sectors en SMART wil niet afronden.
Op dit moment zie ik geen andere dingen an read error rate die niet nul is, maar dat is op zich logisch als hij een test niet af wil ronden.
Ik ga toch even op onderzoek uit want wil wel zeker weten hoe het staat met de relocated, pending en offline uncorrectable waarden.
In elk geval heb ik nu uit voorzorg de HDD vervangen. Rebuild van een 4 TB WD Red HDD in een 4x 4 TB raid 5 opstelling duurde ongeveer 8-12 uur via een hot swap. Deze HDD had ik destijds als paar (2x 4 TB) gekocht, dus die andere ga ik ook vervangen.
Verder zit ik nu te denken hoe ik deze (oude) HDD (inclusief de 2e) kan hergebruiken. Want ze functioneren nog prima. Wellicht een extender kopen voor mijn 916+. Iemand ervaringen daarmee?
< dit stukje webruimte is te huur >
Hmm, dat durf ik niet te zeggen. Ik was in de veronderstelling dat een test nodig was om de waarde up to date te krijgen.aex351 schreef op zaterdag 7 november 2020 @ 15:27:
Volgens mij staan die waardes los van een SMART test. Alleen wat een SMART doet is helemaal door de HDD gaan, waardoor de waardes potentieel omhoog kunnen gaan. Maar in een normale gebruikssituatie kunnen de waardes ook oplopen wanneer de HDD tegen problemen aanloopt. Alleen dat is nu in beide gevallen niet gebeurd. Waardoor je zou kunnen concluderen dat het probleem wellicht aan Synology/DSM ligt of dat ze van een mug een olifant maken.
Waar jij op doelt is een uitgebreide test, dan gaat hij inderdaad door de hele schijf heen. Ik denk nu zelf aan een snelle test.
Als ik hun pagina bekijk hoef je er inderdaad niet meteen een probleem achter te zoeken:
https://www.synology.com/...eiving_bad_sector_warning
Maar toch vind ik een read error rate boven de 0 niet prettig, zeker niet omdat de schijven in feite al 'tweedehands' zijn en jaren oud.
In een SHR-2 hangen zodat je langer durft te gokken dat ze nog niet stuk zijn?In elk geval heb ik nu uit voorzorg de HDD vervangen. Rebuild van een 4 TB WD Red HDD in een 4x 4 TB raid 5 opstelling duurde ongeveer 8-12 uur via een hot swap. Deze HDD had ik destijds als paar (2x 4 TB) gekocht, dus die andere ga ik ook vervangen.
Verder zit ik nu te denken hoe ik deze (oude) HDD (inclusief de 2e) kan hergebruiken. Want ze functioneren nog prima. Wellicht een extender kopen voor mijn 916+. Iemand ervaringen daarmee?
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
Wat voor HDD's heb je dan en wat is de huidige SMART waarde? denk dat een read_error_rate niet perse een probleem hoeft te zijn. HDD 1, dus de 'probleem HDD', had een raw waarde van 39. HDD 2 uit dezelfde serie, die geen problemen heeft, heeft een raw waarde van 378. Die gaf geloof ik een jaar geleden of langer zelfs 1x aan in Synology/DSM 'bad clusters' maar ook daarna niets meer van vernomen. In beide gevallen 0 bad clusters of pending.Gonadan schreef op zaterdag 7 november 2020 @ 15:38:
[...]
Hmm, dat durf ik niet te zeggen. Ik was in de veronderstelling dat een test nodig was om de waarde up to date te krijgen.
Waar jij op doelt is een uitgebreide test, dan gaat hij inderdaad door de hele schijf heen. Ik denk nu zelf aan een snelle test.
Als ik hun pagina bekijk hoef je er inderdaad niet meteen een probleem achter te zoeken:
https://www.synology.com/...eiving_bad_sector_warning
Maar toch vind ik een read error rate boven de 0 niet prettig, zeker niet omdat de schijven in feite al 'tweedehands' zijn en jaren oud.
[...]
In een SHR-2 hangen zodat je langer durft te gokken dat ze nog niet stuk zijn?
< dit stukje webruimte is te huur >
WD Green. Huidige rates zijn 0, 0, 3 en 100.aex351 schreef op zaterdag 7 november 2020 @ 15:42:
Wat voor HDD's heb je dan en wat is de huidige SMART waarde? denk dat een read_error_rate niet perse een probleem hoeft te zijn. HDD 1, dus de 'probleem HDD', had een raw waarde van 39. HDD 2 uit dezelfde serie, die geen problemen heeft, heeft een raw waarde van 378. Die gaf geloof ik een jaar geleden of langer zelfs 1x aan in Synology/DSM 'bad clusters' maar ook daarna niets meer van vernomen. In beide gevallen 0 bad clusters of pending.
Nu worden waarden na correctie of overschrijven ook weer naar 0 gezet, dus het is even de vraag hoe het nu echt zit. Gelukkig hebben we daar een ander topic voor.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
voilaGonadan schreef op zaterdag 7 november 2020 @ 13:53:
[...]
In jouw screenshot mis ik nog drie SMART waarden die ik graag zou willen zien als ik jou was, die staan bijna onderaan in het lijstje. Dat de relocated op 0 staat is meestal vrij normaal, ook bij problemen.
SMART waarden van Disk 1 en Disk 2.
Vannacht trouwens op beide disks weer een IDNF error gehad, verder alles goed zegt ie nu weer
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/woduEsWb5T7OTCmVGtjxCqX5.jpg?f=user_large)
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/3R2EeKafLFGrc57DourkhN0i.jpg?f=user_large)
Als je dat dan zo ziet zou je inderdaad zeggen dat er niet zoveel aan de hand is. Is de software van Synology zo gevoelig daarin of zo?Peule_P schreef op maandag 9 november 2020 @ 09:29:
[...]
voila
SMART waarden van Disk 1 en Disk 2.
Vannacht trouwens op beide disks weer een IDNF error gehad, verder alles goed zegt ie nu weer![]()
[Afbeelding]
[Afbeelding]
Zelf heb ik mijn smart waarden in het check je smart topic gegooid, die waarden zijn een stukje erger dan die van jou maar ook dat vond men niet zo boeiend.
Toch vind ik de melding van UNC, slechte sectoren een een SMART-test die niet meer wil lukken toch wel een indicatie dat je niet net moet doen alsof er niets aan de hand is.
Look for the signal in your life, not the noise.
Canon R6 | 50 f/1.8 STM | 430EX II
Sigma 85 f/1.4 Art | 100-400 Contemporary
Zeiss Distagon 21 f/2.8
nee precies, hij geeft die melding en dat was het, ding draait vrolijk verder.
Ook de SMART test (extended) verloopt probleemloos.
Ik heb een HDD Dock besteld om de schijven een buiten de NAS op een Windows PC met HDTune of iets dergelijks kan testen.
Wie weet komt daar iets meer uit.
Ook de SMART test (extended) verloopt probleemloos.
Ik heb een HDD Dock besteld om de schijven een buiten de NAS op een Windows PC met HDTune of iets dergelijks kan testen.
Wie weet komt daar iets meer uit.
Let op:
Dit topic is onderdeel van de drie topics over Synology:In dit Vraag en Antwoord topic mogen alle vragen over Synology-producten tenzij:
Dit topic is onderdeel van de drie topics over Synology:In dit Vraag en Antwoord topic mogen alle vragen over Synology-producten tenzij:
- ... het een vraag betreft over een addon package voor Synology; daar is een apart topic voor.
- ... het een aankondiging of discussie-item betreft wat in het Nieuws en discussie topic hoort.
- ... jouw vraag al beantwoord is in de Veelgestelde vragen (FAQ).